Brad Smith, presidente da empresa de BigTech Microsoft, pediu aos governos que se movam mais rápido e que as corporações se apressem em meio a uma aceleração maciça no desenvolvimento da inteligência artificial.
Falando em um painel diante de legisladores dos Estados Unidos em Washington DC, Smith fez a ligação ao propor regulamentos que poderiam mitigar os riscos potenciais da IA, de acordo com um relatório do The New York Times.
A empresa pediu que as empresas implementem freios de segurança para sistemas de IA que controlam a infraestrutura crítica e desenvolvam uma estrutura legal e regulatória mais ampla para IA, entre outras coisas.
AI may be the most consequential technology advance of our lifetime. Today we announced a 5-point blueprint for Governing AI. It addresses current and emerging issues, brings the public and private sector together, and ensures this tool serves all society. https://t.co/zYektkQlZy
— Brad Smith (@BradSmi) May 25, 2023
Smith é mais um peso-pesado da indústria a dar o alarme sobre o rápido desenvolvimento da tecnologia de IA. O ritmo vertiginoso dos avanços na IA já deu origem a uma série de desenvolvimentos prejudiciais, incluindo ameaças à privacidade, perda de empregos por meio da automação e vídeos deepfake extremamente convincentes que rotineiramente espalham golpes e desinformação nas mídias sociais.
O executivo da Microsoft disse que os governos não devem arcar com todo o peso da ação e que as empresas também precisam trabalhar para mitigar os riscos do desenvolvimento irrestrito da IA.
Os comentários de Smith vêm embora a Microsoft também esteja trabalhando em IA, supostamente desenvolvendo uma série de novos chips especializados que ajudariam a alimentar o chatbot viral da OpenAI, o ChatGPT.
Ainda assim, Smith argumentou que a Microsoft não estava tentando impingir a responsabilidade, pois se comprometeu a realizar sua própria proteção relacionada à IA, independentemente de o governo o obrigar, afirmando:
“Não há um pingo de abdicação de responsabilidade.”
Em maio, o fundador e CEO da OpenAI, Sam Altman, testemunhou perante o Congresso, onde defendeu o estabelecimento de uma agência federal de supervisão que concederia licenças a empresas de IA.
Senator Lindsey Graham asks the witnesses at the hearing on artificial intelligence regulation if there should be an agency to license and oversee AI tools.
All say yes, but IBM Chief Privacy & Trust Officer Christina Montgomery has stipulations: pic.twitter.com/UD7R8N7s23
— Yahoo Finance (@YahooFinance) May 16, 2023
Notavelmente, Smith endossou a ideia de Altman de distribuir licenças para desenvolvedores, dizendo que os serviços e desenvolvimento de IA de alto risco devem ser realizados apenas em data centers de IA licenciados.
Desde que o ChatGPT foi lançado pela primeira vez em novembro do ano passado, houve apelos generalizados para uma supervisão mais rigorosa da IA, com algumas organizações sugerindo que o desenvolvimento da tecnologia deveria ser interrompido temporariamente.
Em março, o Future of Life Institute publicou uma carta aberta pedindo aos líderes do setor que pausem o desenvolvimento da IA. Foi assinado por vários dos principais líderes da indústria de tecnologia, incluindo o CEO da Tesla, Elon Musk, e o cofundador da Apple, Steve Wozniak. No momento, a carta atraiu mais de 31.000 assinaturas.
Veja mais em: Inteligência Artificial (IA) | Notícias
