Empresas devem intensificar as proteções para Inteligência Artificial

Empresas devem intensificar as proteções para Inteligência Artificial

Brad Smith, presidente da empresa de BigTech Microsoft, pediu aos governos que se movam mais rápido e que as corporações se apressem em meio a uma aceleração maciça no desenvolvimento da inteligência artificial.

Falando em um painel diante de legisladores dos Estados Unidos em Washington DC, Smith fez a ligação ao propor regulamentos que poderiam mitigar os riscos potenciais da IA, de acordo com um relatório do The New York Times.

A empresa pediu que as empresas implementem freios de segurança para sistemas de IA que controlam a infraestrutura crítica e desenvolvam uma estrutura legal e regulatória mais ampla para IA, entre outras coisas.

Smith é mais um peso-pesado da indústria a dar o alarme sobre o rápido desenvolvimento da tecnologia de IA. O ritmo vertiginoso dos avanços na IA já deu origem a uma série de desenvolvimentos prejudiciais, incluindo ameaças à privacidade, perda de empregos por meio da automação e vídeos deepfake extremamente convincentes que rotineiramente espalham golpes e desinformação nas mídias sociais.

O executivo da Microsoft disse que os governos não devem arcar com todo o peso da ação e que as empresas também precisam trabalhar para mitigar os riscos do desenvolvimento irrestrito da IA.

Os comentários de Smith vêm embora a Microsoft também esteja trabalhando em IA, supostamente desenvolvendo uma série de novos chips especializados que ajudariam a alimentar o chatbot viral da OpenAI, o ChatGPT.

Ainda assim, Smith argumentou que a Microsoft não estava tentando impingir a responsabilidade, pois se comprometeu a realizar sua própria proteção relacionada à IA, independentemente de o governo o obrigar, afirmando:

“Não há um pingo de abdicação de responsabilidade.”

Em maio, o fundador e CEO da OpenAI, Sam Altman, testemunhou perante o Congresso, onde defendeu o estabelecimento de uma agência federal de supervisão que concederia licenças a empresas de IA.

Notavelmente, Smith endossou a ideia de Altman de distribuir licenças para desenvolvedores, dizendo que os serviços e desenvolvimento de IA de alto risco devem ser realizados apenas em data centers de IA licenciados.

Desde que o ChatGPT foi lançado pela primeira vez em novembro do ano passado, houve apelos generalizados para uma supervisão mais rigorosa da IA, com algumas organizações sugerindo que o desenvolvimento da tecnologia deveria ser interrompido temporariamente.

Em março, o Future of Life Institute publicou uma carta aberta pedindo aos líderes do setor que pausem o desenvolvimento da IA. Foi assinado por vários dos principais líderes da indústria de tecnologia, incluindo o CEO da Tesla, Elon Musk, e o cofundador da Apple, Steve Wozniak. No momento, a carta atraiu mais de 31.000 assinaturas.

Veja mais em: Inteligência Artificial (IA) | Notícias

Compartilhe este post

Facebook
Twitter
LinkedIn
WhatsApp