Please enter CoinGecko Free Api Key to get this plugin works.

OpenAI adverte que a IA sobre-humana pode chegar dentro de uma década: ‘Temos que acertar’

OpenAI adverte que a IA sobre-humana pode chegar dentro de uma década: ‘Temos que acertar’

O CEO da OpenAI, Sam Altman, o diretor de tecnologia Greg Brockman e o cientista líder Ilya Sutskever escreveram recentemente uma postagem no blog detalhando a posição da OpenAI sobre o desenvolvimento e a governança da “superinteligência”.

Talvez sem surpresa, a empresa – amplamente aceita como a atual líder do setor em tecnologias de inteligência artificial (IA) generativa – acredita que seria mais arriscado não desenvolver uma IA sobre-humana do que prosseguir com seus empreendimentos:

“Dada a imagem que vemos agora, é concebível que, nos próximos dez anos, os sistemas de IA excedam o nível de habilidade especializada na maioria dos domínios e realizem tanta atividade produtiva quanto uma das maiores corporações de hoje.”

O potencial dos sistemas de IA atingirem o nível humano (um paradigma frequentemente chamado de “AGI” ou inteligência artificial geral) ou, como adverte a OpenAI, exceder até mesmo as capacidades humanas de nível especializado, permanece amplamente debatido. Muitos especialistas afirmam que está longe de ser inevitável que as máquinas atinjam ou excedam nossas próprias habilidades cognitivas.

Parece que os líderes da OpenAI, Altman, Brockman e Sutskever, preferem errar por excesso de cautela. Sua versão de uma abordagem cautelosa, no entanto, não exige moderação.

A postagem do blog sugere maior supervisão do governo, envolvendo o público no processo de tomada de decisão e uma colaboração mais forte entre desenvolvedores e empresas no espaço. Esses pontos refletem as respostas que Altman deu em resposta às perguntas dos membros do subcomitê do Senado em uma recente audiência no Congresso.

A postagem do blog também aponta que, de acordo com a OpenAI, seria “não intuitivamente arriscado e difícil impedir a criação de superinteligência”. O post termina com: “[Nós] temos que acertar.”

Ao explicar o aparente enigma, os autores sugerem que impedir a criação supostamente inevitável de uma IA superinteligente exigiria um regime de vigilância global. “E mesmo isso”, eles escrevem, “não tem garantia de funcionar”.

Por fim, os autores parecem concluir que, para desenvolver os controles e mecanismos de governança necessários para proteger a humanidade de uma IA superinteligente, a OpenAI deve continuar trabalhando para a criação de uma IA superinteligente.

À medida que o debate global sobre exatamente como essas tecnologias e seu desenvolvimento devem ser governados e regulamentados continua, as comunidades de criptomoeda, blockchain e Web3 permanecem presas em um tipo familiar de limbo regulatório.

A IA permeou todos os setores de tecnologia, e a fintech não é exceção. Com bots de negociação de criptomoedas construídos com base no ChatGPT e na API GPT e inúmeras exchanges implementando soluções de IA em suas plataformas de análise e atendimento ao cliente, quaisquer esforços regulatórios que afetem o desenvolvimento de produtos de IA voltados para o consumidor, como o ChatGPT, podem ter um impacto perturbador em ambos. indústrias.

Veja mais em: AI – Inteligência Artificial | Notícias

Compartilhe este post

Facebook
Twitter
LinkedIn
WhatsApp