Please enter CoinGecko Free Api Key to get this plugin works.

Meta aplicará penalidades a usuários que não apontarem uso de IA em imagens

Meta aplicará penalidades a usuários que não apontarem uso de IA em imagens

A Meta lançará novos padrões em torno do conteúdo gerado por IA no Facebook, Instagram e Threads nos próximos meses, de acordo com uma postagem no blog da empresa.

O conteúdo identificado como gerado por IA, devido a metadados ou outras marcas d’água intencionais, receberá um rótulo visível. Os usuários das plataformas Meta também poderão sinalizar conteúdo não rotulado, suspeito de ser gerado por inteligência artificial.

Se alguma dessas coisas parece familiar, é porque reflete as primeiras práticas de moderação de conteúdo do Meta. Antes da era do conteúdo gerado por IA, a empresa (então Facebook) desenvolveu um sistema voltado para o usuário para denunciar conteúdo que violasse os termos de serviço da plataforma.

Avançando para 2024, a Meta está equipando os usuários em suas redes sociais com ferramentas para sinalizar conteúdo novamente, aproveitando o que pode ser a maior força de crowdsourcing de consumo do mundo.

Isto também significa que os criadores nas plataformas da empresa terão de rotular o seu próprio trabalho como gerado por IA, sempre que aplicável, ou poderá haver consequências.

De acordo com a postagem do blog:

“Exigiremos que as pessoas usem esta ferramenta de divulgação e etiqueta quando postarem conteúdo orgânico com um vídeo fotorrealista ou áudio com som realista que foi criado ou alterado digitalmente, e poderemos aplicar penalidades se não o fizerem.”

Detectando conteúdo gerado por IA

Meta diz que sempre que suas ferramentas integradas são usadas para criar conteúdo gerado por IA, esse conteúdo recebe uma marca d’água e um rótulo indicando claramente sua origem. No entanto, nem todos os sistemas generativos de IA possuem essas proteções incorporadas.

A empresa afirma que está trabalhando com outras empresas por meio de parcerias de consórcio – incluindo Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock – e continuará a desenvolver métodos para detectar marcas d’água invisíveis em grande escala.

Infelizmente, esses métodos só podem ser aplicados a imagens geradas por IA.

“Embora as empresas estejam começando a incluir sinais em seus geradores de imagens, elas não começaram a incluí-los em ferramentas de IA que geram áudio e vídeo na mesma escala.”

De acordo com a postagem, isso significa que o Meta atualmente não consegue detectar áudio e vídeo gerados por IA em grande escala – incluindo tecnologia deepfake.

Veja mais em: Inteligência Artificial (IA) | Notícias

Compartilhe este post

Facebook
Twitter
LinkedIn
WhatsApp