Em um desenvolvimento recente que visa melhorar a segurança e a transparência da inteligência artificial, o Google introduziu 3 novos modelos de IA generativa. Os modelos, parte da série Gemma 2 do Google, são projetados para serem mais seguros, mais eficientes e mais transparentes do que muitos modelos existentes.
Uma postagem de blog no site da empresa afirma que os novos modelos — Gemma 2 2B, ShieldGemma e Gemma Scope — se baseiam na fundação estabelecida pela série Gemma 2 original, que foi lançada em maio.
Ao contrário dos modelos Gemini do Google, a série Gemma é de código aberto. Essa abordagem reflete a estratégia da Meta com seus modelos Llama, visando fornecer ferramentas de IA acessíveis e robustas para um público mais amplo.
Gemma 2 2B é um modelo leve para gerar e analisar texto. É versátil o suficiente para ser executado em vários hardwares, incluindo laptops e dispositivos de ponta. Sua capacidade de funcionar em diferentes ambientes o torna uma opção atraente para desenvolvedores e pesquisadores que buscam soluções de IA flexíveis.
Enquanto isso, o Google disse que o modelo ShieldGemma se concentra em melhorar a segurança agindo como uma coleção de classificadores de segurança. O ShieldGemma é construído para detectar e filtrar conteúdo tóxico, incluindo discurso de ódio, assédio e material sexualmente explícito. Ele opera sobre o Gemma 2, fornecendo uma camada de moderação de conteúdo.

De acordo com o Google, o ShieldGemma pode filtrar prompts para um modelo generativo e o conteúdo gerado, tornando-o uma ferramenta valiosa para manter a integridade e a segurança do conteúdo gerado por IA.
O modelo Gemma Scope permite que os desenvolvedores obtenham insights mais profundos sobre o funcionamento interno dos modelos Gemma 2. De acordo com o Google, o Gemma Scope consiste em redes neurais especializadas que ajudam a descompactar as informações densas e complexas processadas pelo Gemma 2.
Ao expandir essas informações para uma forma mais interpretável, os pesquisadores podem entender melhor como o Gemma 2 identifica padrões, processa dados e faz previsões. Essa transparência é vital para melhorar a confiabilidade e a confiabilidade da IA.
O lançamento desses modelos pelo Google também vem na esteira de um aviso do engenheiro da Microsoft, Shane Jones, que levantou preocupações sobre as ferramentas de IA do Google criando imagens violentas e sexuais e ignorando direitos autorais.
O lançamento desses novos modelos coincide com um relatório preliminar do Departamento de Comércio dos EUA endossando modelos de IA abertos. O relatório destaca os benefícios de tornar a IA generativa mais acessível a empresas menores, pesquisadores, organizações sem fins lucrativos e desenvolvedores individuais.
No entanto, ele também enfatiza a importância de monitorar esses modelos para riscos potenciais, ressaltando a necessidade de medidas de segurança como as implementadas no ShieldGemma.
