Google Vai Sinalizar Imagens Geradas por IA na Pesquisa

Image from Freepik

Google Vai Sinalizar Imagens Geradas por IA na Pesquisa

Tempo de leitura: 2 minuto

  • Kiara Fabbri

    Escrito por: Kiara Fabbri Jornalista multimídia

  • Equipe de localização e tradução

    Traduzido por Equipe de localização e tradução Serviços de localização e tradução

Com pressa? Aqui estão os fatos rápidos!

  • Google lança ferramenta para identificar imagens editadas por IA nos resultados de pesquisa
  • Google se juntou ao C2PA para criar padrões que rastreiam as origens do conteúdo digital
  • O sistema depende do padrão C2PA, mas a adoção é limitada entre empresas e ferramentas.

O Google anunciou hoje que planeja implementar mudanças na Busca do Google para deixar mais claro quais imagens nos resultados foram geradas ou editadas usando ferramentas de IA.

A gigante da tecnologia está utilizando uma tecnologia chamada “Provenance” para identificar e rotular tais imagens, com o objetivo de aumentar a transparência para os usuários e combater a disseminação de informações falsas.

O Google explicou que a tecnologia Provenance pode determinar se uma foto foi capturada com uma câmera, alterada por software ou criada inteiramente por IA gerativa.

Essas informações serão disponibilizadas aos usuários por meio do recurso “Sobre esta imagem”, fornecendo-lhes mais contexto e ajudando-os a tomar decisões informadas sobre o conteúdo que consomem.

Para reforçar seus esforços, o Google se juntou à Coalizão para Procedência e Autenticidade de Conteúdo (C2PA) como membro do comitê diretor no início deste ano. O C2PA tem trabalhado para desenvolver padrões para rastrear o histórico de conteúdo digital, incluindo imagens e vídeos.

No entanto, o TechCrunch (TC) observa que apenas imagens com “metadados C2PA” serão sinalizadas como manipuladas por IA na pesquisa do Google.

Embora empresas como Google, Amazon, Microsoft, OpenAI e Adobe apoiem o C2PA, o padrão ainda não foi amplamente adotado, conforme relatado pelo TC.

Conforme observado pelo The Verge, apenas um número limitado de ferramentas de IA gerativas e câmeras, como as da Leica e Sony, suportam as especificações do C2PA.

Além disso, TC nota que os metadados da C2PA, como qualquer forma de metadados, podem ser removidos, danificados ou tornar-se ilegíveis. Muitas ferramentas de IA populares, como o Flux, que alimenta o chatbot Grok da xAI, não incluem metadados C2PA, em parte porque seus desenvolvedores não adotaram o padrão.

Embora essa iniciativa mostre promessa no combate a conteúdos deepfakes prejudiciais, seu sucesso reside na adoção generalizada do sistema de marca d’água C2PA pelos fabricantes de câmeras e desenvolvedores de IA generativa.

No entanto, mesmo com o C2PA implementado, atores mal-intencionados ainda podem remover ou manipular os metadados de uma imagem, potencialmente comprometendo a capacidade do Google de detectar com precisão conteúdos gerados por IA.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Deixe um comentário

Mostrar mais...