
Photo by ActionVance on Unsplash
A Linha Clara Entre Vídeos Reais e Gerados por IA Pode Desaparecer em 2025
O conteúdo gerado por IA veio para ficar. Está cada vez melhor e vimos uma melhoria significativa nas tecnologias de IA em 2024. Será que conseguiremos distinguir entre o que é real e o que não é em 2025?
Recentemente me peguei perguntando: “Essa é uma mulher de verdade?” – enquanto franzia um pouco a testa – depois de ver uma postagem no Instagram. “Não, isso tem que ser gerado por IA”, concluí depois de um momento. Então, imediatamente me perguntei: Ainda conseguiremos perceber a diferença dentro de segundos no próximo ano? Todos os sinais apontam que não, especialmente nas redes sociais, conforme sugerem os principais desenvolvimentos recentes na tecnologia de IA.
Há alguns dias, o diretor do Instagram, Adam Mosseri, compartilhou uma mensagem abordando essa questão no Threads. “A IA generativa está claramente produzindo conteúdo que é difícil de distinguir das gravações da realidade, e está melhorando rapidamente”, ele escreveu. Mosseri reconheceu publicamente que eles estão tendo dificuldades na Meta para marcar conteúdo criado por IA e controlar e monitorar as enormes quantidades de mídia compartilhadas a cada segundo em suas plataformas de mídia social.
Mosseri lavou as mãos da Meta em relação à responsabilidade e alertou os usuários de que cabe a eles discernir se uma postagem era real ou não. “Vai ser cada vez mais crucial que o espectador, ou leitor, traga uma mente crítica quando consomem conteúdo que pretenda ser uma conta ou uma gravação da realidade”, acrescentou.
Apenas alguns dias depois, a OpenAI lançou o Sora Turbo, seu poderoso gerador de vídeos AI, permitindo que usuários Pro e Plus gerassem vídeos realistas a partir de comandos de texto. Em apenas alguns minutos, os usuários começaram a criar vídeos realistas fascinantes e começaram a compartilhá-los nas redes sociais.
Justamente quando tudo parecia atingir um novo nível de produção de vídeo, o Google anunciou sua mais recente ferramenta de vídeo AI, Veo 2, com resolução mais alta e clipes mais longos que o Sora. Claro, os resultados compartilhados por aqueles que tiveram acesso à tecnologia avançada foram ainda mais impressionantes.
“Ninguém pode dizer que isso é IA agora”, escreveu um usuário.
Acabou.
O Google Veo 2 acabou de eliminar a concorrência e se tornou o novo rei do mundo da mídia de IA.
Ninguém pode dizer que isso é IA agora.
10 exemplos incríveis: pic.twitter.com/MKAN4Lwj6m
— el.cine (@EHuanglu) 17 de dezembro de 2024
Já Está Acontecendo
Durante 2024, testemunhamos como o conteúdo gerado por IA impactou populações, eleições e usuários de mídias sociais.
Em janeiro, os moradores de New Hampshire receberam uma ligação “de Joe Biden” dizendo-lhes para não votar nas eleições primárias. O consultor político Steve Kramer estava por trás do golpe e foi multado em $6 milhões pelos robocalls de deepfake de IA. Os governos têm compreendido o impacto que a IA pode ter e nações como Singapura têm desenvolvido leis e estratégias para ajudar a população a identificar conteúdo deepfake.
Na Venezuela, vídeos gerados por IA têm espalhado desinformação—mas também ajudando jornalistas a informar através de avatares de IA para contornar a censura.
As pessoas estão tendo dificuldades para distinguir o que é real do que não é, e não é culpa delas: o conteúdo gerado por IA está cada vez melhor e mais sofisticado.
O conteúdo de alta qualidade gerado por IA é um negócio em expansão em todas as suas formas; texto, áudio e vídeo. Muitos criadores do OnlyFans atualmente dependem de chatbots para interagir em conversas com seus fãs, um trabalho que costumava ser designado para trabalhadores autônomos em países de renda baixa. Os novos modelos de IA especializados em técnicas de paquera até geraram $1.000 em gorjetas de seus seguidores.
Em abril, a startup apoiada pela Nvidia, Synthesia lançou avatares de IA que podem expressar emoções humanas e falar em 130 idiomas. O TikTok está permitindo que as empresas criem anúncios gerados por IA usando conteúdo da Getty Images, e agora os criadores do YouTube podem usar o novo recurso de dublagem automática de IA para traduzir seu conteúdo para 9 idiomas e as atualizações futuras replicarão a voz original.
O Zoom está trabalhando na criação de avatares de IA que se parecem exatamente com os usuários para ajudá-los a gravar mensagens e até mesmo participar de reuniões. Esta ferramenta será lançada no próximo ano, mas as pessoas já estão testando várias ferramentas e as empresas já podem criar clones de IA foto realistas.
Você tem certeza de que falou com uma pessoa real durante sua última chamada no Zoom?
Como saber se foi criado por IA? Por enquanto
Estamos vivendo em tempos confusos nesta era digital. Filtros podem fazer qualquer um parecer um modelo com pele impecável, e correções dignas de Photoshop estão a um clique de distância no Instagram ou Snapchat – quantas pessoas gostariam de compartilhar sua imagem “natural”, imperfeições e tudo mais, quando ela pode ser aprimorada em segundos? Estamos vendo cada vez mais anúncios com imagens fotorrealistas geradas por inteligência artificial, convencendo gradualmente nossos olhos de sua familiaridade e “normalidade”. E todos os dias, eventos surpreendentes ao redor do mundo nos fazem questionar: o que é real e o que não é mais?
As grandes empresas de IA têm trabalhado em marcas d’água para identificar seu conteúdo gerado por IA e reconhecê-lo facilmente. O Google DeepMind lançou seu sistema de marcas d’água de código aberto em outubro para marcar vídeos, textos e áudios de IA, e a Meta também incluiu uma em sua ferramenta de vídeo de IA.
Mas sua eficácia é questionável, começando com a Meta apenas reconhecendo que eles não podem marcar todo o conteúdo gerado por IA. Atores mal-intencionados ainda podem encontrar maneiras de remover as marcas d’água e mais leis, parcerias e acordos são necessários entre as empresas de mídia social e os governos para alcançar um sistema mais bem-sucedido.
Por enquanto, além de confiarmos em nossos instintos, podemos nos fazer algumas perguntas antes de compartilhar nas redes sociais ou acreditar no que vemos:
- Assim como Mosseri recomendou, considere o seguinte: Quem está compartilhando essa informação? Essa é uma fonte confiável?
- A expressão ou movimento da pessoa parece robótico? Embora os avatares de IA possam ser bastante realistas, ainda é possível reconhecer uma estranha rigidez ou falta de emoção — embora considere que algumas empresas como a Synthesia já estão melhorando isso.
- O conteúdo foi projetado para provocar uma forte reação emocional? Atores mal-intencionados sabem o quão facilmente compartilhamos notícias negativas e interagimos com material carregado emocionalmente nas redes sociais, e a pesquisa confirma isso. Antes de compartilhar aquele conteúdo que fez seu sangue ferver para deixar os outros tão indignados quanto você, pense se ele foi projetado para provocar controvérsias ou se é realmente uma notícia real ou um evento real.
- Você pode corroborar o conteúdo com outras fontes? Verificar novamente com fontes confiáveis nunca é demais.
E finalmente, você já se perguntou – ou ao seu chatbot preferido – como melhorar seu pensamento crítico? Desenvolver uma mente crítica definitivamente deve estar entre as resoluções de Ano Novo de todos.
Deixe um comentário
Cancelar