A Universidade de Chicago oferece Glaze e Nightshade aos artistas como uma defesa contra a IA

Image by Glashier, from Freepik

A Universidade de Chicago oferece Glaze e Nightshade aos artistas como uma defesa contra a IA

Tempo de leitura: 3 minuto

Com pressa? Aqui estão os fatos rápidos!

  • Glaze e Nightshade protegem o trabalho dos artistas contra o uso não autorizado em treinamento de IA.
  • Glaze mascara imagens para impedir que a IA replique o estilo de um artista.
  • Nightshade interrompe a IA ao adicionar pixels “envenenados” que corrompem os dados de treinamento.

Artistas estão contra-atacando contra modelos de IA exploratórios com Glaze e Nightshade, duas ferramentas desenvolvidas por Ben Zhao e sua equipe no SAND Lab da Universidade de Chicago, conforme relatado hoje pelo MIT Technology Review.

Essas ferramentas visam proteger o trabalho dos artistas de ser usado sem consentimento para treinar modelos de IA, uma prática que muitos criadores veem como roubo. Glaze, baixado mais de 4 milhões de vezes desde seu lançamento em março de 2023, mascara imagens adicionando mudanças sutis que impedem a IA de aprender o estilo do artista, diz o MIT.

Nightshade, um “ofensivo” contraparte, perturba ainda mais os modelos de IA ao introduzir alterações invisíveis que podem corromper o aprendizado da IA se usadas no treinamento, conforme observado pelo MIT.

As ferramentas foram inspiradas pelas preocupações dos artistas sobre a rápida ascensão da IA gerativa, que geralmente se baseia em imagens online para criar novas obras. O MIT relata que a ilustradora de fantasia Karla Ortiz e outros criadores expressaram medo de perder seus meios de subsistência à medida que os modelos de IA replicam seus estilos distintos sem permissão ou pagamento.

Para artistas, postar online é essencial para a visibilidade e renda, no entanto, muitos consideram remover suas obras para evitar serem raspados para treinamento de IA, um ato que prejudicaria suas carreiras, conforme observado pelo MIT.

Nightshade, lançado um ano após o Glaze, oferece uma defesa mais agressiva, relata o MIT. Ao adicionar pixels “envenenados” às imagens, ele interrompe o treinamento de IA, fazendo com que os modelos produzam resultados distorcidos se essas imagens forem raspadas.

O efeito simbólico da beladona ecoou entre os artistas, que o veem como justiça poética: se o seu trabalho é roubado para treinamento de IA, pode danificar os próprios sistemas que o exploram.

O MIT argumenta que as ferramentas enfrentaram certo ceticismo, já que os artistas inicialmente se preocupavam com a privacidade dos dados. Para resolver isso, o SAND Lab lançou uma versão do Glaze que funciona offline, garantindo que não haja transferência de dados e construindo confiança com artistas receosos de exploração.

O laboratório também expandiu recentemente o acesso através de uma parceria com a Cara, uma nova plataforma social que proíbe conteúdo gerado por IA, conforme notado pelo MIT.

Zhao e sua equipe têm como objetivo mudar a dinâmica de poder entre os criadores individuais e as empresas de IA.

Ao oferecer ferramentas que protegem a criatividade de grandes corporações, Zhao espera capacitar os artistas para manterem o controle sobre suas obras e redefinir os padrões éticos em torno da IA e da propriedade intelectual, diz o MIT.

O esforço está ganhando impulso, mas alguns especialistas alertam que as ferramentas podem não oferecer proteção infalível, já que hackers e desenvolvedores de IA exploram maneiras de contornar essas salvaguardas, conforme observado pelo MIT.

Agora com Glaze e Nightshade gratuitamente acessíveis, o SAND Lab de Zhao continua na vanguarda na defesa da integridade artística contra a crescente influência da criação de conteúdo impulsionada por IA.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Deixe um comentário

Mostrar mais...