A Universidade de Chicago oferece Glaze e Nightshade aos artistas como uma defesa contra a IA

Image by Glashier, from Freepik

A Universidade de Chicago oferece Glaze e Nightshade aos artistas como uma defesa contra a IA

Tempo de leitura: 3 minuto

Com pressa? Aqui estão os fatos rápidos!

  • Glaze e Nightshade protegem o trabalho dos artistas contra o uso não autorizado em treinamento de IA.
  • Glaze mascara imagens para impedir que a IA replique o estilo de um artista.
  • Nightshade interrompe a IA ao adicionar pixels “envenenados” que corrompem os dados de treinamento.

Artistas estão contra-atacando contra modelos de IA exploratórios com Glaze e Nightshade, duas ferramentas desenvolvidas por Ben Zhao e sua equipe no SAND Lab da Universidade de Chicago, conforme relatado hoje pelo MIT Technology Review.

Essas ferramentas visam proteger o trabalho dos artistas de ser usado sem consentimento para treinar modelos de IA, uma prática que muitos criadores veem como roubo. Glaze, baixado mais de 4 milhões de vezes desde seu lançamento em março de 2023, mascara imagens adicionando mudanças sutis que impedem a IA de aprender o estilo do artista, diz o MIT.

Nightshade, um “ofensivo” contraparte, perturba ainda mais os modelos de IA ao introduzir alterações invisíveis que podem corromper o aprendizado da IA se usadas no treinamento, conforme observado pelo MIT.

As ferramentas foram inspiradas pelas preocupações dos artistas sobre a rápida ascensão da IA gerativa, que geralmente se baseia em imagens online para criar novas obras. O MIT relata que a ilustradora de fantasia Karla Ortiz e outros criadores expressaram medo de perder seus meios de subsistência à medida que os modelos de IA replicam seus estilos distintos sem permissão ou pagamento.

Para artistas, postar online é essencial para a visibilidade e renda, no entanto, muitos consideram remover suas obras para evitar serem raspados para treinamento de IA, um ato que prejudicaria suas carreiras, conforme observado pelo MIT.

Nightshade, lançado um ano após o Glaze, oferece uma defesa mais agressiva, relata o MIT. Ao adicionar pixels “envenenados” às imagens, ele interrompe o treinamento de IA, fazendo com que os modelos produzam resultados distorcidos se essas imagens forem raspadas.

O efeito simbólico da beladona ecoou entre os artistas, que o veem como justiça poética: se o seu trabalho é roubado para treinamento de IA, pode danificar os próprios sistemas que o exploram.

O MIT argumenta que as ferramentas enfrentaram certo ceticismo, já que os artistas inicialmente se preocupavam com a privacidade dos dados. Para resolver isso, o SAND Lab lançou uma versão do Glaze que funciona offline, garantindo que não haja transferência de dados e construindo confiança com artistas receosos de exploração.

O laboratório também expandiu recentemente o acesso através de uma parceria com a Cara, uma nova plataforma social que proíbe conteúdo gerado por IA, conforme notado pelo MIT.

Zhao e sua equipe têm como objetivo mudar a dinâmica de poder entre os criadores individuais e as empresas de IA.

Ao oferecer ferramentas que protegem a criatividade de grandes corporações, Zhao espera capacitar os artistas para manterem o controle sobre suas obras e redefinir os padrões éticos em torno da IA e da propriedade intelectual, diz o MIT.

O esforço está ganhando impulso, mas alguns especialistas alertam que as ferramentas podem não oferecer proteção infalível, já que hackers e desenvolvedores de IA exploram maneiras de contornar essas salvaguardas, conforme observado pelo MIT.

Agora com Glaze e Nightshade gratuitamente acessíveis, o SAND Lab de Zhao continua na vanguarda na defesa da integridade artística contra a crescente influência da criação de conteúdo impulsionada por IA.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Deixe um comentário

Loader
Loader Mostrar mais...