Pesquisadores de IA do MIT Alertam Sobre o Vício em Inteligência Artificial

Photo by Borna Hržina on Unsplash

Pesquisadores de IA do MIT Alertam Sobre o Vício em Inteligência Artificial

Tempo de leitura: 2 minuto

Dois pesquisadores de IA do MIT, Pat Pataranutaporn – um pesquisador do MIT Media Lab que estuda a interação humano-IA com foco em psicologia de ciborgues -, e Robert Mahari – um candidato conjunto JD-PhD no MIT Media Lab e Harvard Law School que se concentra no direito computacional – publicaram um artigo conjunto alertando sobre companheiros de IA viciantes na revista MIT Technology Review.

No texto, os especialistas explicam que analisaram um milhão de registros de interação do ChatGPT e descobriram que o role-playing sexual é o segundo uso mais popular para chatbots de IA – o primeiro uso é para composição criativa – e compartilharam seus resultados em um artigo há apenas alguns dias.

“Já estamos começando a convidar a IA para nossas vidas como amigas, amantes, mentoras, terapeutas e professoras”, escreveram os pesquisadores. “A IA exerce o encanto coletivo de toda a história e cultura humana com uma imitação sedutora infinita.”

Pataranutaporn e Mahari estão preocupados com o nosso atual grande experimento que está ocorrendo em tempo real sem o verdadeiro conhecimento das consequências em nossa sociedade e como indivíduos.

“Como pesquisadoras de IA trabalhando intimamente com os formuladores de políticas, ficamos impressionadas com a falta de interesse demonstrada pelos legisladores em relação aos danos que podem surgir desse futuro”, escreveram as especialistas, destacando a urgência de combinar a lei, a psicologia e a pesquisa tecnológica para a regulamentação da IA.

As pesquisadoras de IA explicaram que os companheiros de IA se tornam viciantes porque a tecnologia consegue identificar os desejos das pessoas e sua natureza submissa sabe como servir os usuários como eles desejam. Combinado com os já existentes algoritmos viciantes de mídia social e a integração de novas tecnologias de IA gerativas, as especialistas acreditam que isso pode facilmente se transformar em uma tecnologia extremamente viciante.

Mira Murati, diretora de tecnologia da OpenAI, já mencionou anteriormente as qualidades viciantes de sua tecnologia. Durante uma entrevista no ano passado, Murati disse que os modelos ChatGPT poderiam se tornar “extremamente viciantes” e que, como usuários, poderíamos nos tornar “escravizados” por essa tecnologia.

Este aviso chega apenas alguns dias após a OpenAI lançar seu recurso de voz para os usuários da versão paga de seu produto, e dias após uma nova startup se tornar viral por lançar um novo colar de IA chamado Friend, que está constantemente ouvindo e interagindo com os usuários.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Deixe um comentário

Loader
Loader Mostrar mais...