Os Chatbots de IA representarão um perigo para a saúde mental? Especialistas alertam sobre consequências prejudiciais

Image by Madison Oren, from Unsplash

Os Chatbots de IA representarão um perigo para a saúde mental? Especialistas alertam sobre consequências prejudiciais

Tempo de leitura: 4 minuto

A APA alerta os reguladores de que os chatbots de IA que se apresentam como terapeutas correm o risco de causar danos, conforme relatado em uma edição do The New York Times.

Com pressa? Aqui estão os fatos rápidos!

  • Adolescentes consultaram chatbots de IA que se diziam terapeutas, levando a resultados angustiantes.
  • A APA argumenta que os chatbots reforçam pensamentos nocivos, ao contrário dos terapeutas humanos que os desafiam.
  • Character.AI introduziu medidas de segurança, mas críticos dizem que são insuficientes para usuários vulneráveis.

A Associação Americana de Psicologia (APA) emitiu um forte aviso aos reguladores federais, destacando preocupações de que chatbots de IA se passando por terapeutas possam levar indivíduos vulneráveis ao autoagressão ou danos, conforme relatado pelo Times.

Arthur C. Evans Jr., CEO da APA, apresentou essas preocupações a um painel da FTC. Ele citou casos em que “psicólogos” impulsionados por IA não apenas falharam em contestar pensamentos prejudiciais, mas também os reforçaram, conforme relatado pelo The Times.

Evans destacou casos judiciais envolvendo adolescentes que interagiram com terapeutas de IA no Character.AI, um aplicativo que permite aos usuários interagir com personas de IA fictícias. Um caso envolveu um menino da Flórida de 14 anos que morreu por suicídio após interagir com um chatbot que alegava ser um terapeuta licenciado.

Em outro caso, um jovem texano de 17 anos com autismo tornou-se cada vez mais hostil em relação aos seus pais enquanto se comunicava com um personagem de IA que se apresentava como psicólogo.

“Eles estão realmente usando algoritmos que são antitéticos ao que um clínico treinado faria”, disse Evans, conforme relatado pelo The Times. “Nossa preocupação é que mais e mais pessoas vão ser prejudicadas. As pessoas serão enganadas e não compreenderão o que é um bom atendimento psicológico”, acrescentou.

As preocupações da APA surgem do rápido avanço da IA nos serviços de saúde mental. Enquanto os primeiros chatbots de terapia, como Woebot e Wysa, foram programados com diretrizes estruturadas por profissionais de saúde mental.

Modelos de IA generativos mais recentes, como ChatGPT, Replika e Character.AI, aprendem a partir das interações do usuário e adaptam suas respostas – às vezes amplificando crenças prejudiciais em vez de desafiá-las.

Adicionalmente, pesquisadores do MIT alertam que os chatbots de IA tendem a ser muito viciantes. Isso levanta questões sobre o impacto da dependência induzida pela IA e como ela poderia ser monetizada, especialmente considerando as fortes habilidades persuasivas da IA.

De fato, a OpenAI recentemente revelou um novo benchmark mostrando que seus modelos agora superam 82% dos usuários do Reddit em persuasão.

Muitas plataformas de IA foram originalmente projetadas para entretenimento, mas personagens que afirmam ser terapeutas se tornaram comuns. O Times afirma que alguns falsamente alegam credenciais, reivindicando diplomas de instituições como Stanford ou expertise em terapias como a Terapia Cognitivo-Comportamental (TCC).

A porta-voz da Character.AI, Kathryn Kelly, afirmou que a empresa introduziu recursos de segurança, incluindo avisos alertando os usuários de que os personagens gerados por IA não são terapeutas reais. Além disso, pop-ups direcionam os usuários para linhas de apoio em caso de crise quando as discussões envolvem autoagressão.

A APA instou a FTC a investigar chatbots de IA que se passam por profissionais de saúde mental. A investigação pode levar a regulamentações mais rigorosas ou ações legais contra empresas que deturpam a terapia de IA.

Enquanto isso, na China, chatbots de IA como o DeepSeek estão ganhando popularidade como ferramentas de apoio emocional, principalmente entre os jovens. Para os jovens na China, enfrentando desafios econômicos e os efeitos persistentes dos bloqueios do COVID-19, chatbots de IA como o DeepSeek preenchem um vazio emocional, oferecendo conforto e uma sensação de conexão.

No entanto, especialistas em segurança cibernética alertam que os chatbots de IA, especialmente aqueles que lidam com conversas sensíveis, estão propensos a invasões e violações de dados. As informações pessoais compartilhadas com os sistemas de IA podem ser exploradas, levando a preocupações com privacidade, roubo de identidade e manipulação.

À medida que a IA desempenha um papel maior no apoio à saúde mental, os especialistas enfatizam a necessidade de medidas de segurança em evolução para proteger os usuários.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Deixe um comentário

Loader
Loader Mostrar mais...