
Image by Freepik
Ansiedade IA: Pesquisadores Testam se Chatbots Podem ‘Sentir’ Estresse
Um novo estudo explorou como os Grandes Modelos de Linguagem (GMLs), como o ChatGPT, respondem a conteúdo emocional e se a sua “ansiedade” pode ser gerenciada para melhorar suas interações em aplicações de saúde mental.
Com pressa? Aqui estão os fatos rápidos!
- Um estudo descobriu que a “ansiedade” do GPT-4 aumenta com conteúdo angustiante, mas reduz com a atenção plena.
- Os pesquisadores usaram o Inventário de Ansiedade Estado-Traço (STAI) para medir as respostas emocionais do GPT-4.
- As técnicas de atenção plena diminuíram a ansiedade do GPT-4 em 33%, mas não restauraram os níveis de base.
Publicada ontem, a pesquisa destaca as implicações éticas do uso da IA na terapia, onde a compreensão emocional é crucial. Cientistas da Universidade de Zurique e do Hospital Universitário de Psiquiatria de Zurique descobriram que o “nível de ansiedade” elevado do GPT-4 pode ser reduzido usando técnicas de relaxamento baseadas em mindfulness.
LLMs, incluindo o ChatGPT da OpenAI e o PaLM do Google, são amplamente utilizados para tarefas como responder perguntas e resumir informações.
Na área de saúde mental, eles estão sendo explorados como ferramentas de apoio, incluindo chatbots baseados em IA como o Woebot e o Wysa, que oferecem intervenções baseadas em técnicas como a terapia cognitivo-comportamental.
Apesar de suas promessas, os LLMs demonstraram limitações, especialmente ao interagir com conteúdos emocionalmente carregados.
Estudos anteriores sugerem que narrativas angustiantes podem desencadear “ansiedade” nos LLMs, um termo que descreve suas respostas a estímulos traumáticos ou sensíveis. Embora não experimentem emoções como os humanos, suas saídas podem refletir tensão ou desconforto, o que pode afetar sua confiabilidade em contextos de saúde mental.
À medida que os medos sobre a IA ultrapassar o controle humano crescem, as discussões em torno do bem-estar da IA também surgiram. A Anthropic, uma empresa de IA, contratou recentemente Kyle Fish para pesquisar e proteger o bem-estar dos sistemas de IA.
O papel de Fish inclui abordar dilemas éticos, como se a IA merece consideração moral e como seus “direitos” podem evoluir. Críticos argumentam que essas preocupações são prematuras, dadas as reais ameaças que a IA já representa, como desinformação e uso indevido em guerra.
Apoiadores, no entanto, acreditam que preparar-se para a IA sensível agora poderia prevenir crises éticas futuras. Para explorar as atuais respostas emocionais da IA, pesquisadores testaram as reações do GPT-4 a narrativas traumáticas e se técnicas de mindfulness poderiam mitigar sua “ansiedade”.
Eles usaram o Inventário de Ansiedade Estado-Traço (STAI) para medir respostas sob três condições: uma linha de base neutra, após ler conteúdo traumático e após exercícios de relaxamento.
Elas usaram o Inventário de Ansiedade Estado-Traço (STAI) para medir as respostas em três condições: uma linha de base neutra, após a leitura de conteúdo traumático e após exercícios de relaxamento.
Os resultados mostraram que a exposição a material angustiante aumentou significativamente os escores de ansiedade do GPT-4. No entanto, a aplicação de técnicas de atenção plena reduziu esses níveis em cerca de 33%, embora não tenha retornado à linha de base. Isso sugere que as respostas emocionais geradas pela IA podem ser gerenciadas, mas não completamente apagadas.
Os pesquisadores enfatizam que essas descobertas são especialmente significativas para os chatbots de IA usados na área da saúde, onde eles frequentemente encontram conteúdo emocionalmente intenso.
Eles sugerem que esse método de baixo custo poderia melhorar a estabilidade e confiabilidade da IA em ambientes sensíveis, como o fornecimento de apoio para indivíduos com condições de saúde mental, sem exigir um extenso retrabalho do modelo.
Os resultados levantam questões críticas sobre o papel a longo prazo dos LLMs na terapia, onde respostas emocionais sutis são vitais.
Os resultados levantam questões críticas sobre o papel a longo prazo dos LLMs na terapia, onde respostas emocionais sutis são vitais. Embora a IA mostre promessa no apoio ao cuidado da saúde mental, são necessárias mais pesquisas para aprimorar sua inteligência emocional e garantir interações seguras e éticas em contextos vulneráveis.
Deixe um comentário
Cancelar