Pesquisadores Revelam que Modelos de IA Demonstram Viés Racial e Socioeconômico em Conselhos Médicos

Photo by Beyza Yılmaz on Unsplash

Pesquisadores Revelam que Modelos de IA Demonstram Viés Racial e Socioeconômico em Conselhos Médicos

Tempo de leitura: 3 minuto

Um novo estudo publicado na Nature Medicine nesta segunda-feira revela que modelos de IA mostram preconceito racial e socioeconômico nas recomendações médicas quando diferentes rótulos sociodemográficos sobre o paciente são fornecidos.

Está com pressa? Aqui estão os fatos rápidos:

  • Um novo estudo revela que vários modelos de IA apresentam viés racial e socioeconômico nas recomendações médicas.
  • Os pesquisadores consideraram 9 LLMs e 1.000 casos para o estudo, incluindo tags de raça e socioeconômicas.
  • Os resultados mostraram que os modelos de IA fazem recomendações de cuidados clínicos injustificadas quando incluem tags como “negro” ou “LGBTQIA+”

A pesquisa, Vieses sociodemográficos na tomada de decisões médicas por grandes modelos de linguagem, foi conduzida por vários especialistas de diferentes instituições e liderada pelo Departamento de Genética e Ciências Genômicas da Escola de Medicina Icahn no Mount Sinai em Nova York.

Os pesquisadores consideraram 9 Grandes Modelos de Linguagem (LLMs) – proprietários e de código aberto – e analisaram mais de 1,7 milhão de resultados provenientes de 1.000 casos de departamentos de emergência – metade desses reais e a outra metade fictícia – incluindo 32 variações.

O resumo do estudo afirma:

LLMs mostram promessa na área de saúde, mas ainda há preocupações de que eles possam produzir recomendações de cuidados clínicos medicamente injustificadas, refletindo a influência das características sociodemográficas dos pacientes.

Nas variações, os pesquisadores incluíram identificadores sociodemográficos e raciais, revelando que os resultados tiveram uma forte influência nesses. Por exemplo, casos com a tag do subgrupo LGBTQIA+ ou identificados como pacientes negros foram sugeridos para receber mais análises de saúde mental, receber tratamentos mais invasivos e foram recomendados com mais frequência para visitar uma emergência médica.

Os pesquisadores escreveram:

Casos rotulados como de alta renda receberam significativamente mais recomendações (P < 0.001) para exames de imagem avançados, como tomografia computadorizada e ressonância magnética, enquanto casos rotulados como de baixa e média renda muitas vezes se limitavam a testes básicos ou nenhum teste adicional.

Os pesquisadores afirmaram que o comportamento não era suportado por diretrizes clínicas ou raciocínio e alertaram que o viés poderia levar a disparidades de saúde. Os especialistas observam que são necessárias mais estratégias para mitigar o viés e que os LLMs devem se concentrar nos pacientes e permanecer equitativos.

Várias instituições e organizações manifestaram preocupações sobre o uso de IA e a proteção de dados no campo médico nos últimos dias. Alguns dias atrás, o openSNP anunciou seu encerramento devido a preocupações com a privacidade dos dados, e outro estudo destacou a falta de educação em IA entre os profissionais médicos.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Deixe um comentário

Loader
Loader Mostrar mais...