Erros Gerados por IA em Documentos Judiciais Levam a Problemas Legais para Advogados

Photo by Saúl Bucio on Unsplash

Erros Gerados por IA em Documentos Judiciais Levam a Problemas Legais para Advogados

Tempo de leitura: 2 minuto

Um relatório compartilhado pela Reuters ontem revela que as alucinações da IA – erros e informações inventadas criadas por modelos gerativos de IA – estão causando problemas legais nos tribunais dos Estados Unidos.

Com pressa? Aqui estão os fatos rápidos!

  • Morgan & Morgan enviou um email para 1.000 advogados alertando sobre os riscos da IA.
  • O caso recente de advogados do Walmart admitindo o uso de IA para seus casos alarmou a comunidade jurídica.
  • O uso de alucinações de chatbot em declarações judiciais tornou-se um problema recorrente nos últimos anos.

Neste mês, o escritório de advocacia Morgan & Morgan enviou um e-mail alertando mais de 1.000 advogados sobre os riscos de usar chatbots e casos falsos gerados por inteligência artificial.

Há alguns dias, dois advogados em Wyoming admitiram incluir casos falsos gerados por IA em um protocolo judicial para um processo contra o Walmart, e um juiz federal ameaçou sancioná-los.

Em dezembro, o professor de Stanford e especialista em desinformação Jeff Hancock foi acusado de usar IA para fabricar citações de declarações judiciais como parte de sua defesa na lei estadual de 2023 que criminaliza o uso de deepfakes para influenciar eleições.

Vários casos como esses, ao longo dos últimos anos, vêm gerando atrito jurídico e adicionando problemas a juízes e litigantes. Morgan & Morgan e Walmart se recusaram a comentar sobre esse assunto.

A IA generativa tem ajudado a reduzir o tempo de pesquisa para advogados, mas suas alucinações podem acarretar custos significativos. No ano passado, uma pesquisa da Thomson Reuters revelou que 63% dos advogados usaram IA para o trabalho e 12% fizeram isso regularmente.

No ano passado, a American Bar Association lembrou seus 400.000 membros das regras de ética dos advogados, que incluem os advogados defendendo todas as informações em seus processos judiciais, e observou que isso inclui informações geradas por IA, mesmo que fossem acidentais – como no caso de Hancock.

“Quando os advogados são pegos usando o ChatGPT ou qualquer ferramenta de IA gerativa para criar citações sem checá-las, isso é incompetência, pura e simplesmente”, disse Andrew Perlman, reitor da Faculdade de Direito da Universidade de Suffolk para a Reuters.

Há alguns dias, a BBC também compartilhou um relatório alertando sobre citações falsas geradas por IA e os problemas com ferramentas de IA no jornalismo.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Deixe um comentário

Loader
Loader Mostrar mais...