
Photo by Saúl Bucio on Unsplash
Erros Gerados por IA em Documentos Judiciais Levam a Problemas Legais para Advogados
Um relatório compartilhado pela Reuters ontem revela que as alucinações da IA – erros e informações inventadas criadas por modelos gerativos de IA – estão causando problemas legais nos tribunais dos Estados Unidos.
Com pressa? Aqui estão os fatos rápidos!
- Morgan & Morgan enviou um email para 1.000 advogados alertando sobre os riscos da IA.
- O caso recente de advogados do Walmart admitindo o uso de IA para seus casos alarmou a comunidade jurídica.
- O uso de alucinações de chatbot em declarações judiciais tornou-se um problema recorrente nos últimos anos.
Neste mês, o escritório de advocacia Morgan & Morgan enviou um e-mail alertando mais de 1.000 advogados sobre os riscos de usar chatbots e casos falsos gerados por inteligência artificial.
Há alguns dias, dois advogados em Wyoming admitiram incluir casos falsos gerados por IA em um protocolo judicial para um processo contra o Walmart, e um juiz federal ameaçou sancioná-los.
Em dezembro, o professor de Stanford e especialista em desinformação Jeff Hancock foi acusado de usar IA para fabricar citações de declarações judiciais como parte de sua defesa na lei estadual de 2023 que criminaliza o uso de deepfakes para influenciar eleições.
Vários casos como esses, ao longo dos últimos anos, vêm gerando atrito jurídico e adicionando problemas a juízes e litigantes. Morgan & Morgan e Walmart se recusaram a comentar sobre esse assunto.
A IA generativa tem ajudado a reduzir o tempo de pesquisa para advogados, mas suas alucinações podem acarretar custos significativos. No ano passado, uma pesquisa da Thomson Reuters revelou que 63% dos advogados usaram IA para o trabalho e 12% fizeram isso regularmente.
No ano passado, a American Bar Association lembrou seus 400.000 membros das regras de ética dos advogados, que incluem os advogados defendendo todas as informações em seus processos judiciais, e observou que isso inclui informações geradas por IA, mesmo que fossem acidentais – como no caso de Hancock.
“Quando os advogados são pegos usando o ChatGPT ou qualquer ferramenta de IA gerativa para criar citações sem checá-las, isso é incompetência, pura e simplesmente”, disse Andrew Perlman, reitor da Faculdade de Direito da Universidade de Suffolk para a Reuters.
Há alguns dias, a BBC também compartilhou um relatório alertando sobre citações falsas geradas por IA e os problemas com ferramentas de IA no jornalismo.
Deixe um comentário
Cancelar