
Image by Freepik
Brechas nas Proibições de IA da UE Podem Permitir que a Polícia Use Tecnologia Controversa
A nova Lei de IA da UE visa regular a IA, mas enfrenta críticas por brechas, isenções e influência corporativa.
Com pressa? Aqui estão os Fatos Rápidos!
- Críticos argumentam que a lei apresenta brechas, especialmente para as autoridades de aplicação da lei e migração.
- Isenções permitem práticas de IA como reconhecimento facial em tempo real e detecção de emoções em alguns casos.
- Grupos de direitos digitais alertam que as exceções da lei enfraquecem as proteções contra o uso indevido.
O novo AI Act da União Europeia, marca um passo significativo na regulamentação da inteligência artificial. A legislação pioneira no mundo proíbe certos usos “inaceitáveis” da tecnologia de IA, visando proteger os cidadãos e preservar os valores democráticos.
Entre as proibições estão a polícia preditiva, a coleta de imagens faciais da internet para reconhecimento e o uso de IA para detectar emoções a partir de dados biométricos. No entanto, críticos argumentam que a lei contém brechas significativas, especialmente quando se trata de autoridades policiais e de migração.
Embora o AI Act proíba certos usos de IA em princípio, ele inclui isenções que poderiam permitir que a polícia e as autoridades de migração europeias continuem utilizando práticas controversas de IA, conforme relatado inicialmente por Politico.
Por exemplo, o reconhecimento facial em tempo real em espaços públicos, embora amplamente proibido, ainda pode ser permitido em casos excepcionais, como investigações criminais graves.
Da mesma forma, a detecção de emoções em ambientes públicos é proibida, mas exceções podem ser feitas para fins de aplicação da lei e migração, levantando preocupações sobre o uso potencial da IA para identificar enganos nas fronteiras.
As amplas isenções da lei causaram alarme entre os grupos de direitos digitais. Uma coalizão de 22 organizações alertou que o AI Act não consegue abordar adequadamente as preocupações sobre o uso da tecnologia pelas autoridades policiais.
“A falha mais evidente é o fato de que as proibições não se aplicam às autoridades policiais e migratórias”, disse Caterina Rodelli, analista de políticas da UE na Access Now, conforme relatado pelo Politico.
O AI Act da UE também proíbe o uso de IA para controle social, uma medida introduzida para evitar que a IA seja usada para minar as liberdades individuais ou a democracia.
Brando Benifei, um legislador italiano envolvido na elaboração da legislação, explicou que o objetivo é evitar que as tecnologias de IA sejam exploradas para “controle social” ou a “compressão de nossas liberdades”, conforme relatado pelo Politico.
De acordo com o Politico, essa posição foi influenciada por incidentes de alto perfil como o controverso uso de IA pelas autoridades fiscais holandesas para identificar fraudes em 2019, que acusou injustamente cerca de 26.000 pessoas de fraude.
Nesse caso, as autoridades usaram um algoritmo para identificar possíveis fraudes nos benefícios de assistência à infância, mas o algoritmo defeituoso levou a erros de identificação generalizados e danos à vida de cidadãos inocentes.
A controvérsia em torno deste evento desempenhou um papel importante na definição das restrições da lei sobre a polícia preditiva e outras formas de uso indevido de IA.
Enquanto isso, um relatório do Corporate Europe Observatory (CEO) levanta preocupações sobre a influência das grandes empresas de tecnologia no desenvolvimento dos padrões de IA da UE. O relatório revela que mais da metade dos membros do Comitê Técnico Conjunto sobre IA (JTC21), responsável pela definição dos padrões de IA, representa interesses corporativos ou de consultoria.
Grandes empresas como Oracle, Microsoft, Amazon e Google estão defendendo regulamentações mais leves que priorizam seus interesses comerciais, ao invés de proteger direitos fundamentais ou o bem-estar da sociedade.
Essa influência corporativa tem levantado alertas de que a Lei de IA da UE poderia ser prejudicada por interesses da indústria focados na lucratividade em detrimento de considerações éticas. Além disso, representantes da sociedade civil e acadêmicos enfrentam desafios financeiros e logísticos para participar do processo de definição de padrões.
O relatório destaca a falta de transparência e responsabilidade democrática dentro de organizações de definição de padrões como a CEN e a CENELEC, suscitando preocupações sobre a justiça e a inclusividade do processo de desenvolvimento de padrões.
Embora o AI Act coloque a UE na vanguarda da regulamentação global de IA, o debate em andamento sobre suas brechas sugere que equilibrar a inovação com a proteção dos direitos humanos será uma tarefa delicada daqui para frente.
Deixe um comentário
Cancelar