Ferramentas de IA do Governo do Reino Unido Enfrentam Escrutínio Devido a Preocupações com Racismo e Viés

Image by Wesley Fryer, from Flickr

Ferramentas de IA do Governo do Reino Unido Enfrentam Escrutínio Devido a Preocupações com Racismo e Viés

Tempo de leitura: 2 minuto

  • Kiara Fabbri

    Escrito por: Kiara Fabbri Jornalista multimídia

  • Equipe de localização e tradução

    Traduzido por Equipe de localização e tradução Serviços de localização e tradução

The Guardian relatou hoje que o governo do Reino Unido em breve publicará detalhes das ferramentas de IA utilizadas em diversos departamentos, após preocupações sobre o possível racismo e preconceito incorporados nessas tecnologias.

A decisão de divulgar essas ferramentas de IA vem após a pressão de ativistas pela transparência que soaram os alarmes sobre o segredo e possíveis práticas discriminatórias dentro desses sistemas. Essas ferramentas de IA têm sido usadas para tarefas como detectar casamentos falsos e identificar fraude em reivindicações de benefícios.

The Public Law Project (PLP), uma instituição de caridade de acesso à justiça, tem estado na vanguarda desta questão, defendendo mais transparência e justiça na implantação dessa tecnologia.

Em agosto de 2020, o Home Office concordou em suspender um algoritmo de computador usado para classificar pedidos de visto após alegações de racismo e preconceito. Os funcionários interromperam o algoritmo após um desafio legal do Joint Council for the Welfare of Immigrants e do grupo de direitos digitais Foxglove, conforme relatado pelo The Guardian.

O The Guardian também relata que a Foxglove afirmou que certas nacionalidades eram automaticamente classificadas com um “risco vermelho”, levando a uma maior probabilidade de negação do visto. Eles argumentaram que este processo equivale a discriminação racial.

O Centro de Ética e Inovação em Dados do governo alertou em um relatório que a IA frequentemente amplifica preconceitos. O centro ajudou a desenvolver um padrão de registro de transparência algorítmica para órgãos públicos que utilizam IA e ferramentas algorítmicas, propondo que modelos que interagem com o público ou influenciam decisões sejam publicados em um registro.

Conforme relatado pelo The Guardian, o Departamento de Ciência, Inovação e Tecnologia (DSIT) confirmou neste fim de semana que os departamentos agora relatarão o uso da tecnologia sob este padrão.

Um porta-voz do DSIT declarou ao The Guardian: “A tecnologia tem um enorme potencial para melhorar os serviços públicos, mas sabemos que é importante manter as salvaguardas adequadas, incluindo, quando apropriado, supervisão humana e outras formas de governança.”

“O padrão de registro de transparência algorítmica agora é obrigatório para todos os departamentos, com um número de registros prestes a ser publicado em breve. Continuamos a explorar como ele pode ser expandido em todo o setor público. Incentivamos todas as organizações a usar a IA e os dados de uma maneira que construa a confiança do público por meio de ferramentas, orientações e padrões.”

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Deixe um comentário

Mostrar mais...