Detector de Fake News com 99% de Precisão Anunciado por Pesquisadores da Universidade de Keele

Image by memyselfaneye, from Pixabay

Detector de Fake News com 99% de Precisão Anunciado por Pesquisadores da Universidade de Keele

Tempo de leitura: 3 minuto

Pesquisadores da Universidade Keele desenvolveram uma ferramenta projetada para detectar notícias falsas com 99% de precisão, oferecendo um recurso potencial para tratar o crescente problema da desinformação online. O desenvolvimento foi anunciado ontem pela universidade.

Com pressa? Aqui estão os fatos rápidos!

  • Os pesquisadores da Universidade Keele desenvolveram uma ferramenta capaz de detectar notícias falsas com 99% de precisão.
  • A ferramenta utiliza um sistema de “votação em conjunto” que combina vários modelos de aprendizado de máquina.
  • A ferramenta avalia o conteúdo das notícias para determinar a confiabilidade da fonte.

A equipe, composta pela Dra. Uchenna Ani, Dra. Sangeeta Sangeeta e Dra. Patricia Asowo-Ayobode da Escola de Ciências da Computação e Matemática, utilizou várias técnicas de aprendizado de máquina para criar um modelo capaz de analisar o conteúdo das notícias para avaliar sua confiabilidade.

A ferramenta utiliza uma abordagem de “votação em conjunto”, que combina previsões de múltiplos modelos de aprendizado de máquina para produzir um julgamento geral sobre a confiabilidade de uma fonte de notícias. Testes iniciais mostraram que o método superou as expectativas, identificando notícias falsas em 99% dos casos.

Dr. Ani, um professor de Segurança Cibernética em Keele, destacou os desafios impostos pela desinformação. Ele observou que a disseminação generalizada de informações falsas mina o discurso público e pode influenciar atitudes e comportamentos, apresentando riscos tanto para a segurança local quanto nacional.

Os pesquisadores esperam aprimorar ainda mais o modelo à medida que as tecnologias de IA e aprendizado de máquina avançam, visando uma precisão ainda maior na identificação de conteúdo não confiável. A Dra. Ani enfatizou a urgência de desenvolver soluções para proteger a credibilidade das plataformas online, particularmente as mídias sociais, onde a desinformação é mais prevalente.

Pesquisas iniciais realizadas pela Democracy Reporting International (DRI), uma organização baseada em Berlim que promove a democracia, alertaram que os sistemas de IA, particularmente os Large Language Models (LLMs) de código aberto, representam riscos significativos para a propagação da desinformação.

A DRI afirma que esses riscos surgem porque esses modelos, como Dolly, Zephyr e Falcon, são frequentemente lançados sem salvaguardas robustas, deixando-os vulneráveis a mau uso.

A acessibilidade deles requer habilidades técnicas mínimas, permitindo que atores mal-intencionados os manipulem para criar narrativas falsas ou discursos de ódio. Essa baixa barreira de entrada agrava o risco de proliferação de desinformação.

Adicionalmente, a DRI afirma que LLMs de código aberto, como o Zephyr, demonstram capacidades alarmantes, como gerar conteúdo malicioso estruturado e persuasivo em resposta a prompts diretos ou sugestivos.

Tais saídas são frequentemente coerentes e contextualmente apropriadas, tornando-as particularmente perigosas na construção de narrativas falsas. Além disso, os vieses embutidos nesses modelos, que muitas vezes refletem preconceitos sociais, aumentam ainda mais o risco de disseminação de estereótipos prejudiciais.

Embora ainda esteja em desenvolvimento, a ferramenta desenvolvida na Universidade Keele representa um passo em direção ao desafio mais amplo de combater a desinformação na comunicação digital.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!

Estamos muito felizes que tenha gostado do nosso trabalho!

Como um leitor importante, você se importaria de nos avaliar no Trustpilot? É rápido e significa muito para nós. Obrigado por ser incrível!

Avalie-nos no Trustpilot
5.00 Votado por 1 usuários
Título
Comentar
Obrigado por seu feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Deixe um comentário

Loader
Loader Mostrar mais...