Detector de Fake News com 99% de Precisão Anunciado por Pesquisadores da Universidade de Keele
Pesquisadores da Universidade Keele desenvolveram uma ferramenta projetada para detectar notícias falsas com 99% de precisão, oferecendo um recurso potencial para tratar o crescente problema da desinformação online. O desenvolvimento foi anunciado ontem pela universidade.
Com pressa? Aqui estão os fatos rápidos!
- Os pesquisadores da Universidade Keele desenvolveram uma ferramenta capaz de detectar notícias falsas com 99% de precisão.
- A ferramenta utiliza um sistema de “votação em conjunto” que combina vários modelos de aprendizado de máquina.
- A ferramenta avalia o conteúdo das notícias para determinar a confiabilidade da fonte.
A equipe, composta pela Dra. Uchenna Ani, Dra. Sangeeta Sangeeta e Dra. Patricia Asowo-Ayobode da Escola de Ciências da Computação e Matemática, utilizou várias técnicas de aprendizado de máquina para criar um modelo capaz de analisar o conteúdo das notícias para avaliar sua confiabilidade.
A ferramenta utiliza uma abordagem de “votação em conjunto”, que combina previsões de múltiplos modelos de aprendizado de máquina para produzir um julgamento geral sobre a confiabilidade de uma fonte de notícias. Testes iniciais mostraram que o método superou as expectativas, identificando notícias falsas em 99% dos casos.
Dr. Ani, um professor de Segurança Cibernética em Keele, destacou os desafios impostos pela desinformação. Ele observou que a disseminação generalizada de informações falsas mina o discurso público e pode influenciar atitudes e comportamentos, apresentando riscos tanto para a segurança local quanto nacional.
Os pesquisadores esperam aprimorar ainda mais o modelo à medida que as tecnologias de IA e aprendizado de máquina avançam, visando uma precisão ainda maior na identificação de conteúdo não confiável. A Dra. Ani enfatizou a urgência de desenvolver soluções para proteger a credibilidade das plataformas online, particularmente as mídias sociais, onde a desinformação é mais prevalente.
Pesquisas iniciais realizadas pela Democracy Reporting International (DRI), uma organização baseada em Berlim que promove a democracia, alertaram que os sistemas de IA, particularmente os Large Language Models (LLMs) de código aberto, representam riscos significativos para a propagação da desinformação.
A DRI afirma que esses riscos surgem porque esses modelos, como Dolly, Zephyr e Falcon, são frequentemente lançados sem salvaguardas robustas, deixando-os vulneráveis a mau uso.
A acessibilidade deles requer habilidades técnicas mínimas, permitindo que atores mal-intencionados os manipulem para criar narrativas falsas ou discursos de ódio. Essa baixa barreira de entrada agrava o risco de proliferação de desinformação.
Adicionalmente, a DRI afirma que LLMs de código aberto, como o Zephyr, demonstram capacidades alarmantes, como gerar conteúdo malicioso estruturado e persuasivo em resposta a prompts diretos ou sugestivos.
Tais saídas são frequentemente coerentes e contextualmente apropriadas, tornando-as particularmente perigosas na construção de narrativas falsas. Além disso, os vieses embutidos nesses modelos, que muitas vezes refletem preconceitos sociais, aumentam ainda mais o risco de disseminação de estereótipos prejudiciais.
Embora ainda esteja em desenvolvimento, a ferramenta desenvolvida na Universidade Keele representa um passo em direção ao desafio mais amplo de combater a desinformação na comunicação digital.
Deixe um comentário
Cancelar