
Image by National Cancer Institute, from Unsplash
O Google Lança ‘Co-Cientista de IA’ para Acelerar Descobertas e Inovação
Pesquisadores do Google apresentaram um novo sistema de IA, conhecido como co-cientista de IA, construído na plataforma Gemini 2.0.
Com pressa? Aqui estão os fatos rápidos!
- O sistema de IA apresenta agentes especializados para gerar, classificar e refinar ideias de pesquisa.
- O co-cientista de IA usa uma coalizão de agentes especializados para diferentes funções de pesquisa.
- Ele demonstrou resultados promissores, como sugerir possíveis tratamentos medicamentosos para a leucemia.
Este sistema visa aprimorar a pesquisa científica e biomédica, funcionando como um colaborador virtual para os cientistas.
A co-cientista de IA é projetada para gerar hipóteses inovadoras, propor direções de pesquisa e apoiar o planejamento científico a longo prazo, ajudando a acelerar os processos de descoberta em uma variedade de campos, incluindo a reutilização de medicamentos, a identificação de alvos de tratamento e a resistência antimicrobiana.
A inovação central do sistema reside em sua arquitetura multiagente. Em vez de depender de um único modelo de IA, a co-cientista de IA utiliza uma coalizão de agentes especializados, cada um encarregado de uma função específica.
Esses agentes são inspirados pelo método científico e trabalham juntos para gerar, refinar e avaliar hipóteses. Por exemplo, o agente “Geração” propõe novas ideias de pesquisa, enquanto o agente “Ranking” compara e classifica essas ideias com base em seu potencial impacto.
Os agentes “Evolução” e “Reflexão” do sistema melhoram iterativamente a qualidade das hipóteses, analisando feedbacks, enquanto o agente “Meta-revisão” supervisiona todo o processo, garantindo alinhamento com o objetivo da pesquisa.
Esta abordagem colaborativa permite que o sistema refine continuamente suas saídas. Ao dividir um determinado objetivo de pesquisa em tarefas gerenciáveis, o agente Supervisor gerencia o fluxo de trabalho do sistema, alocando recursos e garantindo que cada agente especializado desempenhe seu papel.
Como resultado, o co-cientista de IA adapta sua abordagem ao longo do tempo, melhorando a qualidade e a novidade de suas sugestões.
Este autoaperfeiçoamento é impulsionado por uma métrica de autoavaliação Elo, que monitora a qualidade das hipóteses geradas e avalia se mais tempo computacional melhora o desempenho do sistema.
Em testes, o co-cientista de IA demonstrou uma forte capacidade para produzir ideias de pesquisa inovadoras e impactantes. Por exemplo, no campo do reposicionamento de medicamentos, sugeriu candidatos para o tratamento da leucemia mieloide aguda (AML).
Essas sugestões foram posteriormente validadas por meio de estudos experimentais, confirmando a eficácia potencial dos medicamentos propostos.
Da mesma forma, na área de fibrose hepática, o co-cientista de IA identificou alvos epigenéticos com significativo potencial terapêutico, apoiando a validação experimental em organoides de fígado humano.
No entanto, além dos possíveis benefícios, uma pesquisa recente revela vários desafios em torno da adoção de IA na pesquisa.
Apesar do crescente interesse nas ferramentas de IA, apenas 45% dos quase 5.000 pesquisadores entrevistados estão atualmente usando IA em seu trabalho, principalmente para tarefas como tradução e revisão.
Preocupações sobre a precisão, viés e riscos à privacidade da IA são generalizadas, com 81% dos entrevistados expressando desconforto. Além disso, quase dois terços dos participantes citaram treinamento inadequado como uma barreira significativa para uma adoção eficaz da IA.
Os pesquisadores também permanecem cautelosos sobre a capacidade da IA em lidar com tarefas mais complexas, como identificar lacunas na literatura ou recomendar revisores de pares.
À medida que ferramentas de IA como o ChatGPT se tornam mais integradas aos fluxos de trabalho de pesquisa, estão surgindo desafios em torno de seu uso, especialmente em relação à precisão das citações.
Por exemplo, um estudo recente destaca os riscos apresentados pelas ferramentas de IA generativas, que frequentemente atribuem erroneamente ou fabricam citações. Dos 200 artigos testados, 153 continham citações incorretas ou parciais.
Esta questão levanta preocupações para pesquisadores que dependem da IA para a preparação de manuscritos e revisão por pares, pois a atribuição incorreta de fontes pode diminuir a confiança depositada nessas ferramentas. Os editores são particularmente vulneráveis, já que erros de atribuição podem prejudicar suas reputações e minar a credibilidade de seu trabalho.
Esses desafios ressaltam a necessidade de diretrizes mais claras e treinamento estruturado para garantir o uso responsável da IA na academia, à medida que os pesquisadores buscam equilibrar o entusiasmo com a cautela na adoção desta tecnologia.
No entanto, o co-cientista de IA representa um avanço significativo na ampliação da descoberta científica, aproveitando a IA para auxiliar os pesquisadores a explorar novas hipóteses, validá-las e acelerar o progresso em diversos campos.
O sistema está atualmente disponível para avaliação através de um Programa de Testador Confiável, convidando organizações de pesquisa para avaliar sua aplicabilidade e eficácia em ambientes reais.
Deixe um comentário
Cancelar