Contratados alertam que novas diretrizes do Google podem afetar a precisão do Gemini em tópicos sensíveis
Uma recente mudança nas diretrizes internas do Google tem levantado preocupações sobre a precisão de seu Gemini AI, especialmente quando se trata de lidar com tópicos sensíveis ou altamente especializados.
Com pressa? Aqui estão os fatos rápidos!
- Os contratados pelo Google não podem mais ignorar solicitações fora de sua especialidade para avaliação do Gemini.
- Agora, os contratados avaliam respostas de IA que não compreendem totalmente, observando a falta de especialização.
- Anteriormente, os contratados ignoravam solicitações em tópicos complexos como cardiologia ou doenças raras.
Contratados trabalhando no projeto Gemini, que têm a tarefa de avaliar a precisão das respostas geradas por IA, não podem mais ignorar solicitações fora de sua área de especialização. Essa mudança, primeiramente relatada por TechCrunch, poderia potencialmente impactar a confiabilidade das informações fornecidas pela IA em tópicos como saúde, onde o conhecimento preciso é crucial.
O TechCrunch observa que anteriormente, os contratados da GlobalLogic, uma empresa de terceirização pertencente à Hitachi, eram incumbidos de avaliar as respostas da IA com base em fatores como “veracidade” e podiam ignorar solicitações fora de sua área de especialização.
Por exemplo, se fosse solicitado a avaliar uma questão técnica sobre cardiologia, um contratado sem formação científica poderia ignorá-la.
No entanto, de acordo com as novas diretrizes, os contratados agora são instruídos a avaliar as respostas a todas as solicitações, incluindo aquelas que exigem conhecimento especializado, e anotar quaisquer áreas onde lhes falta experiência, conforme relatado pela TechCrunch.
A nova regra levantou preocupações sobre a qualidade das avaliações fornecidas para tópicos complexos. Os contratados, muitas vezes sem a formação necessária, agora são encarregados de julgar respostas de IA sobre questões como doenças raras ou matemática avançada.
Uma contratada expressou ao TechCrunch frustração em uma correspondência interna, questionando a lógica por trás da eliminação da opção de pular: “Eu pensava que o ponto de pular era aumentar a precisão, dando para alguém melhor?”
O TechCrunch reporta que as diretrizes atualizadas permitem que os contratados pulem os prompts apenas em dois casos: se o prompt ou a resposta estiver incompleto ou contiver conteúdo prejudicial que requer consentimento especial para avaliação.
Essa restrição tem despertado alarmes entre aqueles que trabalham no Gemini, que se preocupam com a possibilidade do IA produzir informações imprecisas ou enganosas em áreas extremamente sensíveis.
O TechCrunch reporta que o Google não forneceu uma resposta detalhada às preocupações levantadas pelos contratados.
No entanto, um porta-voz enfatizou ao TechCrunch que a empresa está “trabalhando constantemente para melhorar a precisão factual em Gemini”. Eles esclareceram ainda que, embora os avaliadores forneçam feedback valioso em vários fatores, suas avaliações não impactam diretamente os algoritmos, mas são usadas para avaliar o desempenho geral do sistema.
Mashable observou que o relatório questiona o rigor e os padrões que o Google afirma aplicar ao testar Gemini para precisão.
Na seção “Construindo de maneira responsável” do anúncio do Gemini 2.0, o Google afirmou que está “trabalhando com testadores confiáveis e especialistas externos e realizando extensas avaliações de riscos e avaliações de segurança e garantia”.
Embora haja uma ênfase razoável na avaliação de respostas para conteúdos sensíveis e prejudiciais, parece haver menos atenção para respostas que, embora não sejam prejudiciais, são simplesmente imprecisas, como observado pelo Mashable.
Deixe um comentário
Cancelar