Modelo de IA do Google sob investigação europeia
A Comissão de Proteção de Dados (DPC) anunciou hoje uma investigação sobre o Google para determinar se a empresa cumpriu as leis de proteção de dados da UE ao desenvolver seu modelo de IA, o Pathways Language Model 2 (PaLM 2).
PaLM2 é um grande modelo de linguagem usado em vários serviços de IA, incluindo a sumarização de emails. O Google declarou que cooperará com a investigação, conforme observado pela AP.
A investigação avaliará se o Google deveria ter realizado uma Avaliação de Impacto de Proteção de Dados (DPIA) para avaliar os potenciais riscos aos direitos e liberdades individuais provenientes de suas tecnologias de IA.
Esta investigação faz parte dos esforços mais amplos da DPC para garantir a conformidade com as regras de proteção de dados no setor de IA em toda a Europa. O processamento transfronteiriço, que envolve o manuseio de dados em vários países da UE ou que afeta indivíduos em várias nações, está sob escrutínio particular.
As ferramentas de IA generativa, conhecidas por produzirem informações convincentes mas falsas e por acessarem dados pessoais, apresentam riscos legais significativos, como observado pelo TechCrunch. A DPC, responsável por garantir a conformidade do Google com o Regulamento Geral de Proteção de Dados (GDPR).
Para esse fim, a DPC pode impor multas de até 4% da receita anual global da empresa matriz do Google, a Alphabet, por violações, conforme relatado pelo TechCrunch.
O Google desenvolveu uma série de ferramentas de IA generativas, incluindo sua série Gemini de modelos de linguagem de grande porte (anteriormente Bard) usados para várias aplicações, incluindo aprimoramento de pesquisas na web por meio de chatbots de IA, observa o TechCrunch.
Central para essas ferramentas é o PaLM2 do Google, um LLM fundamental lançado na conferência de desenvolvedores I/O do ano passado, disse TechCrunch.
No mês passado, a X de Elon Musk também enfrentou escrutínio dos reguladores europeus sobre o uso de dados de usuários para treinamento de IA. A DPC iniciou uma investigação após receber reclamações de que a X estava alimentando seus dados de usuário em sua tecnologia Grok AI sem obter o devido consentimento. Embora a X tenha concordado em limitar seu processamento de dados, ela não enfrentou nenhuma sanção.
Esta investigação faz parte dos esforços mais amplos da DPC para regular o uso de dados pessoais no desenvolvimento de IA em toda a União Europeia. A recente adoção do Ato de Inteligência Artificial da UE marca um passo significativo para estabelecer um quadro regulatório para as tecnologias de IA dentro do bloco.
Deixe um comentário
Cancelar