X Enfrenta Reclamações Por Usar Dados da UE Sem Consentimento
Hoje, a Reuters relatou que o grupo de privacidade NOYB apresentou uma reclamação formal contra a plataforma de mídia social X. A reclamação alega que a empresa, propriedade de Elon Musk, usou ilegalmente os dados pessoais dos usuários para treinar seus sistemas de IA sem consentimento, violando as leis de privacidade da UE.
NOYB, liderado pelo defensor da privacidade Max Schrems, apresentou reclamações do Regulamento Geral de Proteção de Dados (GDPR) a nove autoridades da União Europeia. As reclamações têm como objetivo aumentar a pressão sobre a Comissão de Proteção de Dados (DPC) da Irlanda, responsável pela supervisão das grandes empresas de internet dos EUA que operam na UE.
De acordo com a denúncia, X teria usado os dados pessoais de mais de 60 milhões de usuários europeus para treinar seu sistema de IA (Grok) sem o consentimento deles. A DPC iniciou processos judiciais contra o gigante da tecnologia, mas críticos argumentam que a resposta foi inadequada.
Schrems afirma: “Vimos inúmeros casos de aplicação ineficiente e parcial por parte da DPC nos últimos anos. Queremos garantir que o Twitter (X) cumpra totalmente a lei da UE, que – no mínimo – exige pedir o consentimento dos usuários neste caso.”
De acordo com o TechCrunch, a Meta interrompeu um plano semelhante de processar dados do usuário para treinamento de IA em junho, após a NOYB apoiar as reclamações do GDPR e os reguladores intervirem. Em contraste, o método de X de usar silenciosamente os dados do usuário para treinamento de IA sem notificar os usuários parece ter passado despercebido por várias semanas.
A reclamação da NOYB sugere uma solução simples: o GDPR da UE permite que os usuários “doem” seus dados pessoais para o desenvolvimento de IA simplesmente solicitando seu consentimento claro. Se apenas uma pequena fração dos 60 milhões de usuários do Twitter concordasse com o treinamento de IA, a empresa ainda teria dados suficientes para seus modelos. No entanto, a abordagem atual do Twitter é usar dados do usuário sem informá-los ou solicitar permissão.
Schrems afirma: “As empresas que interagem diretamente com os usuários simplesmente precisam mostrar a eles um prompt de sim/não antes de usar seus dados. Elas fazem isso regularmente para muitas outras coisas, então definitivamente seria possível para o treinamento de IA também.”
A reclamação afirma que, embora a X tenha concordado em pausar o treinamento de IA com dados da UE até setembro, a reclamação da NOYB destaca as questões mais amplas de conformidade e transparência. No entanto, nenhuma decisão sobre a legalidade do uso dos dados foi tomada e várias questões permanecem sem resolução. Por exemplo, o que acontecerá com os dados da UE já processados e como a X pode separar adequadamente os dados da UE dos dados não pertencentes à UE?
Para abordar essas preocupações, a NOYB apresentou denúncias de GDPR às autoridades de proteção de dados em nove países para garantir uma investigação minuciosa sobre as principais questões jurídicas envolvendo o treinamento de IA do X.
Deixe um comentário
Cancelar