LinkedIn Utilizando Dados do Usuário para Treinar Modelos de IA Sem Consentimento Claro

Image by Airam Dato-on, from Pexels

LinkedIn Utilizando Dados do Usuário para Treinar Modelos de IA Sem Consentimento Claro

Tempo de leitura: 3 minuto

  • Kiara Fabbri

    Escrito por: Kiara Fabbri Jornalista multimídia

  • Equipe de localização e tradução

    Traduzido por Equipe de localização e tradução Serviços de localização e tradução

Com pressa? Aqui estão os fatos rápidos!

  • LinkedIn usou dados de usuários dos EUA para IA sem aviso claro.
  • Existia uma opção para optar por não participar, mas o LinkedIn não atualizou sua política de privacidade inicialmente.
  • A atualização atrasada do LinkedIn reflete as crescentes preocupações globais sobre o uso de dados pela IA.

O LinkedIn, plataforma de networking profissional, enfrentou críticas por usar os dados dos usuários para treinar seus modelos de IA sem informar explicitamente aos usuários com antecedência.

Os usuários do LinkedIn nos EUA – mas não aqueles na UE, EEE ou Suíça, provavelmente devido a leis de privacidade de dados mais rigorosas – possuem uma opção de opt-out em suas configurações que revela que o LinkedIn coleta dados pessoais para treinar “modelos de IA para criação de conteúdo.”

Embora a alternância em si não seja nova, inicialmente o LinkedIn falhou em atualizar sua política de privacidade para refletir esse uso de dados, conforme relatado pela primeira vez por 404 Media.

Em uma página de ajuda, o LinkedIn explica que seus modelos de IA gerativos são usados para tarefas como recursos de assistente de escrita.

Os usuários podem optar por não ter seus dados usados para treinamento de IA, navegando até a seção “Dados para Melhoria de IA Generativa” sob a aba de privacidade de dados em suas configurações de conta.

Desativar o interruptor impedirá o LinkedIn de usar dados pessoais para futuros treinamentos de modelos de IA, embora isso não desfaça o treinamento que já ocorreu.

Os termos de serviço foram atualizados, conforme relatado pelo TechCrunch, mas normalmente essas atualizações acontecem bem antes de mudanças significativas como a reutilização de dados do usuário.

Essa abordagem geralmente permite que os usuários ajustem suas configurações ou deixem a plataforma se discordarem das mudanças. No entanto, dessa vez, isso não aconteceu.

Isso surge em meio a preocupações mais amplas sobre como os dados pessoais são processados pelos sistemas de IA. O escrutínio sobre as práticas de dados de IA está se intensificando globalmente.

Um estudo recente do MIT revelou que um número crescente de sites está restringindo o uso de seus dados para treinamento de IA.

Além disso, O DPC concluiu recentemente os procedimentos legais contra o X em relação à sua ferramenta de IA, depois que a empresa concordou em cumprir as restrições anteriores sobre o uso de dados de usuários da EU/EEA para treinamento de IA.

O incidente destaca a crescente importância da transparência e do consentimento do usuário no desenvolvimento de tecnologias de IA.

À medida que a IA continua a avançar, é crucial que as empresas sejam claras sobre suas práticas de dados e obtenham permissão explícita dos usuários antes de utilizar suas informações para fins de treinamento.

O incidente também destaca as crescentes tensões entre as empresas de IA e os proprietários de dados, já que cada vez mais organizações estão exigindo maior controle sobre como seus dados são utilizados.

Gostou desse artigo? Avalie!
Eu detestei Eu não gostei Achei razoável Muito bom! Eu adorei!
0 Votado por 0 usuários
Título
Comentar
Obrigado por seu feedback
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Deixe um comentário

Mostrar mais...