
A autoridade de proteção de dados de Hong Kong solicitou aos usuários do LinkedIn que revisem suas configurações de privacidade. Segundo relatos, a gigante das redes sociais profissionais retomará o uso de seus dados pessoais para treinar modelos generativos de inteligência artificial a partir da próxima segunda-feira.
O Gabinete do Comissário de Privacidade para Dados Pessoais emitiu um lembrete de que o LinkedIn confirmou que começará a usar dados pessoais para treinar seus modelos generativos de IA a partir de 3 de novembro.
“A Comissária de Privacidade para Dados Pessoais, Ada Chung Lai-ling, lembra aos usuários do LinkedIn que prestem atenção às mudanças na política de privacidade do LinkedIn e que compreendam seu conteúdo relevante, em particular aqueles relacionados ao uso de dados pessoais dos usuários para o treinamento de modelos generativos de IA, a fim de decidir se consentem com tal uso”, diz .
O LinkedIn anunciou, em setembro de 2025, planos para começar a usar perfis de membros, publicações, currículos e atividades públicas para treinar seus modelos de inteligência artificial.
A plataforma de networking profissional e site de empregos confirmou que serão incluídos dados de membros do Reino Unido, da União Europeia, do Espaço Econômico Europeu, da Suíça, do Canadá e de Hong Kong.
Inicialmente, a autoridade de proteção de dados de Hong Kong interveio e suspendeu o uso desses dados pelo LinkedIn no final de 2024, após a revisão da política de privacidade da empresa e preocupações levantadas sobre a configuração padrão de adesão para usuários de Hong Kong.
O órgão regulador afirmou ter mantido contato com o LinkedIn de outubro de 2024 a abril deste ano. Desde então, o LinkedIn prometeu que os usuários de Hong Kong continuarão a ter controle sobre como seus dados são usados para treinamento de IA e que todo o processamento de dados estará em conformidade com a Lei de Dados Pessoais (Privacidade).

Para isso, os dados que o LinkedIn utilizará incluem informações detalhadas dos perfis dos usuários e conteúdo público publicado na plataforma. Os usuários receberam garantias da empresa de que os dados não incluem mensagens privadas. No entanto, usuários menores de 18 anos serão excluídos do treinamento de IA.
Além disso, o órgão de fiscalização afirmou que aqueles que desejarem optar por não participar devem acessar a seção “Privacidade de dados” nas configurações da conta e selecionar “Dados para aprimoramento de IA generativa” para encontrar a opção de ativação/desativação. Em seguida, devem desativar a opção “Usar meus dados para treinar modelos de IA para criação de conteúdo”.

O órgão regulador também afirmou que continuará monitorando a situação para garantir a proteção da privacidade dos dados pessoais dos usuários de Hong Kong. Essa abordagem está alinhada a uma tendência mais ampla entre as plataformas de mídia social.
Conforme relatado pelo Cryptopolitan, a Meta fez um movimento semelhante no ano passado para o Facebook e o Instagram, retomando a prática após concluir uma revisão regulatória.
O LinkedIn planeja compartilhar dados de usuários com a Microsoft e suas afiliadas para fins de treinamento de IA. A Microsoft fez investimentos significativos na OpenAI , criadora do ChatGPT.
Essa notícia surge após a declaração da diretora de dados do Goldman Sachs de que modelos de IA, como o ChatGPT da OpenAI e o Gemini do Google, esgotaram seus dados de treinamento. Neema Raphael, que atua como diretora de dados e chefe de engenharia de dados do gigante bancário, afirmou que o problema pode prejudicar o desenvolvimento da inteligência artificial.
Ilya Sutskever, cofundador da OpenAI, afirmou no ano passado que a falta de dados de treinamento significaria que o rápido desenvolvimento da IA "indiscutivelmente chegaria ao fim".
A falta de novos dados pode forçar as empresas de IA a abandonar os modelos de treinamento atuais, concentrando-se, em vez disso, em inteligência artificial mais ativa. Agentes de IA já estão sendo desenvolvidos e lançados pela maioria das principais empresas de inteligência artificial. Eles funcionam como sistemas autônomos que podem tomar decisões e executar tarefas online sem supervisão humana.
Sistemas de IA com agentes podem lançar ataques que se adaptam em tempo real, aprendendo com contramedidas defensivas e evoluindo suas táticas instantaneamente. No entanto, essas mesmas capacidades autônomas também podem revolucionar a forma como nos defendemos contra ameaças cibernéticas. Ainda assim, para os humanos, essa é a maior ameaça.
Reivindique seu lugar gratuito em uma comunidade exclusiva de negociação de criptomoedas - limitada a 1.000 membros.