Meta Vai Usar Postagens Públicas para Treinar IA na Europa em Meio a Polêmicas sobre Privacidade

DA REDAÇÃO

A Meta, controladora de gigantes como Facebook, Instagram e WhatsApp, anunciou nesta segunda-feira (14) que passará a utilizar interações de usuários com sua inteligência artificial, bem como postagens públicas e comentários de adultos em suas plataformas, como parte do treinamento de seus modelos de IA na União Europeia. A iniciativa, que já vinha sendo adotada nos Estados Unidos desde 2023, entra em vigor no continente europeu em meio a um ambiente regulatório sensível e altamente atento às práticas de coleta e uso de dados.

A decisão vem meses após a companhia suspender, em junho de 2024, a implementação de sua tecnologia de IA na Europa. À época, o atraso foi causado por preocupações levantadas pelo órgão de proteção de dados da Irlanda, país sede das operações europeias da Meta, que solicitou a suspensão do uso de dados de redes sociais até que regras mais claras fossem estabelecidas.

Uma estreia adiada por regulação rigorosa

Diferente do cenário norte-americano, onde a Meta encontrou terreno fértil para o lançamento de sua IA — batizada de Meta AI —, o mercado europeu apresenta um desafio muito maior. Isso ocorre por conta da legislação robusta em matéria de proteção de dados, notadamente o Regulamento Geral sobre a Proteção de Dados (GDPR), que impõe diretrizes rígidas sobre como dados pessoais podem ser coletados, tratados e armazenados.

Com a retomada da estratégia de implementação, a Meta promete mais transparência: usuários da UE começarão a receber notificações com explicações claras sobre que tipos de dados serão usados e de que forma isso acontecerá. Além disso, será oferecido um formulário para que qualquer pessoa possa se opor ao uso de suas informações para fins de treinamento de modelos de IA.

A empresa garantiu que não utilizará mensagens privadas nem qualquer conteúdo de contas pertencentes a menores de 18 anos. O foco, segundo a Meta, será exclusivamente sobre dados públicos e interações abertas com a IA, como perguntas feitas ao assistente e comentários visíveis em redes sociais.

A pressão dos órgãos de defesa da privacidade

Apesar da tentativa de estabelecer um modelo mais “consentido” de coleta de dados, a Meta enfrenta forte oposição de grupos de defesa da privacidade. Entre eles, destaca-se a organização austríaca NOYB (None of Your Business), liderada pelo ativista Max Schrems, que pediu formalmente às autoridades europeias que bloqueiem o plano da empresa, sob o argumento de que a simples disponibilização de um formulário não configura consentimento livre e informado — princípio central do GDPR.

A pressão da NOYB e a atuação da Comissão de Proteção de Dados da Irlanda levaram a Meta, em 2024, a interromper temporariamente a utilização de dados das redes sociais para esse tipo de treinamento. Agora, com o reinício do processo, ainda não está claro se a empresa cumprirá todos os requisitos para operar em conformidade com a legislação da UE.

A Comissão Europeia, até o momento, não se pronunciou oficialmente sobre o novo movimento da Meta.

Uma tendência crescente entre big techs

O uso de dados de usuários para treinar modelos de linguagem e inteligência artificial não é exclusividade da Meta. Outras gigantes do setor, como o Google e o X (antigo Twitter), também estão sob escrutínio por práticas semelhantes. O X, de Elon Musk, está sendo investigado pelo regulador irlandês por possíveis violações relacionadas ao uso de dados pessoais de europeus no treinamento de seu sistema de IA, o Grok.

Já o Google, controlado pela Alphabet, está na mira desde setembro de 2024, quando uma investigação foi aberta para averiguar se a empresa havia protegido adequadamente os dados dos usuários antes de utilizá-los em seus próprios sistemas de IA generativa, incluindo os modelos Bard e Gemini.

A crescente vigilância regulatória indica que o uso de conteúdo público — mesmo que não explicitamente privado — passou a ser considerado uma prática sensível. As autoridades argumentam que, mesmo em se tratando de postagens públicas, o uso automatizado de dados para finalidades diferentes daquelas originalmente pretendidas pelos usuários pode configurar violação da confiança e da privacidade.

O dilema da transparência e do consentimento

O maior desafio enfrentado pela Meta e outras empresas está na forma como obtêm o consentimento dos usuários. Ao adotar um modelo de “opt-out” — em que o uso dos dados é considerado válido até que o usuário manifeste objeção —, a Meta entra em terreno arriscado diante do GDPR, que exige que o consentimento seja uma escolha ativa e explícita.

Segundo especialistas em direito digital, a abordagem da Meta pode ser questionada judicialmente, sobretudo se não houver clareza suficiente sobre como os dados serão utilizados e se o formulário de objeção for de difícil acesso ou entendimento. A empresa afirma que está comprometida com a transparência e que a comunicação será “simples, acessível e clara”.

Ainda assim, defensores da privacidade questionam se os usuários têm real controle sobre seus dados em um ambiente onde o padrão é o uso automatizado por sistemas de inteligência artificial.

Implicações para o futuro da IA generativa na Europa

O caso da Meta é emblemático e pode servir de baliza para outras empresas que pretendem operar com IA generativa no território europeu. O continente, com sua tradição de legislações protetivas, tende a influenciar padrões globais. Se a Meta for obrigada a mudar sua abordagem, outras companhias terão de adaptar suas estratégias, tornando o mercado europeu um teste definitivo para a ética e a responsabilidade digital.

Essa movimentação ocorre em um momento em que a UE também discute a implementação final da Lei de Inteligência Artificial (AI Act), proposta que visa regulamentar o uso de IA em todo o bloco, classificando tecnologias de acordo com seus riscos e exigindo padrões de transparência e governança.

IA em rota de colisão com a privacidade?

O anúncio da Meta reacende o debate sobre os limites do uso de dados em tempos de inteligência artificial. Embora o avanço tecnológico demande grandes volumes de informação para aprimorar modelos, os direitos dos usuários permanecem um pilar fundamental — especialmente na Europa.

A tentativa da Meta de se adequar às exigências da União Europeia pode ser vista como um passo em direção à responsabilidade, mas também como um teste de fogo para suas práticas e sua reputação. Em um cenário onde confiança e transparência são ativos cada vez mais valiosos, a forma como a empresa lida com a coleta de dados agora pode definir sua posição no mercado europeu nos próximos anos.