
A Meta, controladora de gigantes como Facebook, Instagram e WhatsApp, anunciou nesta segunda-feira (14) que passará a utilizar interações de usuários com sua inteligência artificial, bem como postagens públicas e comentários de adultos em suas plataformas, como parte do treinamento de seus modelos de IA na União Europeia. A iniciativa, que já vinha sendo adotada nos Estados Unidos desde 2023, entra em vigor no continente europeu em meio a um ambiente regulatório sensível e altamente atento às práticas de coleta e uso de dados.
A decisão vem meses após a companhia suspender, em junho de 2024, a implementação de sua tecnologia de IA na Europa. À época, o atraso foi causado por preocupações levantadas pelo órgão de proteção de dados da Irlanda, país sede das operações europeias da Meta, que solicitou a suspensão do uso de dados de redes sociais até que regras mais claras fossem estabelecidas.
Uma estreia adiada por regulação rigorosa
Diferente do cenário norte-americano, onde a Meta encontrou terreno fértil para o lançamento de sua IA — batizada de Meta AI —, o mercado europeu apresenta um desafio muito maior. Isso ocorre por conta da legislação robusta em matéria de proteção de dados, notadamente o Regulamento Geral sobre a Proteção de Dados (GDPR), que impõe diretrizes rígidas sobre como dados pessoais podem ser coletados, tratados e armazenados.
Com a retomada da estratégia de implementação, a Meta promete mais transparência: usuários da UE começarão a receber notificações com explicações claras sobre que tipos de dados serão usados e de que forma isso acontecerá. Além disso, será oferecido um formulário para que qualquer pessoa possa se opor ao uso de suas informações para fins de treinamento de modelos de IA.
A empresa garantiu que não utilizará mensagens privadas nem qualquer conteúdo de contas pertencentes a menores de 18 anos. O foco, segundo a Meta, será exclusivamente sobre dados públicos e interações abertas com a IA, como perguntas feitas ao assistente e comentários visíveis em redes sociais.
A pressão dos órgãos de defesa da privacidade
Apesar da tentativa de estabelecer um modelo mais “consentido” de coleta de dados, a Meta enfrenta forte oposição de grupos de defesa da privacidade. Entre eles, destaca-se a organização austríaca NOYB (None of Your Business), liderada pelo ativista Max Schrems, que pediu formalmente às autoridades europeias que bloqueiem o plano da empresa, sob o argumento de que a simples disponibilização de um formulário não configura consentimento livre e informado — princípio central do GDPR.
A pressão da NOYB e a atuação da Comissão de Proteção de Dados da Irlanda levaram a Meta, em 2024, a interromper temporariamente a utilização de dados das redes sociais para esse tipo de treinamento. Agora, com o reinício do processo, ainda não está claro se a empresa cumprirá todos os requisitos para operar em conformidade com a legislação da UE.
A Comissão Europeia, até o momento, não se pronunciou oficialmente sobre o novo movimento da Meta.
Uma tendência crescente entre big techs
O uso de dados de usuários para treinar modelos de linguagem e inteligência artificial não é exclusividade da Meta. Outras gigantes do setor, como o Google e o X (antigo Twitter), também estão sob escrutínio por práticas semelhantes. O X, de Elon Musk, está sendo investigado pelo regulador irlandês por possíveis violações relacionadas ao uso de dados pessoais de europeus no treinamento de seu sistema de IA, o Grok.
Já o Google, controlado pela Alphabet, está na mira desde setembro de 2024, quando uma investigação foi aberta para averiguar se a empresa havia protegido adequadamente os dados dos usuários antes de utilizá-los em seus próprios sistemas de IA generativa, incluindo os modelos Bard e Gemini.
A crescente vigilância regulatória indica que o uso de conteúdo público — mesmo que não explicitamente privado — passou a ser considerado uma prática sensível. As autoridades argumentam que, mesmo em se tratando de postagens públicas, o uso automatizado de dados para finalidades diferentes daquelas originalmente pretendidas pelos usuários pode configurar violação da confiança e da privacidade.
O dilema da transparência e do consentimento
O maior desafio enfrentado pela Meta e outras empresas está na forma como obtêm o consentimento dos usuários. Ao adotar um modelo de “opt-out” — em que o uso dos dados é considerado válido até que o usuário manifeste objeção —, a Meta entra em terreno arriscado diante do GDPR, que exige que o consentimento seja uma escolha ativa e explícita.
Segundo especialistas em direito digital, a abordagem da Meta pode ser questionada judicialmente, sobretudo se não houver clareza suficiente sobre como os dados serão utilizados e se o formulário de objeção for de difícil acesso ou entendimento. A empresa afirma que está comprometida com a transparência e que a comunicação será “simples, acessível e clara”.
Ainda assim, defensores da privacidade questionam se os usuários têm real controle sobre seus dados em um ambiente onde o padrão é o uso automatizado por sistemas de inteligência artificial.
Implicações para o futuro da IA generativa na Europa
O caso da Meta é emblemático e pode servir de baliza para outras empresas que pretendem operar com IA generativa no território europeu. O continente, com sua tradição de legislações protetivas, tende a influenciar padrões globais. Se a Meta for obrigada a mudar sua abordagem, outras companhias terão de adaptar suas estratégias, tornando o mercado europeu um teste definitivo para a ética e a responsabilidade digital.
Essa movimentação ocorre em um momento em que a UE também discute a implementação final da Lei de Inteligência Artificial (AI Act), proposta que visa regulamentar o uso de IA em todo o bloco, classificando tecnologias de acordo com seus riscos e exigindo padrões de transparência e governança.
IA em rota de colisão com a privacidade?
O anúncio da Meta reacende o debate sobre os limites do uso de dados em tempos de inteligência artificial. Embora o avanço tecnológico demande grandes volumes de informação para aprimorar modelos, os direitos dos usuários permanecem um pilar fundamental — especialmente na Europa.
A tentativa da Meta de se adequar às exigências da União Europeia pode ser vista como um passo em direção à responsabilidade, mas também como um teste de fogo para suas práticas e sua reputação. Em um cenário onde confiança e transparência são ativos cada vez mais valiosos, a forma como a empresa lida com a coleta de dados agora pode definir sua posição no mercado europeu nos próximos anos.