
Um novo estudo internacional reacendeu o debate sobre os limites e as capacidades da inteligência artificial ao revelar que modelos de linguagem podem prever decisões humanas com até 64% de precisão. A descoberta, conduzida por uma equipe do Institute for Human-Centered AI do Centro Helmholtz de Munique, utiliza o modelo Centaur, desenvolvido com base em IA de código aberto da Meta, e marca um avanço relevante na capacidade das máquinas de compreender e antecipar o comportamento humano.
O modelo Centaur foi treinado com um extenso banco de dados contendo mais de 10 milhões de decisões humanas, colhidas a partir de 160 experimentos psicológicos realizados com aproximadamente 60 mil participantes. As tarefas envolviam desde categorizações simples de objetos até decisões sobre riscos e recompensas em jogos de azar, oferecendo uma amostra diversificada e realista do processo decisório humano.
Para testar a eficácia do Centaur, os cientistas ocultaram 10% das decisões do treinamento e desafiaram a IA a prever os resultados com base nos padrões aprendidos. O desempenho do modelo surpreendeu: acertou até 64% das escolhas humanas, mesmo quando os cenários dos testes eram levemente modificados.
Essa capacidade chamou a atenção de especialistas em ciência comportamental. Para Clemens Stachl, diretor do Instituto de Ciência e Tecnologia Comportamental da Universidade de St. Gallen, o diferencial do Centaur está em traduzir dados experimentais clássicos de psicologia para linguagem natural, tornando-os processáveis por modelos de IA.
Segundo ele, a aplicação de modelos como o Centaur ultrapassa os domínios da psicologia. “Compras online, sistemas educacionais, planejamento militar e políticas públicas” são áreas nas quais o comportamento humano precisa ser compreendido e previsto e a IA já está sendo usada para isso, afirma o especialista.
O modelo Centaur utiliza as mesmas arquiteturas de IA adotadas por grandes empresas de tecnologia, como o Google e a Meta. Isso reforça a hipótese de que gigantes da tecnologia já aplicam modelos semelhantes de forma comercial, como no TikTok, que sugere conteúdos com base no histórico de navegação, ou no ChatGPT, que ajusta respostas conforme o perfil do usuário.
Essa familiaridade da IA com nossos hábitos digitais está longe de ser uma coincidência. Cada clique, busca, reação e tempo de tela fornecem dados comportamentais que treinam continuamente modelos preditivos. Ao sugerir produtos, notícias ou vídeos que retêm nossa atenção por mais tempo, essas inteligências ampliam não só sua precisão, como também a previsibilidade do indivíduo enquanto consumidor.
No entanto, essa inovação levanta preocupações. Para Stachl, apesar do potencial positivo de modelos como o Centaur para aplicações sociais, como melhoria em diagnósticos médicos ou intervenções educativas, há um risco crescente de que a IA torne os indivíduos mais previsíveis e vulneráveis à manipulação digital.
O conceito de “escravidão digital” é citado pelo pesquisador como uma metáfora para o futuro possível no qual nossas decisões sejam tão antecipáveis que perderemos o controle da autonomia individual, especialmente se decisões forem moldadas de forma invisível pelas sugestões automatizadas baseadas em previsões de IA.
Essa previsão de comportamento também toca o campo da ética e da legislação. À medida que essas tecnologias se tornam mais sofisticadas, a fronteira entre sugestão e manipulação começa a se borrar. O risco não está apenas em prever ações, mas em induzi-las de forma imperceptível, moldando decisões de consumo, opinião política e comportamento social.
“Essa é uma discussão que vai além da ciência: envolve juristas, formuladores de políticas públicas e toda a sociedade”, adverte Stachl. A proteção contra a manipulação algorítmica e a definição de limites para a previsibilidade comportamental são temas que devem ganhar força nos próximos anos, especialmente conforme os modelos de IA forem integrados a esferas sensíveis da vida pública e privada.
