Pesquisadores da Universidade de Stanford e da Google DeepMind apresentaram um estudo sobre o avanço na criação de agentes generativos capazes de simular comportamentos e atitudes de pessoas reais.
O estudo, de novembro de 2024, contou com a participação de 1.052 voluntários, recrutados com base em critérios como idade, gênero, região, nível educacional e ideologia política, formando uma amostra representativa da população dos Estados Unidos.
Cada participante realizou uma entrevista de duas horas conduzida por um entrevistador de IA, que coletou informações sobre suas experiências, valores e opiniões. Os agentes generativos foram treinados com os dados das entrevistas para replicar as respostas dos participantes em diversos testes, como o General Social Survey (GSS) e o Big Five Personality Inventory.
Segundo os pesquisadores, os resultados mostraram que os agentes conseguiram reproduzir as respostas com 85% de precisão, comparável à consistência das próprias pessoas ao refazer os mesmos testes duas semanas depois.
“Se pudermos ter pequenas versões de ‘você’ tomando decisões que você tomaria, isso representa o futuro,” afirma Joon Sung Park, principal autor do estudo.
A tecnologia foi projetada para auxiliar pesquisas em ciências sociais, permitindo simular reações humanas em situações variadas, como políticas públicas, lançamentos de produtos e mudanças sociais.
Os agentes também foram testados em jogos econômicos, como o jogo do ditador, e em experimentos que exploram comportamento humano, mantendo alto nível de precisão.
De acordo com o estudo, a utilização de entrevistas qualitativas foi fundamental para capturar detalhes únicos das personalidades. Esse método se mostrou mais eficaz do que outras abordagens baseadas em dados demográficos ou perfis resumidos, reduzindo enviesamentos e estereótipos presentes em modelos anteriores.
Apesar do avanço, os autores destacaram os riscos éticos associados à tecnologia, como o uso não autorizado para criar perfis falsos ou manipular informações. Para minimizar esses riscos, foram implementadas medidas de proteção de dados e os participantes tiveram a opção de retirar suas informações do estudo a qualquer momento.
O estudo também apresentou um sistema de acesso restrito às informações coletadas. Dados agregados estão disponíveis para pesquisas gerais, enquanto o acesso a dados individuais é limitado a projetos que passam por revisão ética. Esse modelo visa preservar a privacidade dos participantes e garantir o uso ético dos agentes generativos, oferecendo maior controle sobre a disseminação das informações.
Com esses avanços, os pesquisadores acreditam que a tecnologia tem potencial para transformar o campo das ciências sociais, oferecendo uma nova ferramenta para estudar comportamentos individuais e coletivos.
O projeto também abre caminho para aplicações futuras em outras áreas, como psicologia, economia e educação. O trabalho foi descrito em artigo publicado no arXiv, plataforma de disseminação de pesquisas científicas.
Além disso, avanços na integração dessas tecnologias podem permitir estudos mais aprofundados sobre interações sociais e dinâmicas de grupo, trazendo novas perspectivas para o entendimento do comportamento humano.