Imagine sentar-se com um modelo de IA para uma entrevista de duas horas. Uma voz amigável guia-o através de uma conversa que vai desde a sua infância, as suas memórias formativas e a sua carreira até às suas ideias sobre a política de imigração. Pouco tempo depois, uma réplica virtual de si é capaz de incorporar os seus valores e preferências com uma precisão incrível.
Isso já é possível, de acordo com um novo artigo publicado no arXiv por uma equipa de investigadores de Stanford e da Google DeepMind.
Liderada por Joon Sung Park, um estudante de doutoramento em ciências informáticas de Stanford, a equipa recrutou 1.000 participantes com idades, género, raça, região, educação e ideologia política diferentes. Foram-lhes pagos até 100 dólares pela sua participação.
A partir das entrevistas com os participantes, a equipa criou réplicas de agentes desses indivíduos. Para testar o quão bem os agentes mimicavam os seus homólogos humanos, os participantes fizeram uma série de testes de personalidade, inquéritos sociais e jogos de lógica, duas vezes cada, com duas semanas de intervalo; depois, os agentes fizeram os mesmos exercícios. Os resultados foram 85% semelhantes.
“Se puder ter pequenas versões de ‘si’ a circular e a tomar as decisões que teria tomado, penso que esse será, em última análise, o futuro”, afirma Park.
Agentes de simulação: uma nova ferramenta para pesquisa
Em papel, as réplicas, chamadas de agentes de simulação, foram criadas para facilitar os estudos em ciências sociais e outras áreas, reduzindo custos, dificuldades práticas e dilemas éticos do uso de sujeitos humanos. A ideia é que os modelos de IA que imitam pessoas reais possam ser usados para testar intervenções em redes sociais contra a desinformação ou entender os comportamentos que geram engarrafamentos, por exemplo.
Estes agentes de simulação diferem dos “agentes baseados em ferramentas” que grandes empresas de IA têm desenvolvido. Agentes baseados em ferramentas são projetados para fazer coisas por si, não para conversar consigo. Por exemplo, podem inserir dados, recolher informação que tenha armazenado algures ou, eventualmente, reservar viagens para si e marcar compromissos. A Salesforce anunciou os seus próprios agentes baseados em ferramentas em setembro, seguida pela Anthropic em outubro, e a OpenAI está a planear lançar alguns em janeiro, de acordo com a Bloomberg.
Os dois tipos de agentes são diferentes, mas têm pontos em comum. A investigação sobre agentes de simulação, como os deste artigo, é suscetível de conduzir a agentes de IA mais fortes em geral, afirma John Horton, um professor associado de tecnologias da informação na MIT Sloan School of Management, que fundou uma empresa para conduzir investigações, utilizando participantes simulados por IA.
“Este artigo mostra como se pode fazer uma espécie de híbrido: utilizar seres humanos reais para gerar personas que podem depois ser utilizadas de forma programática/ em simulação de formas que não seriam possíveis com sere humanos reais”, afirmou por e-mail à MIT Technology Review.
Cuidados e desafios éticos
A investigação tem algumas ressalvas, entre as quais o perigo que aponta. Tal como a tecnologia de geração de imagens facilitou a criação de deepfakes prejudiciais de pessoas sem o seu consentimento, qualquer tecnologia de geração de agentes levanta questões sobre a facilidade com que as pessoas podem construir ferramentas para personificar outras pessoas online, a dizer ou a autorizar coisas que não tencionavam dizer.
Os métodos de avaliação que a equipa utilizou para testar quão bem os agentes de IA reproduziam os seus correspondentes humanos também eram bastante básicos. Incluíam o Inquérito Social Geral – que recolhe informações sobre dados demográficos, sobre a felicidade, sobre comportamentos e muito mais – e avaliações dos cinco grandes traços de personalidade: a abertura à experiência, a consciência moral, a extroversão, a agradabilidade e o neuroticismo. Estes testes são comummente utilizados na investigação em ciências sociais, mas não pretendem captar todos os pormenores únicos que nos tornam nós próprios. Os agentes de IA também foram piores a replicar os humanos em testes comportamentais como o “jogo do ditador”, que se destina a iluminar a forma como os participantes consideram valores como a justiça.
Captar singularidades humanas
Para construir agentes que replicassem personalidades de forma convincente, os investigadores precisaram de formas de destilar a nossa singularidade numa língua que os modelos de IA possam compreender. Escolheram usar entrevistas qualitativas. Park acredita que as entrevistas são o método mais eficiente de captar a essência de alguém. Ele baseou esta abordagem na sua experiência em podcasts, após um artigo de 2023 sobre agentes generativos que gerou um grande interesse na área. “Eu fazia talvez uma entrevista de podcast de duas horas e, depois da entrevista, sentia-me como se as pessoas tivessem ficado a saber muito sobre mim,” diz ele. “Duas horas podem ser muito poderosas”.
Estas entrevistas também podem revelar detalhes únicos que dificilmente surgem em questionários. “Imagine alguém que superou um cancro no ano passado. Essa é uma informação muito única que diz muito sobre como essa pessoa pensa e age,” explica Park. Tais detalhes seriam difíceis de captar com perguntas padrão.
O futuro dos “gémeos digitais”
No entanto, as entrevistas não são a única opção. As empresas que se oferecem para criar “gémeos digitais” dos utilizadores, como a Tavus, podem fazer com que os seus modelos de IA ingiram os e-mails dos clientes ou outros dados. É necessário um conjunto de dados bastante grande para replicar a personalidade de alguém dessa forma, disse-me o diretor executivo da Tavus, Hassaan Raza, mas este novo artigo sugere um caminho mais eficiente.
“O que foi realmente interessante aqui é que eles mostram que talvez não seja necessária tanta informação”, diz Raza, acrescentando que a sua empresa vai experimentar a abordagem. “Que tal falar com um entrevistador de IA durante 30 minutos hoje e 30 minutos amanhã? E depois usamos isso para construir este gémeo digital de si”.
Com esse avanço, a IA aproxima-se ainda mais de captar e replicar a essência humana, mas exige um cuidado redobrado com os impactos éticos e sociais que podem surgir.