Deixados por conta própria, um exército de personagens de IA não apenas sobreviveu — mas prosperou. Eles desenvolveram empregos dentro do jogo, compartilharam memes, votaram em reformas fiscais e até espalharam uma religião.
A experiência aconteceu na plataforma do jogo de mundo aberto Minecraft, onde até 1000 agentes de software usaram LLMs, ao mesmo tempo, para interagir uns com os outros. Apenas com um empurrão, por meio de comandos de texto, eles desenvolveram uma impressionante gama de traços de personalidade, preferências e papéis especializados, sem nenhum outro input dos seus criadores humanos.
O trabalho, da start-up de IA Altera, faz parte de um campo mais amplo que visa usar agentes simulados para modelar como grupos humanos reagiriam a novas políticas económicas ou outras intervenções.
Mas para o fundador da Altera, Robert Yang, que deixou o seu cargo de professor assistente em neurociência computacional no MIT para começar a empresa, esta demonstração é apenas o começo. Ele vê isto como um primeiro passo rumo a “civilizações de IA” em grande escala, capazes de coexistir e trabalhar ao lado de nós em espaços digitais. “O verdadeiro poder da IA será revelado quando tivermos agentes realmente autónomos que possam colaborar em grande escala”, diz Yang.
Yang inspirou-se no investigador da Universidade de Stanford, Joon Sung Park, que, em 2023, descobriu que comportamentos surpreendentemente humanos surgiram, quando um grupo de 25 agentes autónomos de IA foi deixado à solta para interagir num mundo digital simples.
“Assim que o artigo dele foi publicado, começámos a trabalhar nele na semana seguinte,” diz Yang. “Eu deixei o MIT seis meses depois disso.”
Yang queria levar a ideia ao seu extremo. “Queríamos levar ao limite o que os agentes poderiam fazer em grupos de forma autónoma.”
A Altera angariou rapidamente mais de 11 milhões de dólares em financiamento de investidores, incluindo a A16Z e a firma de capital de risco de tecnologias emergentes do ex-CEO do Google, Eric Schmidt. No início deste ano, a Altera lançou sua primeira demonstração: uma personagem controlada por IA no Minecraft, que joga ao lado do utilizador.
A nova experiência da Altera, o Project Sid, usa agentes de IA simulados equipados com “cérebros” compostos por múltiplos módulos. Alguns módulos são desenvolvidos por LLMs e projetados para se especializarem em certas tarefas, como reagir a outros agentes, falar ou planear o próximo movimento do agente.
A equipa começou com um número reduzido, testando grupos de cerca de 50 agentes no Minecraft para observar suas interações. Ao longo de 12 dias no jogo (equivalentes a 4 horas no mundo real), os agentes começaram a exibir alguns comportamentos emergentes interessantes. Por exemplo, alguns tornaram-se muito sociáveis e estabeleceram muitas relações com outras personagens, enquanto outras pareceram mais introvertidos. A “classificação de simpatia” de cada agente (medida pelos próprios agentes) mudou com o tempo à medida que as interações continuavam. Os agentes foram capazes de identificar estas pistas sociais e reagir a elas: Num caso, um chefe de cozinha de IA, encarregado de distribuir comida para os famintos, deu mais comida aos que ele sentia que o valorizavam mais.
Mais comportamentos humanos surgiram numa simulação com 30 agentes. Apesar de todos os agentes terem começado com a mesma personalidade e o mesmo objetivo geral — criar uma aldeia eficiente e proteger a comunidade contra ataques de outras criaturas do jogo —, eles desenvolveram espontaneamente papéis especializados dentro da comunidade, sem qualquer tipo de orientação. Eles diversificaram-se em funções como construtor, defensor, comerciante e explorador. Assim que um agente começou a especializar-se, as suas ações no jogo passaram a refletir o seu novo papel. Por exemplo, um artista passou mais tempo a colher flores, os agricultores colheram sementes e os guardas construíram mais cercas.
“Ficámos surpreendidos ao ver que, se for colocado o tipo certo de cérebro, eles podem ter comportamentos realmente emergentes,” diz Yang. “Isso é algo que esperamos dos humanos, mas não estamos à espera de que as máquinas o tenham.”
A equipa de Yang também testou se os agentes conseguiam seguir regras comunitárias. A equipa introduziu um mundo com leis fiscais básicas e permitiu que os agentes votassem em mudanças no sistema de tributação do jogo. Os agentes incentivados a serem a favor ou contra os impostos conseguiram influenciar o comportamento dos outros agentes ao seu redor, a ponto de votarem para reduzir ou aumentar os impostos, dependendo de com quem interagiram.
A equipa aumentou a escala, levando o número de agentes em cada simulação ao máximo que o servidor do Minecraft poderia suportar sem falhas, chegando até a 1000 agentes de uma vez, em alguns casos. Numa simulação de 500 agentes da Altera, observou-se como os agentes criaram e espalharam memes culturais (como uma preferência por pregar partidas ou o interesse em questões ambientais) entre os seus colegas agentes, de forma espontânea. A equipa também semeou um pequeno grupo de agentes para tentar espalhar a religião (paródia), o Pastafarianismo, por diferentes vilas e áreas rurais do mundo do jogo, e observou como sacerdotes Pastafarianos converteram muitos dos agentes com os quais interagiram. Os convertidos passaram a espalhar o Pastafarianismo (a palavra da Igreja do Monstro de Esparguete Voador) para vilas vizinhas no mundo do jogo.
A forma como os agentes agiram pode parecer assustadoramente realista, mas o seu comportamento combina padrões aprendidos pelos LLMs a partir de dados criados por humanos com o sistema da Altera, que traduz esses padrões em ações conscientes do contexto, como pegar numa ferramenta ou interagir com outros agentes. “A conclusão é que os LLMs têm um modelo suficientemente sofisticado das dinâmicas sociais humanas [para] refletir estes comportamentos humanos,” diz Andrew Ahn, cofundador da Altera.
Por outras palavras, os dados fazem com que eles sejam excelentes imitadores do comportamento humano, mas eles não estão de forma alguma “vivos”.
Mas Yang tem planos mais ambiciosos. Enquanto a Altera planeia, de seguida, expandir-se para o Roblox, Yang espera eventualmente ultrapassar os mundos dos jogos. O seu objetivo final é um mundo em que os humanos não se limitem a jogar ao lado das personagens de IA, mas que também interajam com elas no dia-a-dia. O seu sonho é criar um grande número de “humanos digitais” que realmente se importem connosco e trabalhem connosco para nos ajudar a resolver problemas, bem como para nos entreter. “Queremos construir agentes que realmente possam amar os humanos (como os cães amam os humanos, por exemplo),” diz ele.
Este ponto de vista — de que a IA nos poderia amar — é bastante controverso no campo, com muitos especialistas defenderem que não é possível recriar emoções em máquinas utilizando as técnicas atuais. O veterano de IA Julian Togelius, por exemplo, que dirige a empresa de testes de jogos Modl.ai, diz que gosta do trabalho da Altera, especialmente porque permite estudar o comportamento humano em simulação.
Mas poderiam estes agentes simulados algum dia aprender a importar-se connosco, a amar-nos ou a tornar-se autoconscientes? Togelius acha que não. “Não há razão para acreditar que uma rede neural rodada numa GPU algures experiencie algo de todo,” diz ele.
Mas talvez a IA não precise de nos amar de verdade para ser útil.
“Se a questão for se um destes seres simulados poderia parecer importar-se, e fazer isso de forma tão habilidosa que teria o mesmo valor para alguém como ser cuidado por um humano, isso talvez não seja impossível,” acrescenta Togelius. “É possível criar uma simulação de cuidados boa o suficiente para ser útil. A questão é se a pessoa que está a ser cuidada se importaria com o facto de o prestador de cuidados não ter experiências.”
Por outras palavras, enquanto as nossas personagens de IA parecerem importar-se connosco de uma forma convincente, isso pode ser tudo o que realmente nos importa.
Update: Demos mais pormenores sobre a forma como o sistema da Altera combina LLMs com outros módulos.