Precisamos de enfrentar as questões éticas dos agentes de IA
Inteligência Artificial

Precisamos de enfrentar as questões éticas dos agentes de IA

A IA poderá, em breve, não apenas imitar as nossas personalidades, mas agir em nosso nome. Antes que isso aconteça, há questões cruciais que temos de resolver.

Os modelos de IA generativa têm se destacado a falar connosco e a criar imagens, vídeos e músicas para nós, mas ainda não são muito bons a fazer coisas por nós. Os agentes de IA prometem mudar isso. Pense neles como modelos de IA com um guião e um propósito. Eles tendem a ser representados numa de duas formas.

O primeiro, designado por agentes baseados em ferramentas, que pode ser treinado com o uso de linguagem humana natural (em vez de codificação) para realizar tarefas digitais por nós. A Antrophic lançou um destes em outubro, o primeiro de um grande fabricante de modelos de IA- que pode traduzir instruções (“Preencha este formulário para mim”) em ações no computador, movendo o cursor para abrir um navegador web, navegando para encontrar dados em páginas relevantes e preenchendo um formulário utilizando esses dados. A Salesforce também lançou o seu próprio agente e a OpenAI planeia lançar um em janeiro.

O outro tipo é designado como agentes de simulação. Pode pensar neles como modelos de IA projetados para se comportar como humanos. As primeiras pessoas a trabalhar na criação destes agentes foram investigadores de Ciências Sociais. Os investigadores queriam conduzir estudos que seriam caros, pouco práticos ou pouco éticos com pessoas reais, pelo que utilizaram a IA para simular os sujeitos. Esta tendência foi particularmente acentuada com a publicação de um artigo, muito citado, de 2023, liderado por Joon Sung Park, um candidato a doutoramento em Stanford, e outros colegas, chamado “Generative Agents: Interactive Simulacra of Human Behavior”.

Recentemente, Park e sua equipa publicaram outro estudo no arXiv intitulado de “Generative Agent Simulations of 1.000 People”. Neste trabalho, os investigadores conduziram entrevistas de duas horas com 1.000 pessoas utilizando IA. Pouco tempo depois, a equipa conseguiu criar agentes simulados que replicavam os valores e preferências de cada participante com uma precisão impressionante.

Há aqui dois desenvolvimentos realmente importantes. Em primeiro lugar, é evidente que as principais empresas de IA pensam que não é suficiente criar ferramentas de IA generativa impressionantes; agora têm de desenvolver agentes capazes de realizar tarefas pelas pessoas. Em segundo lugar, está a tornar-se mais fácil do que nunca fazer com que esses agentes de IA imitem comportamentos, atitudes e personalidades de pessoas reais. O que antes eram dois tipos distintos de agentes — agentes de simulação e agentes baseados em ferramentas — poderão em breve tornar-se numa coisa só: modelos de IA que podem não só imitar a sua personalidade, mas também agir em seu nome.

A investigação sobre este tema está em curso. Empresas como a Tavus estão a trabalhar arduamente para ajudar os utilizadores a criar “gémeos digitais” de si mesmos. No entanto, o CEO da empresa, Hassaan Raza, planeia ir mais além, desenvolvendo agentes de IA que possam assumir a forma de terapeutas, médicos e professores.

Se essas ferramentas se tornarem baratas e fáceis de criar, surgirão muitas novas preocupações éticas, mas duas, em particular, se destacam. A primeira é que estes agentes poderiam gerar deepfakes ainda mais pessoais e potencialmente mais prejudiciais. Ferramentas de geração de imagens já tornaram simples a criação de pornografia não consensual usando apenas uma imagem de uma pessoa, e esta crise só vai intensificar-se, se for fácil replicar também a voz, as preferências e a personalidade de alguém. (Park disse-se que ele e a sua equipa passaram mais de um ano a lidar com questões éticas como esta no seu último projeto de investigação, envolvendo muitas conversas com o conselho de ética de Stanford e elaborando políticas sobre a forma como os participantes poderiam retirar os seus dados e contribuições.)

A segunda é a questão fundamental de saber se merecemos saber se estamos a falar com um agente de IA ou com um humano. Se participar numa entrevista com IA e enviar amostras da sua voz para criar um agente que soe e responda como você, os seus amigos ou colegas de trabalho têm o direito de saber quando estão a falar com ele e não consigo? Por outro lado, se ligar para a sua operadora, ou para o consultório do seu médico e um agente de atendimento ao cliente animado atender, tem o direito de saber se está a falar com IA?

Este futuro parece distante, mas não é. É possível que, quando chegarmos lá, surjam questões éticas ainda mais urgentes e pertinentes. Entretanto, leia mais sobre o meu artigo sobre agentes de IA aqui, e pondere quão bem um entrevistador de IA o poderia conhecer em duas horas.

Nossos tópicos