Tenho experimentado utilizar assistentes de IA no meu trabalho diário. O maior obstáculo à sua utilidade é o facto de muitas vezes se enganarem redondamente. Num caso, utilizei uma plataforma de transcrição de IA enquanto entrevistava alguém sobre uma deficiência física, mas o resumo da IA insistiu que a conversa era sobre autismo. É um exemplo do problema de “alucinação” da IA, em que grandes modelos linguísticos simplesmente inventam coisas.
Recentemente, assistimos a algumas falhas de IA numa escala muito maior. Na última gafe (hilariante), o Gemini da Google recusou-se a gerar imagens de pessoas brancas, especialmente de homens brancos. Em vez disso, os utilizadores conseguiram gerar imagens de papas negros e de mulheres soldados nazis. A Google estava a tentar que os resultados do seu modelo fossem menos tendenciosos, mas o tiro saiu pela culatra e a empresa tecnológica viu-se rapidamente no meio das guerras culturais dos EUA, com os críticos conservadores e Elon Musk a acusarem-na de ter um preconceito “woke” e de não representar a história com precisão. A Google pediu desculpa e suspendeu a funcionalidade.
Outro incidente famoso foi o facto de o chat do Bing da Microsoft ter dito a um jornalista do New York Times para deixar a sua mulher. E os chatbots de atendimento ao cliente continuam a meter as suas empresas em todo o tipo de problemas. Por exemplo, a Air Canada foi recentemente forçada a reembolsar um cliente em conformidade com uma política que o seu chatbot de apoio ao cliente tinha inventado. A lista continua.
As empresas de tecnologia estão a apressar o lançamento de produtos alimentados por IA, apesar de existirem muitas provas de que são difíceis de controlar e que, muitas vezes, se comportam de forma imprevisível. Este comportamento estranho acontece porque ninguém sabe exatamente como – ou porquê – funciona a aprendizagem profunda, a tecnologia fundamental por detrás do atual boom da IA. É um dos maiores quebra-cabeças da IA. O meu colega Will Douglas Heaven acaba de publicar um artigo em que se debruça sobre o assunto.
O maior mistério é saber como é que modelos linguísticos de grande dimensão, como o Gemini e o GPT-4 da OpenAI, conseguem aprender a fazer algo para o qual não foram ensinados. Podemos treinar um modelo linguístico com problemas de matemática em inglês e depois mostrar-lhe literatura francesa e, a partir daí, ele pode aprender a resolver problemas de matemática em francês. Estas capacidades vão contra a estatística clássica, que fornece o nosso melhor conjunto de explicações sobre o comportamento dos modelos de previsão, escreve Will. Ler mais aqui.
É fácil confundir as percepções resultantes da nossa ignorância com magia. Até o nome da tecnologia, inteligência artificial, é tragicamente enganador. Os modelos linguísticos parecem inteligentes porque geram prosa semelhante à humana ao preverem a palavra seguinte numa frase. A tecnologia não é verdadeiramente inteligente, e chamar-lhe isso altera subtilmente as nossas expectativas para que a tratemos como mais capaz do que realmente é.
Não caia na armadilha do marketing do sector tecnológico, acreditando que estes modelos são omniscientes ou factuais, ou mesmo quase prontos para as tarefas que esperamos que façam. Devido à sua imprevisibilidade, às suas tendências descontroladas, às vulnerabilidades de segurança e à propensão para inventar coisas, a sua utilidade é extremamente limitada. Podem ajudar os humanos a fazer brainstorming e podem entreter-nos. Mas, sabendo como estes modelos são instáveis e propensos a falhas, provavelmente não é boa ideia confiar-lhes os detalhes do seu cartão de crédito, as suas informações sensíveis ou quaisquer casos de utilização crítica.
Como dizem os cientistas no artigo de Will, ainda é cedo no domínio da investigação em IA. De acordo com Boaz Barak, um cientista informático da Universidade de Harvard que está atualmente destacado na equipa de superalinhamento da OpenAI, muitas pessoas neste campo comparam-no com a física no início do século XX, quando Einstein criou a teoria da relatividade.
Atualmente, o foco do campo é a forma como os modelos produzem as coisas que fazem, mas é necessária mais investigação sobre as razões pelas quais o fazem. Até compreendermos melhor as entranhas da IA, é de esperar mais erros estranhos e muito entusiasmo, que a tecnologia não conseguirá inevitavelmente corresponder.