Alguns temem que a conversa sobre essas ferramentas esteja a fazer um desserviço a todo o campo.
No início de maio, a DeepMind apresentou um novo modelo de IA “generalista” chamado Gato. O modelo pode jogar jogos de Atari, legendar imagens, conversar e empilhar blocos com um braço robótico real, anunciou o laboratório de IA da Alphabet. Ao todo, o Gato pode fazer 604 tarefas diferentes.
Mas embora o modelo Gato seja inegavelmente fascinante, na semana seguinte ao seu lançamento, alguns investigadores ficaram um pouco entusiasmados demais.
Um dos principais investigadores da DeepMind e coautor do artigo de Gato, Nando de Freitas, não conseguiu conter o seu entusiasmo. “O jogo acabou!”, escreveu no seu Twitter, sugerindo que agora existe um caminho claro de Gato para Inteligência Geral Artificial, ou AGI, pela sigla em inglês, um conceito vago de Inteligência Artificial (IA) de nível humano ou sobre-humano. A maneira de construir AGI, afirmou, é principalmente uma questão de escala: fazer modelos como o Gato maiores e melhores. Como era de se esperar, o anúncio de Freitas desencadeou uma cobertura exagerada da imprensa onde alegava-se que a DeepMind estava “à beira” de alcançar a inteligência artificial de nível humano. Esta não é a primeira vez que o entusiasmo supera a realidade. Outros novos e empolgantes modelos de IA, como o gerador de texto GPT-3 da OpenAI e o gerador de imagens DALL-E, geraram reivindicações igualmente grandiosas. Para muitos no campo, esse tipo de discurso febril ofusca outras áreas importantes de pesquisa em IA.
Isso é uma pena, porque Gato é mesmo um passo interessante. Alguns modelos começaram a misturar habilidades diferentes: o DALL-E, por exemplo, gera imagens a partir de descrições de texto. Outros usam uma única técnica de formação para aprender a reconhecer imagens e frases. E o AlphaZero da DeepMind aprendeu a jogar Go, xadrez e shogi.
Mas esta é a diferença crucial: AlphaZero só poderia aprender uma tarefa por vez. Depois de aprender a jogar Go, teve que esquecer tudo antes de aprender a jogar xadrez, e assim por diante. Não poderia aprender a jogar os dois jogos ao mesmo tempo. É isso que Gato faz: aprende várias tarefas diferentes ao mesmo tempo, o que significa que pode alternar entre elas sem ter que esquecer uma habilidade antes de aprender outra. É um pequeno avanço, mas significativo.
A desvantagem é que Gato não executa as tarefas tão bem quanto modelos que só podem fazer uma coisa. Os robôs ainda precisam aprender o “senso comum” sobre como o mundo funciona a partir do texto, diz Jacob Andreas, professor assistente do MIT especializado em Inteligência Artificial, linguagem natural e processamento de fala.
Isso pode ser útil em robôs que podem ajudar as pessoas em casa, por exemplo. “Quando coloca [um robô] numa cozinha e pede que façam uma xícara de chá pela primeira vez, sabem quais etapas estão envolvidas na preparação do chá e onde os sachês de chá provavelmente estarão”, diz Andreas.
No entanto, alguns investigadores externos se opuseram explicitamente ao que Freitas publicou. “Isso está longe de ser ‘inteligente’”, afirma Gary Marcus, investigador de IA que tem criticado o deep learning. A entusiasmo em torno de Gato demonstra que o campo da IA é prejudicado por uma inútil “cultura triunfalista”, afirma.
Os modelos de deep learning que geralmente geram mais entusiasmo sobre o potencial de alcançar a inteligência em nível humano cometem erros que “se um humano cometesse esses erros, você ficaria a pensar ‘tem algo de errado com essa pessoa’”, diz Marcus.
“A natureza está a tentar dizer nos que algo realmente não funciona, mas o campo acredita tanto nos seus próprios recortes de matérias nos jornais que simplesmente não consegue ver isso”, acrescenta.
Até os colegas de Freitas da DeepMind, Jackie Kay e Scott Reed, que trabalharam com ele em Gato, foram mais cautelosos quando perguntados diretamente sobre as suas alegações. Quando questionados se Gato estava na direção da AGI, não quiseram arriscar. “Na verdade, não acho que seja realmente viável fazer previsões com esse tipo de coisa. Eu tento evitar isso. É como prever o mercado de ações”, disse Kay.
Reed disse que a pergunta era difícil: “Acho que a maioria das pessoas que trabalham com machine learning evitarão cuidadosamente responder. Muito difícil de prever, mas, quem sabe, espero que cheguemos lá algum dia”.
De certa forma, o fato de a DeepMind ter chamado Gato de “generalista” pode tê-lo tornado vítima do entusiasmo exagerado do setor de IA em torno da AGI. Os sistemas de IA de hoje são chamados de “limitados”, o que significa que só podem executar um conjunto específico e restrito de tarefas, como gerar texto.
Alguns tecnólogos, incluindo alguns da DeepMind, pensam que um dia os humanos desenvolverão sistemas de IA “mais abrangentes” que poderão funcionar tão bem ou até melhor que os humanos. Embora alguns chamem isso de inteligência artificial geral, outros dizem que é como “acreditar em magia”. Muitos investigadores importantes, como o cientista-chefe de IA da Meta, Yann LeCun, questionam até se isso é possível.
Gato é um “generalista” no sentido de que pode fazer muitas coisas diferentes ao mesmo tempo. Mas esse é um mundo à parte de uma IA “geral” que pode se adaptar significativamente a novas tarefas que são diferentes daquelas em que o modelo foi treinado, diz Andreas, do MIT: “Ainda estamos muito longe de conseguir fazer isso”.
Tornar os modelos maiores também não resolverá a questão de que os modelos não têm “lifelong learning”, o que significaria que, se ensinado algo uma vez, eles entenderiam todas as implicações e usariam para informar todas as outras decisões que tomam, refere.
A entusiasmo em torno de ferramentas como Gato é prejudicial para o desenvolvimento geral da IA, argumenta Emmanuel Kahembwe, investigador de IA e robótica e parte da organização Black in AI, cofundada por Timnit Gebru. “Há muitos tópicos interessantes que são deixados de lado, que são subfinanciados, que merecem mais atenção, mas não é nisso que as grandes empresas de tecnologia e a maior parte dos investigadores dessas empresas de tecnologia estão interessadas”, diz ele.
As empresas de tecnologia devem dar um passo atrás e fazer um balanço do motivo pelo qual estão a construir o que estão a construir, diz Vilas Dhar, presidente da Patrick J. McGovern Foundation, uma instituição de caridade que financia projetos de IA “para o bem”.
“AGI fala com algo profundamente humano: a ideia de que podemos nos tornar mais do que somos, construindo ferramentas que nos impulsionam à grandeza”, afirma. “E isso é muito bom, exceto que também é uma maneira de nos distrair do fato de que temos problemas reais que enfrentamos hoje que deveríamos tentar resolver usando IA”.