Quando o ChatGPT 3.5 surgiu, em novembro de 2022, houve uma corrida para experimentar um novo tipo de Inteligência Artificial (IA), capaz de interagir connosco de forma muito natural. Antes, a IA permanecia oculta, nos bastidores. De repente, saltou para os nossos olhos. Em apenas dois meses, o ChatGPT alcançou 100 milhões de utilizadores, tornando-se uma das tecnologias de crescimento mais acelerado da história.
Há quem diga que ainda é cedo para afirmar que tudo não passou de outro “hype”, mas o comportamento das grandes empresas de tecnologia, ao apostarem fortemente no segmento, parece indicar que estamos no início de uma revolução liderada pela Inteligência Artificial. Se este movimento veio realmente para ficar, surge uma questão: qual será o consumo de energia deste novo mundo digital?
A resposta não é simples. Tanto a Inteligência Artificial como os humanos conseguem, no máximo, estimativas aproximadas. Por exemplo, sabe-se que o gasto energético dos centros de dados, ou seja, os locais onde os dados são processados e armazenados, representa atualmente algo entre 1% e 1,5% do consumo mundial de energia, de acordo com a Agência Internacional de Energia (IEA). Já Alex de Vries, doutorando na Vrije Universiteit Amsterdam, usou cálculos sobre o consumo energético dos criptoativos para estimar que a Inteligência Artificial representará até 0,5% da energia consumida no mundo até 2027.
O problema é que a Inteligência Artificial não pode ser descrita como uma tecnologia única. O que está na vanguarda é a IA generativa, treinada e executada a partir de grandes modelos de aprendizagem profunda, os LLMs (Large Language Models). Assim como noutros tipos de IA, o consumo de energia dos LLMs varia consoante o tipo de instrução, a frequência de utilização, o tipo de hardware e as aplicações de software.
Por exemplo, as versões mais simples de Inteligência Artificial generativa limitavam-se a comandos de texto que resultavam em textos. As mais recentes incluem entradas de áudio e vídeo, produzindo também áudio e vídeo, com resoluções cada vez maiores. Quanto mais complexos forem estes elementos, maior será o consumo energético. A mesma lógica aplica-se às possíveis aplicações da Inteligência Artificial.
Uma pergunta simples, sobre algo já treinado pelos modelos de IA, resultará numa tarefa computacional menos exigente.
Por outro lado, pedir a um robô equipado com computação visual para interagir com o ambiente físico envolvente exigirá um consumo energético muito superior. E nem precisamos de ir tão longe.
Uma simples mudança na forma como procuramos informação na internet já faz muita diferença. A resposta do Gemini (IA do Google) consome muito mais energia do que os resultados apresentados pela tradicional barra de pesquisa.
Sob a ótica do hardware, há uma boa e uma má notícia, ambas relacionadas com uma única empresa: a NVIDIA.
Atualmente, esta é a líder absoluta em equipamentos para Inteligência Artificial, com mais de 90% do mercado. Isso significa que todas as grandes empresas tecnológicas que executam soluções de IA utilizam equipamentos da NVIDIA.
A boa notícia é que o modelo mais poderoso de chip, lançado recentemente, o Blackwell B200, é capaz de reduzir em até 30 vezes o consumo energético quando comparado com o modelo anterior. A má notícia é o quase monopólio da NVIDIA no setor. Nada contra o mérito da empresa, que soube antecipar-se e investir no segmento, tornando-se a terceira companhia mais valiosa do mundo. No entanto, a falta de concorrência pode retardar o aparecimento de soluções energeticamente ainda mais eficientes. Mesmo agora, com as atenções voltadas para a Inteligência Artificial, se outras empresas investirem no desenvolvimento de novos equipamentos, os resultados não surgirão de um momento para o outro.
Outro aspeto que deve ser considerado no consumo energético da Inteligência Artificial é a fonte de energia utilizada. No local de origem, nas empresas que fornecem IA, uma coisa é um modelo alimentado por centrais termoelétricas a combustível fóssil, outra é um modelo sustentado por energia solar. O mesmo se aplica a quem consome IA. Sabe qual é a origem da energia que chega à sua casa ou ao seu local de trabalho? Vale lembrar que muitas das grandes empresas tecnológicas já se comprometeram com indicadores de sustentabilidade, prometendo emissões neutras de carbono ainda nesta década. No entanto, esses compromissos foram assumidos com base no modelo anterior de computação. Com a transição para a IA, será necessário refazer os cálculos.
Existe ainda um fator ambiental diretamente relacionado com a manutenção dos computadores responsáveis pela Inteligência Artificial: a água. Bilhões de litros de água doce são utilizados anualmente para manter os computadores refrigerados.
O consumo, segundo a Escola de Meio Ambiente de Yale, tem aumentado nos últimos anos.
Olhando para o futuro, o impacto energético da Inteligência Artificial também dependerá de grandes cenários, considerando não apenas os avanços tecnológicos, mas também o comportamento da sociedade, das empresas e dos governos. No cenário mais pessimista, assistiremos a um aumento do uso desta tecnologia, acumulando-se aos padrões energéticos já existentes e agravando o consumo global.
Por outro lado, num cenário mais otimista, em vez de apenas adicionar consumo, a Inteligência Artificial substituiria parte da economia que hoje é altamente emissora de carbono, auxiliando na transição energética.
Em qualquer uma destas possibilidades, é muito provável que a evolução da Inteligência Artificial a torne ainda mais atrativa. A face visível da IA será cada vez mais poderosa, imersiva e humanizada. Poderá surgir sob a forma de novos dispositivos, como o AI Pin ou o Rabbit R1, ou até de um robô humanóide como o Figure 1. Mas é nos bastidores que devemos concentrar a nossa atenção. O motor da Inteligência Artificial está e permanecerá oculto nos centros de dados e nas nuvens computacionais, chegando até nós de forma invisível, através do Wi-Fi ou do 6G. Precisamos de exigir das empresas de tecnologia transparência relativamente ao consumo energético da Inteligência Artificial. E devemos ter consciência de que, ao pouparmos energia humana, através da realização de tarefas pela IA, estamos simultaneamente a consumir a energia finita disponível no nosso planeta.