Há anos que empresas de tecnologia investem biliões de dólares em computação quântica. A esperança é que ela venha a ser um fator de mudança em setores como as finanças, a farmácia e a logística.
Essas expectativas têm sido especialmente altas nas áreas da física e química, onde os efeitos peculiares da mecânica quântica entram em ação. Em teoria, é aqui que a computação quântica teria uma enorme vantagem sobre as máquinas convencionais.
No entanto, enquanto o setor ainda enfrenta desafios com o hardware quântico, outro concorrente está a avançar em algumas dessas áreas promissoras. A IA começou a ser aplicada à física fundamental, à química e à ciência dos materiais, de uma forma que sugere que o terreno que se considera ser da computação quântica, talvez não esteja tão seguro.
A escala e a complexidade dos sistemas quânticos que podem ser simulados com IA estão a avançar rapidamente, afirma Giuseppe Carleo, um professor de física computacional no Instituto Federal de Tecnologia da Suíça (EPFL). No mês passado, ele coassinou um artigo publicado na revista Science mostrando que abordagens baseadas em redes neurais estão a tornar-se rapidamente a técnica mais usada para modelar materiais com propriedades quânticas intensas.
A Meta também apresentou recentemente um modelo de IA treinado num novo conjunto de dados massivos sobre materiais, que alcançou o topo do ranking de abordagens de aprendizagem automática para a descoberta de materiais.
Dado o ritmo dos avanços recentes, cada vez mais investigadores questionam se a IA pode resolver uma parte significativa dos problemas mais interessantes na química e na ciência dos materiais, antes que os computadores quânticos em grande escala se tornem realidade.
“A existência destes novos concorrentes em aprendizagem automática é um golpe sério para as potenciais utilidades da computação quântica,” diz Carleo. “Na minha opinião, estas empresas vão descobrir, mais cedo ou mais tarde, que os seus investimentos não se justificam.”
Problemas exponenciais
A promessa dos computadores quânticos está no potencial que têm para realizar certos cálculos, muito mais rapidamente, do que os computadores convencionais. Para concretizar esta promessa, no entanto, será necessário desenvolver processadores quânticos muito maiores do que os que temos hoje. Os maiores dispositivos atingiram recentemente o marco de mil qubits, mas alcançar uma vantagem incontestável sobre os computadores convencionais exigirá, provavelmente, dezenas de milhares, se não milhões de qubits. Quando este hardware estiver disponível, alguns algoritmos quânticos, como o algoritmo para a quebra de criptografia, Shor, poderão resolver problemas de maneira exponencialmente mais rápida do que os algoritmos clássicos.
Mas para muitos algoritmos quânticos com utilidades comerciais mais evidentes, como fazer buscas em bancos de dados, criar soluções para problemas de otimização ou impulsionar a Inteligência Artificial, a vantagem da velocidade é mais modesta. No ano passado, um artigo coescrito pelo chefe de computação quântica da Microsoft, Matthias Troyer, mostrou que essas vantagens teóricas desaparecem quando se leva em conta o facto de que o hardware quântico opera numa ordem de magnitude mais lenta do que os chips de computadores modernos. A dificuldade de inserir e extrair grandes quantidades de dados clássicos de um computador quântico também é um grande obstáculo.
Deste modo, Troyer e os seus colegas concluíram que os computadores quânticos deveriam, em vez disso, focar em problemas da química e da ciência dos Materiais que exigem simulações de sistemas onde os efeitos quânticos dominam. Um computador que opera segundo os mesmos princípios quânticos destes sistemas teria, em teoria, uma vantagem natural neste caso. De facto, esta foi uma ideia que motivou a Computação Quântica desde que o físico renomeado Richard Feynman, a propôs pela primeira vez.
As regras da mecânica quântica governam muitos elementos com um grande valor prático e comercial, como proteínas, medicamentos e materiais. As suas propriedades são determinadas pelas interações das partículas constituintes, especialmente os eletrões—e simular essas interações num computador, permitiria prever que tipo de características uma molécula irá apresentar. Isto poderia ser inestimável para a descoberta de novos medicamentos ou formulas mais eficientes para baterias, por exemplo.
Entretanto, as regras contraintuitivas da mecânica quântica—em especial, o fenómeno do emaranhamento, que permite que os estados quânticos de partículas distantes estejam intrinsecamente ligados—podem tornar estas interações extremamente complexas. Monitorizá-las de forma precisa requer cálculos complexos, que se tornam exponencialmente mais difíceis à medida que o número de partículas envolvidas aumenta. Isto pode tornar a simulações de grandes sistemas quânticos inviável em máquinas clássicas.
É aqui que os computadores quânticos poderiam destacar-se. Por também operarem com princípios quânticos, os computadores quânticos conseguem representar estados quânticos de maneira muito mais eficiente do que é possível com máquinas clássicas. Além disso, poderiam aproveitar os efeitos quânticos para acelerar os seus cálculos.
No entanto nem todos os sistemas quânticos são iguais. A complexidade dos mesmos é determinada pelo grau em que as suas partículas interagem ou se correlacionam entre si. Em sistemas onde estas interações são intensas, monitorizar todas estas relações pode rapidamente multiplicar o número de cálculos necessários para modelar o sistema. Mas na maioria dos sistemas de interesse prático para químicos e cientistas dos materiais, a correlação é fraca, afirma Carleo. Isso significa que as partículas não afetam significativamente o comportamento umas das outras, o que torna os sistemas bem mais simples de modelar.
O resultado, segundo Carleo, é que é improvável que os computadores quânticos ofereçam qualquer vantagem para a maioria dos problemas em química e ciência dos materiais. Já existem ferramentas clássicas que conseguem modelar sistemas fracamente correlacionados, sendo a mais proeminente a teoria do funcional da densidade (DFT). A ideia por trás da DFT é que basta conhecer a densidade eletrônica de um sistema—uma medida de como os eletrões estão distribuídos no espaço—para compreender as suas propriedades principais. Isto permite uma computação muito mais simples, mas ainda pode fornecer resultados precisos para sistemas fracamente correlacionados.
Simular grandes sistemas utilizando estas abordagens exige um poder computacional significativo. No entanto, nos últimos anos houve uma explosão de investigações a utilizar a DFT para gerar dados sobre químicos, biomoléculas e materiais—dados que podem ser usados para treinar redes neurais. Estes modelos de IA aprendem padrões nos dados que lhes permitem prever que propriedades uma determinada estrutura química provavelmente terá, mas são ordens de magnitude, mais baratos de rodar do que os cálculos convencionais de DFT.
Isto expandiu drasticamente o tamanho dos sistemas que podem ser modelados – para até 100.000 átomos de uma vez – e a duração das simulações, diz Alexandre Tkatchenko, um professor de física na Universidade de Luxemburgo. “É incrível. Dá para fazer a maior parte da química”, afirma ele.
Olexandr Isayev, um professor de química na Universidade Carnegie Mellon, afirma que estas técnicas já estão a ser amplamente aplicadas por empresas de química e ciências da vida. Para os investigadores, problemas antes inatingíveis, como a otimização de reações químicas, o desenvolvimento de novos materiais para baterias e a compreensão de ligações proteicas, estão finalmente a tornar-se viáveis.
Como na maioria das aplicações de IA, o maior obstáculo é a disponibilidade de dados, diz Isayev. O conjunto de dados sobre materiais recentemente lançado pela Meta foi baseado em cálculos de DFT em 118 milhões de moléculas. Um modelo treinado com estes dados alcançou um desempenho extraordinário, mas criar o material de treino exigiu recursos computacionais vastos, muito além do que é acessível para a maioria das equipas de investigação. Isso significa que, para cumprir o potencial completo desta abordagem, será necessário um grande investimento.
A modelação de um sistema fracamente correlacionado utilizando a DFT não é, no entanto, um problema de escala exponencial. Isto sugere que, com mais dados e recursos computacionais, abordagens clássicas baseadas em IA poderiam simular até os maiores destes sistemas, diz Tkatchenko. Dado que os computadores quânticos poderosos o suficiente para competir ainda devem demorar décadas a chegar, ele acrescenta, a trajetória atual da IA sugere que ela pode atingir marcos importantes, como simular com precisão a forma como medicamentos se ligam a proteínas, muito mais cedo.
Correlações fortes
Quando se trata de simular sistemas quânticos fortemente correlacionados — aqueles em que as partículas interagem bastante —, os métodos como o DFT rapidamente esgotam as suas capacidades. Embora mais exóticos, estes sistemas incluem materiais com potencial para transformações radicais, como supercondutividade de alta temperatura ou sensores ultras precisos. No entanto, mesmo nesse campo, a IA está a avançar com velocidade.
Em 2017, Carleo, da EPFL, e Troyer, da Microsoft, publicaram um artigo seminal na Science mostrando que redes neurais poderiam modelar sistemas quânticos fortemente correlacionados. Esta abordagem não aprende com os dados no sentido clássico. Em vez disso, diz Carleo, ela é similar ao modelo AlphaZero, da DeepMind, que dominou os jogos de Go, xadrez e shogi utilizando apenas as regras de cada jogo e a capacidade de jogar contra si mesmo.
Neste caso, as “regras do jogo” são fornecidas pela equação de Schrödinger, que pode descrever precisamente o estado quântico, ou a função de onda, de um sistema. O modelo joga contra si mesmo ao organizar partículas em determinada configuração e, em seguida, ao medir o nível de energia do sistema. O objetivo é alcançar a configuração de menor energia (conhecida como estado fundamental), que determina as propriedades do sistema. O modelo repete este processo até que os níveis de energia parem de descer, indicando que o estado fundamental — ou algo próximo dele — foi alcançado.
O poder destes modelos está na sua capacidade de compactar informações, explica Carleo. “A função de onda é um objeto matemático muito complicado,” diz ele. “O que vários estudos mostraram é que [a rede neural] consegue capturar a complexidade deste objeto de uma forma que pode ser tratada por uma máquina clássica.”
Desde o artigo de 2017, a abordagem foi ampliada para uma variedade de sistemas fortemente correlacionados, conta Carleo, e os resultados têm sido impressionantes. O artigo publicado recentemente na Science com colegas colocou as principais técnicas da simulação clássica à prova numa variedade de problemas complicados de simulação quântica, com o objetivo de criar um benchmark para avaliar os avanços nas abordagens clássicas e quânticas.
Carleo afirma que as técnicas baseadas em redes neurais são agora a melhor abordagem para simular muitos dos sistemas quânticos mais complexos que testaram. “A aprendizagem automática está realmente a assumir a liderança em muitos destes problemas”, afirma.
Estas técnicas estão a atrair a atenção de grandes nomes da indústria da tecnologia. Em agosto, investigadores da DeepMind mostraram num artigo na Science que conseguiam modelar com precisão estados excitados em sistemas quânticos, o que poderia, um dia, ajudar a prever o comportamento de células solares, sensores e lasers. Cientistas do Microsoft Research também desenvolveram um conjunto de softwares de código aberto para ajudar mais investigadores a usar redes neurais para simulação.
Uma das principais vantagens desta abordagem é que ela beneficia dos grandes investimentos em hardware e software de IA, diz Filippo Vicentini, um professor de IA e física da matéria condensada na École Polytechnique, na França, que também foi coautor do artigo de benchmarking na Science: “Poder aproveitar estes avanços tecnológicos dá-nos uma enorme vantagem.”
Há um se não: como os estados fundamentais são, na prática, encontrados por tentativa e erro, em vez de cálculos explícitos, eles são apenas aproximações. Mas é justamente por isto que esta abordagem pode avançar num problema que parecia insolúvel, afirma Juan Carrasquilla, investigador do ETH Zurich e outro dos coautores do artigo de benchmarking na Science.
Se deseja monitorizar com precisão todas as interações num sistema fortemente correlacionado, o número de cálculos necessários aumenta exponencialmente com o tamanho do sistema. Mas se uma resposta “boa o suficiente” é aceitável, há muito espaço para atalhos.
“Talvez não haja esperança de o capturar exatamente,” diz Carrasquilla. “Mas há esperança de captar informações suficientes para cobrir todos os aspetos que interessam aos físicos. E, se conseguirmos isso, é basicamente indistinguível de uma solução exata.”
E embora sistemas fortemente correlacionados sejam, geralmente, difíceis de simular de forma clássica, há casos notáveis em que isto não se aplica. Incluindo alguns sistemas relevantes para a modelagem de supercondutores de alta temperatura, segundo um artigo de 2023 na Nature Communications.
“Devido à complexidade exponencial, haverá sempre problemas para os quais não se pode encontrar um atalho,” diz Frank Noe, o gerente de investigação na Microsoft Research, que liderou boa parte do trabalho da empresa nesta área. “Mas acredito que o número de sistemas para os quais não se pode encontrar um bom atalho será muito menor.”
Sem “balas de prata”
No entanto, Stefanie Czischek, uma professora assistente de física na Universidade de Ottawa, diz que pode ser difícil prever que problemas as redes neurais podem resolver de forma viável. Em alguns sistemas complexos, elas saem-se incrivelmente bem, mas em outros, aparentemente mais simples, os custos computacionais aumentam inesperadamente. “Ainda não sabemos quais são suas limitações,” diz ela. “Ninguém sabe exatamente quais as condições que tornam difícil representar sistemas utilizando estas redes neurais.”
Enquanto isso, também houve avanços significativos em outras técnicas clássicas de simulação quântica, diz Antoine Georges, o diretor do Centro de Física Quântica Computacional do Instituto Flatiron em Nova York, que também contribuiu para o artigo de benchmarking na Science. “Cada uma destas técnicas é bem-sucedida por si só, e também são muito complementares entre si,” afirma. “Então, não acredito que estes métodos de aprendizagem automática vão simplesmente acabar com todas as outras abordagens.”
Os computadores quânticos também vão o seu lugar, diz Martin Roetteler, o diretor sénior de soluções quânticas da IonQ, que está a desenvolver computadores quânticos construídos a partir de iões presos. Enquanto ele concorda que as abordagens clássicas sejam, provavelmente, suficientes para simular sistemas fracamente correlacionados, está confiante de que alguns sistemas fortemente correlacionados, de grande porte, estarão fora de seu alcance. “A complexidade exponencial está contra nós,” afirma ele. “Existem casos com sistemas fortemente correlacionados que não conseguimos tratar de forma clássica. Estou fortemente convencido de que esse é o caso.”
Por outro lado, ele afirma que um futuro computador quântico tolerante a falhas, com muito mais qubits do que os dispositivos atuais, será capaz de simular tais sistemas. Isto poderá ajudar na descoberta de novos catalisadores ou na compreensão dos processos metabólicos no corpo—uma área de interesse da indústria farmacêutica.
É provável que as redes neurais aumentem o âmbito dos problemas que podem ser resolvidos, diz Jay Gambetta, que lidera os esforços de computação quântica da IBM, mas não está convencido de que venham a resolver os desafios mais difíceis que interessam às empresas.
“É por isso que muitas empresas que, essencialmente, têm a química como um requisito, ainda estão a investigar a quântica—porque sabem exatamente onde estes métodos aproximados falham,” diz ele.
Gambetta também rejeita a ideia de que as tecnologias são rivais. Ele acredita que o futuro da computação deve envolver uma combinação dos dois métodos, com subprogramas quânticos e clássicos a trabalharem juntos para resolver problemas. “Não acho que estejam a competir. Na verdade, acho que se complementam,” afirma.
Mas Scott Aaronson, o diretor do Centro de Informação Quântica da Universidade do Texas, afirma que as abordagens de aprendizagem automática estão a competir diretamente com os computadores quânticos em áreas como química quântica e física da matéria condensada. Ele prevê que uma combinação de aprendizagem automática e simulações quânticas superará as abordagens puramente clássicas em muitos casos, mas isso só se tornará claro quando computadores quânticos maiores e mais fiáveis estiverem disponíveis.
“Desde o início, encaro a computação quântica, antes de mais nada, como uma busca científica, com quaisquer aplicações industriais como a cereja no topo do bolo,” diz ele. “Por isso, se as simulações quânticas raramente superarem a aprendizagem automática, não ficarei tão desapontado como alguns dos meus colegas.”
Uma área em que os computadores quânticos parecem ter uma vantagem clara é na simulação da evolução de sistemas quânticos complexos ao longo do tempo, afirma Carleo, da EPFL. Isto poderia fornecer informações valiosas aos cientistas em áreas como a mecânica estatística e a física de altas energias, mas parece improvável que leve a usos práticos a curto prazo. “Estas são aplicações de nicho que, na minha opinião, não justificam os enormes investimentos e a grande expectativa,” acrescenta Carleo.
Apesar disso, os especialistas com quem a MIT Technology Review conversou afirmam que a falta de aplicações comerciais não é motivo para parar de investir em computação quântica, que pode levar a descobertas científicas fundamentais a longo prazo.
“A ciência é como um conjunto de caixas aninhadas—resolve-se um problema e encontra-se outros cinco,” diz Vicentini. “A complexidade das coisas que estudamos irá aumentar com o tempo, pelo que precisaremos sempre de ferramentas mais poderosas.”