Um par de pernas robóticas chamado Cassie foi ensinado a andar usando a aprendizagem por reforço, a técnica de treino que ensina comportamentos complexos de IA por tentativa e erro. O robô de duas pernas aprendeu uma série de movimentos desde o início, incluindo andar agachado e carregar uma carga imprevista.
Mas pode dançar? As expectativas sobre o que os robôs podem fazer aumentam graças aos vídeos virais divulgados pela Boston Dynamics, que exibem o seu robô humanoide Atlas de pé numa perna, a saltar sobre as caixas e a dançar. Esses vídeos acumularam milhões de visualizações e até foram parodiados. O controlo que Atlas tem sobre os seus movimentos é impressionante, mas as sequências coreografadas provavelmente envolvem muito ajuste manual.
“Esses vídeos podem levar algumas pessoas a acreditar que esta é uma questão resolvida e fácil”, diz Zhongyu Li, da Universidade da Califórnia, em Berkeley, que trabalhou em Cassie com os seus colegas. “Mas ainda temos um longo caminho a percorrer para que robôs humanoides operem e vivam em ambientes humanos de forma confiável”. Cassie ainda não sabe dançar, mas ensinar o robô de tamanho humano a andar sozinho o coloca vários passos mais perto de ser capaz de lidar com uma ampla variedade de terrenos e se recuperar quando tropeçar ou se danificar.
Limitações virtuais: a aprendizagem por reforço tem sido usada para treinar muitos bots a andar em simulações virtuais, mas transferir essa habilidade para o mundo real é difícil. “Muitos dos vídeos que vê de agentes virtuais não são nada realistas”, diz Chelsea Finn, investigadora de IA e robótica da Universidade de Stanford, que não esteve envolvida no trabalho com Cassie. Pequenas diferenças entre as leis físicas simuladas dentro de um ambiente virtual e fora dele — como a forma como o atrito funciona entre os pés de um robô e o solo — podem levar a grandes fracassos quando um robô tenta aplicar o que aprendeu. Um robô pesado de duas pernas pode perder o equilíbrio e cair se os seus movimentos forem um pouco deslocados.
Simulação dupla: mas treinar um grande robô por tentativa e erro no mundo real seria perigoso. Para contornar esses problemas, a equipa de Berkeley usou dois níveis de ambiente virtual. No primeiro, uma versão simulada de Cassie aprendeu a andar com base num grande banco de dados existente de movimentos robóticos. Essa simulação foi então transferida para um segundo ambiente virtual chamado Sim Mechanics que espelha a física do mundo real com um elevado grau de precisão — mas a um custo alto em velocidade de execução. Apenas quando Cassie pareceu executar bem os movimentos de locomoção no meio digital, o modelo de caminhada erudito foi carregado no robô real.
O verdadeiro Cassie era capaz de andar usando o modelo aprendido na simulação sem nenhum ajuste adicional extra. Pode andar em terrenos acidentados e escorregadios, carregar cargas inesperadas e recuperar-se de ser empurrado. Durante o teste, Cassie também danificou dois motores na sua perna direita, mas foi capaz de ajustar os seus movimentos para compensar. Finn acha que este é um trabalho estimulante. Edward Johns, que lidera o Robot Learning Lab no Imperial College London, concorda. “Este é um dos exemplos de maior sucesso que já vi”, diz.
A equipe de Berkeley espera usar a sua abordagem para aumentar o repertório de movimentos de Cassie. Mas não espere um baile de dança tão cedo.