Em dezembro, o nosso pequeno, mas poderoso, time de reportagem sobre IA foi desafiado pelos editores a fazer uma previsão: O que vem a seguir para a IA?
Em 2024, a IA contribuiu tanto para avanços na química premiados com o Nobel quanto para uma montanha de conteúdo barato, que poucas pessoas pediram, mas que mesmo assim inundou a internet. Veja como exemplo as imagens geradas por IA de “Jesus camarão”. Também houve um aumento nas emissões de gases de efeito estufa no ano passado, atribuído, em parte, ao avanço de IAs que consomem muita energia. O nosso time começou a refletir sobre como tudo isso se desenrolará no próximo ano.
Ao olharmos para frente, algumas coisas são certas. Sabemos que agentes — modelos de IA que fazem mais do que apenas conversar consigo e podem realmente realizar tarefas por conta própria — são o foco de muitas empresas de IA atualmente. Construí-los levantará muitas questões de privacidade sobre o quanto de nossos dados e preferências estamos dispostos a compartilhar em troca de ferramentas que (supostamente) economizam o nosso tempo. De forma semelhante, a necessidade de tornar a IA mais rápida e eficiente em termos de energia está colocando os chamados modelos de linguagem compactos em destaque.
Queríamos, no entanto, nos concentrar em previsões menos óbvias. As minhas incluíram como empresas de IA que anteriormente evitavam trabalhar com defesa e segurança nacional poderiam ser tentadas este ano por contratos do Pentágono, e como as atitudes de Donald Trump em relação à China poderiam intensificar a corrida global pelos melhores semicondutores. Leia a lista completa.
O que não está evidente nessa história é que outras previsões não eram tão diretas. Discussões surgiram sobre se 2025 será o ano dos relacionamentos íntimos com chatbots, triângulos amorosos com IA ou rompimentos traumáticos com IA. Para testemunhar as consequências dos debates animados da nossa equipe (e ouvir mais sobre o que não entrou na lista), pode participar do nosso próximo LinkedIn Live nesta quinta-feira, 16 de janeiro. Vou discutir tudo isso com Will Douglas Heaven, nosso editor sénior de IA, e nossa editora de notícias, Charlotte Jee.
Há algumas outras coisas que também estarei observando de perto em 2025. Uma delas é o quão pouco os grandes nomes da IA — como OpenAI, Microsoft e Google — estão divulgando sobre o impacto ambiental de seus modelos. Muitas evidências sugerem que perguntar a um modelo de IA como o ChatGPT sobre fatos conhecidos, como a capital do México, consome muito mais energia (e gera mais emissões) do que simplesmente usar um mecanismo de busca. No entanto, Sam Altman, da OpenAI, em entrevistas recentes, falou positivamente sobre a ideia de o ChatGPT substituir o hábito de pesquisar no Google que todos adquirimos nas últimas duas décadas. Isso já está acontecendo, na verdade.
O custo ambiental de tudo isso estará no topo das minhas preocupações em 2025, assim como o possível custo cultural. Passaremos de buscar informações clicando em links e (esperançosamente) avaliando fontes para simplesmente ler as respostas que os mecanismos de busca por IA nos apresentam. Como disse nosso editor-chefe, Mat Honan, em seu artigo sobre o assunto: “Quem quer ter que aprender quando pode simplesmente saber?”
Agora leia o restante de The Algorithm
Aprendizado mais profundo
O que vem a seguir para nossa privacidade?
A Comissão Federal de Comércio dos EUA (FTC) tomou uma série de ações de fiscalização contra corretoras de dados, algumas das quais rastrearam e venderam dados de geolocalização de usuários em locais sensíveis, como igrejas, hospitais e instalações militares, sem consentimento explícito. Embora limitadas em escopo, essas ações podem oferecer algumas proteções novas e melhoradas para as informações pessoais dos americanos.
Por que isso importa: Está crescendo o consenso de que os americanos precisam de melhores proteções de privacidade — e que a melhor maneira de alcançá-las seria o Congresso aprovar uma legislação federal abrangente de privacidade. Infelizmente, isso não acontecerá tão cedo. Ações de fiscalização de agências como a FTC podem ser a melhor alternativa no momento. Leia mais na excelente matéria de Eileen Guo aqui.
Bits e Bytes
Meta treinou sua IA em um banco de dados de pirataria notório
Novos registros judiciais, conforme reportado pela Wired, revelam que a Meta usou “uma chamada biblioteca sombra notória de livros pirateados, originada na Rússia” para treinar seus modelos de IA generativa. (Wired)
O modelo de raciocínio mais avançado da OpenAI enfrenta dificuldades com o jogo Connections do NYT
O jogo exige que os jogadores identifiquem como grupos de palavras estão relacionados. O modelo de raciocínio O1 da OpenAI teve dificuldade em resolver. (Mind Matters)
O cientista-chefe da Anthropic explica 5 maneiras como os agentes serão ainda melhores em 2025
A empresa de IA Anthropic agora está avaliada em 60 bilhões de dólares. Jared Kaplan, cofundador e cientista-chefe da empresa, compartilhou como os agentes de IA irão evoluir no próximo ano. (MIT Technology Review)
Um legislador de Nova York tenta regular a IA com um novo projeto de lei
Este ano, um projeto de lei de alto perfil na Califórnia para regular a indústria de IA foi vetado pelo governador Gavin Newsom. Agora, um legislador em Nova York está tentando reavivar o esforço em seu próprio estado. (MIT Technology Review)