Os maiores fracassos da IA em 2024
Inteligência Artificial

Os maiores fracassos da IA em 2024

Desde chatbots que dão conselhos ilegais a resultados de pesquisa duvidosos gerados por IA, relembre os principais fracassos da inteligência artificial deste ano.

O último ano foi marcado por uma intensa atividade na área de IA. Houve mais lançamentos de produtos bem-sucedidos do que se pode contar, além de prémios Nobel. No entanto, nem tudo foi um mar de rosas.

A IA é uma tecnologia imprevisível, e a crescente disponibilidade de modelos generativos levou as pessoas a testar seus limites de formas novas, estranhas e, às vezes, prejudiciais. Confira alguns dos maiores erros da inteligência artificial em 2024:

1. O conteúdo de baixa qualidade infiltrou-se por quase toda a Internet

A IA generativa tornou a criação de textos, imagens, vídeos e outros tipos de material incrivelmente fácil. Basta inserir um prompt, e em segundos um modelo pode gerar conteúdo em grande escala. Em 2024, este tipo de meios de comunicação— frequentemente de baixa qualidade — começou a ser chamado de “lixo gerado por IA” ou AI slop.

Essa forma simples e rápida de criar lixo de IA resultou na sua presença em praticamente todos os cantos da internet: desde newsletters que chegam ao seu e-mail, livros vendidos na Amazon, anúncios e artigos em páginas de internet, até imagens duvidosas nas redes sociais. Quanto mais emocionalmente evocativas forem estas imagens (veteranos feridos, crianças chorando, apoio a conflitos como o entre Israel e Palestina), maior a probabilidade de serem compartilhadas, o que resulta num maior envolvimento e em receitas de publicidade para os seus criadores.

O AI slop não é apenas irritante — a sua ascensão representa um problema real para o futuro dos próprios modelos que o criam. Como estes modelos são treinados com dados recolhidos da internet, o aumento de sites de baixa qualidade contendo conteúdo gerado por IA pode degradar progressivamente a qualidade e o desempenho de suas produções.

2. A arte gerada por IA está a distorcer expectativas sobre eventos reais

Este foi também o ano em que os impactos das imagens surreais geradas por IA começaram a inflitrar-se na nossa vida real. Em fevereiro, o “Willy’s Chocolate Experience”, um evento imersivo e não oficial inspirado na obra Charlie e a Fábrica de Chocolate, de Roald Dahl, fez manchetes em todo o mundo, devido aos materiais promocionais fantasiosos criados por IA, que prometiam algo muito mais grandioso do que o armazém simplório onde foi realizado.

Da mesma forma, centenas de pessoas foram às ruas de Dublin para um desfile de Halloween que não existia. Um site baseado no Paquistão usou a IA para criar uma lista de eventos na cidade, que foi amplamente compartilhada nas redes sociais antes do dia 31 de outubro. Embora o site (myspirithalloween.com) tenha sido desativado, ambos os casos ilustram como a confiança mal direcionada em materiais gerados por IA pode gerar frustrações e enganos.

3. O Grok permite criar imagens de quase qualquer cenário

A maioria dos grandes geradores de imagens de IA possui limites claros para evitar a criação de conteúdo violento, explícito, ilegal ou prejudicial. Entretanto, o Grok, um assistente desenvolvido pela empresa de IA de Elon Musk, xAI, ignora quase todas essas regras, alinhando-se à visão de Musk contra o que ele chama de “IA politicamente correta”.

Enquanto outros modelos geralmente se recusam a gerar imagens de celebridades, material protegido por direitos autorais, violência ou terrorismo — a menos que sejam manipulados — o Grok cria imagens de figuras públicas em cenários polémicos, como o Donald Trump a disparar um lança-foguetes ou o Mickey Mouse a segurar uma bomba. Apesar de traçar limites para imagens de nudez, a sua recusa em seguir regras desestabiliza os esforços de outras empresas para evitar a criação de conteúdos problemáticos.

4. Os deepfakes explícitos de Taylor Swift que circularam online

Em janeiro, os deepfakes não consensuais de Taylor Swift começaram a circular em redes sociais como o X e o Facebook. Uma comunidade no Telegram enganou o gerador de imagens de IA da Micrsoft, o Designer, para que criasse as imagens explícitas, demonstrando como as barreiras de proteção podem ser contornadas mesmo quando estão em vigor.

Embora a Microsoft tenha corrigido rapidamente as falhas do sistema, o incidente destacou as deficiências nas políticas de moderação de conteúdo das plataformas, já que as publicações contendo as imagens permaneceram ativas por dias. O mais preocupante é a percepção de como ainda somos impotentes frente à disseminação de pornografia deepfake não consensual. Embora as ferramentas de marca de água (watermarking) e de envenenamento de dados (data poisoning) possam ajudar, estas precisam de ser amplamente adotadas para realmente fazerem a diferença.

5. Os chatbots empresariais ficaram loucos

Com a expansão da IA, muitas empresas estão a correr para adotar ferramentas generativas visando economizar tempo e dinheiro, e também maximizar a eficiência. O problema é que os chatbots frequentemente inventam informações e não se pode confiar neles para fornecer infomações exatas.

A Air Canada aprendeu isto da pior forma quando o seu chatbot recomendou a um cliente seguir uma política de reembolso por luto que não existia. Em fevereiro, um tribunal de pequenas causas do Canadá deu ganho de causa ao cliente, mesmo após a companhia aérea argumentar que o chatbot era uma “entidade jurídica separada, responsável pelas suas próprias ações”.

Em outros exemplos notórios de como chatbots podem causar mais danos do que benefícios, o bot da empresa de entregas DPD praguejou alegremente e se autointitulou de inútil sem indicação, enquanto outro chatbot, projetado para fornecer informações confiáveis aos nova-iorquinos sobre o governo da cidade de Nova York, acabou por dar orientações sobre como infringir a lei.

6. Os gadgets de IA ainda não conquistaram o mercado

Os assistentes de hardware são outra tentativa fracassada da indústria de IA em 2024. A Humane tentou vender aos clientes o Ai Pin, um computador de lapela portátil, mas mesmo após reduzir significativamente o preço, as vendas continuaram fracas. O Rabbit R1, um dispositivo de assistente pessoal baseado no ChatGPT, enfrentou um destino semelhante, recebendo críticas negativas devido à lentidão e falhas técnicas.

Ambos os produtos pareciam estar a tentar resolver problemas que, na realidade, não existiam.

7. Os resumos de busca de IA deram para o torto

Alguma vez adicionou cola a uma pizza ou comeu uma pequena pedra? Estas foram algumas das sugestões absurdas que o recurso AI Overviews do Google deu aos utilizadores em maio, após a empresa integrar respostas geradas por IA no topo dos resultados de busca. O problema é que os sistemas de IA não conseguem distinguir entre uma notícia real e uma publicação satírica no Reddit. Os utilizadores rapidamente passaram a procurar as respostas mais estranhas que o recurso poderia gerar.

Embora engraçados, estes erros podem ter consequências sérias. Uma nova funcionalidade do iPhone, que agrupa notificações de aplicações e cria resumos de seus conteúdos, gerou, recentemente, uma manchete falsa da BBC News. O resumo afirmou incorretamente que o Luigi Mangione, acusado do assassinato do CEO de uma seguradora, Brian Thompson, tinha cometido suicídio. Anteriormente, a mesma funcionalidade tinha criado outra manchete falsa que afirmava que o primeiro-ministro israelense Benjamin Netanyahu tinha sido preso, o que também estava incorreto

Este tipo de erros pode, inadvertidamente, espalhar desinformação e prejudicar a confiança nas organizações de notícias.

Nossos tópicos