Como caíram os poderosos. Há uma década, as redes sociais eram celebradas por terem provocado revoltas democráticas no mundo árabe e não só. Agora, as primeiras páginas estão repletas de histórias sobre o papel das plataformas sociais na desinformação, conspiração empresarial, má conduta e riscos para a saúde mental. Em uma pesquisa realizada em 2022, os americanos responsabilizaram as redes sociais pelo agravamento do nosso discurso político, pela disseminação da desinformação e pelo aumento da polarização partidária.
Hoje, a queridinha da tecnologia é a Inteligência Artificial. Tal como as redes sociais, tem o potencial de mudar o mundo de muitas formas, algumas delas favoráveis à democracia. Mas, ao mesmo tempo, tem o potencial de causar danos à sociedade.
Há muito que podemos aprender sobre a evolução não regulamentada das redes sociais na última década que se aplica diretamente às empresas e tecnologias de IA. Estas lições podem ajudar-nos a evitar cometer com a IA os mesmos erros que cometemos com as redes sociais.
Em particular, cinco atributos fundamentais das redes sociais prejudicaram a sociedade. A IA também tem esses atributos. Note-se que não são intrinsecamente maus. São todos espadas de dois gumes, com potencial para fazer o bem ou o mal. O perigo reside em quem os utiliza. O perigo reside em quem empunha a espada e na direção em que é brandida. Isto tem sido verdade para as redes sociais e será igualmente verdade para a IA. Em ambos os casos, a solução reside na imposição de limites à utilização da tecnologia.
#1: Publicidade
O papel que a publicidade desempenha na Internet surgiu mais por acaso do que por qualquer outra coisa. Quando a comercialização chegou à Internet, não existia uma forma fácil de os utilizadores efectuarem micropagamentos para fazerem coisas como ver uma página Web. Além disso, os utilizadores estavam habituados ao acesso gratuito e não aceitavam modelos de subscrição de serviços. A publicidade era o modelo de negócio óbvio, embora nunca o melhor. E é o modelo em que as redes sociais também se baseiam, o que as leva a dar prioridade ao envolvimento em detrimento de qualquer outra coisa.
Tanto a Google como o Facebook acreditam que a IA os ajudará a manter o seu domínio sobre um mercado de publicidade online de 11 dígitos (sim, 11 dígitos), e os gigantes da tecnologia que são tradicionalmente menos dependentes da publicidade, como a Microsoft e a Amazon, acreditam que a IA os ajudará a conquistar uma fatia maior desse mercado.
As grandes empresas tecnológicas precisam de algo para persuadir os anunciantes a continuarem a gastar nas suas plataformas. Apesar das afirmações bombásticas sobre a eficácia do marketing direcionado, há muito que os investigadores se esforçam por demonstrar onde e quando os anúncios online têm realmente impacto. Quando grandes marcas como a Uber e a Procter & Gamble reduziram recentemente as suas despesas com publicidade digital em centenas de milhões, afirmaram que isso não teve qualquer impacto nas suas vendas.
Os líderes do sector afirmam que os anúncios com IA serão muito melhores. A Google garante que a IA pode ajustar o texto do seu anúncio em resposta ao que os utilizadores pesquisam e que os seus algoritmos de IA configurarão as suas campanhas para maximizar o sucesso. A Amazon quer que utilize a sua IA de geração de imagens para tornar as suas páginas de produtos de torradeiras mais fixes. E a IBM está confiante de que a sua IA Watson tornará os seus anúncios melhores.
Estas técnicas estão próximas da manipulação, mas o maior risco para os utilizadores vem da publicidade nos chatbots com IA. Tal como o Google e o Meta incorporam anúncios nos seus resultados de pesquisa e feeds, as empresas de IA serão pressionadas a incorporar anúncios nas conversas. E como essas conversas serão relacionais e semelhantes às humanas, poderão ser mais prejudiciais. Embora muitos de nós tenhamos conseguido passar ao lado dos anúncios nas páginas de resultados da Amazon e do Google, será muito mais difícil determinar se um chatbot de IA está a mencionar um produto porque é uma boa resposta à sua pergunta ou porque o programador de IA recebeu uma comissão do fabricante.
#2: Vigilância
A dependência das redes sociais da publicidade como principal forma de rentabilizar os sítios Web levou à personalização, o que conduziu a uma vigilância cada vez maior. Para convencer os anunciantes de que as plataformas sociais podem ajustar os anúncios de forma a serem o mais apelativos possível para cada pessoa, as plataformas têm de demonstrar que podem recolher o máximo de informação possível sobre essas pessoas.
É difícil exagerar a quantidade de espionagem que está a ser feita. Uma análise recente da Consumer Reports sobre o Facebook – apenas o Facebook – mostrou que cada utilizador tem mais de 2.200 empresas diferentes a espiar as suas actividades na Web em seu nome.
As plataformas alimentadas por IA que são apoiadas por anunciantes enfrentarão todos os mesmos incentivos de mercado perversos e poderosos que as plataformas sociais enfrentam. É fácil imaginar que um operador de chatbot poderia cobrar um prémio se pudesse alegar que o seu chatbot poderia visar os utilizadores com base na sua localização, dados de preferência ou histórico de conversas anteriores e persuadi-los a comprar produtos.
A possibilidade de manipulação só vai aumentar à medida que confiarmos na IA para serviços pessoais. Uma das promessas da IA generativa é a perspetiva de criar um assistente pessoal digital suficientemente avançado para atuar como seu defensor junto dos outros e como mordomo para si. Isto requer mais intimidade do que aquela que temos com o nosso motor de busca, fornecedor de correio eletrónico, sistema de armazenamento na nuvem ou telefone. Vai querer tê-lo consigo constantemente e, para trabalhar em seu nome da forma mais eficaz, terá de saber tudo sobre si. Irá atuar como um amigo e é provável que o trate como tal, confiando erradamente na sua discrição.
Mesmo que opte por não familiarizar voluntariamente um assistente de IA com o seu estilo de vida e as suas preferências, a tecnologia de IA pode facilitar às empresas a aprendizagem sobre si. As primeiras demonstrações ilustram como os chatbots podem ser utilizados para extrair sub-repticiamente dados pessoais através de perguntas banais. E com os chatbots a serem cada vez mais integrados em tudo, desde sistemas de apoio ao cliente a interfaces de pesquisa básicas em sítios Web, a exposição a este tipo de recolha de dados inferenciais pode tornar-se inevitável.
#3: Viralidade
As redes sociais permitem a qualquer utilizador expressar qualquer ideia com o potencial de alcance global instantâneo. Um grande orador público numa tribuna pode espalhar ideias a talvez algumas centenas de pessoas numa boa noite. Um miúdo com a dose certa de piada no Facebook pode chegar a algumas centenas de milhões de pessoas em poucos minutos.
Há uma década, os tecnólogos esperavam que este tipo de viralidade aproximasse as pessoas e garantisse o acesso a verdades suprimidas. Mas, por uma questão estrutural, é do interesse de uma rede social mostrar-lhe as coisas em que é mais provável que clique e partilhe, e as coisas que o manterão na plataforma.
Acontece que isto significa muitas vezes conteúdos escandalosos, escabrosos e provocadores. Os investigadores descobriram que os conteúdos que expressam o máximo de animosidade em relação aos adversários políticos são os que obtêm mais envolvimento no Facebook e no Twitter. E este incentivo à indignação impulsiona e recompensa a desinformação.
Como Jonathan Swift escreveu uma vez, “a falsidade voa e a verdade vem a coxear atrás dela”. Os académicos parecem ter provado isto no caso das redes sociais; as pessoas são mais propensas a partilhar informações falsas – talvez porque pareçam mais inovadoras e surpreendentes. E, infelizmente, este tipo de desinformação viral tem sido generalizado.
A IA tem o potencial de sobrecarregar o problema porque torna a produção e a propagação de conteúdos mais fácil, mais rápida e mais automática. As ferramentas de IA generativa podem fabricar um número interminável de falsidades sobre qualquer indivíduo ou tema, algumas das quais se tornam virais. E essas mentiras podem ser impulsionadas por contas sociais controladas por bots de IA, que podem partilhar e lavar a desinformação original a qualquer escala.
Geradores de texto e agentes autónomos de IA extremamente poderosos já começam a fazer sentir a sua presença nas redes sociais. Em julho, investigadores da Universidade de Indiana revelaram uma rede de bots de mais de 1100 contas do Twitter que pareciam ser operadas com o ChatGPT.
A IA ajudará a reforçar o conteúdo viral que emerge das redes sociais. Será capaz de criar sítios Web e conteúdos Web, análises de utilizadores e aplicações para smartphones. Será capaz de simular milhares, ou mesmo milhões, de personas falsas para dar a impressão errada de que uma ideia, ou uma posição política, ou a utilização de um produto, é mais comum do que é na realidade. O que poderíamos entender como um debate político vibrante pode ser bots a falar com bots. E estas capacidades não estarão disponíveis apenas para quem tem dinheiro e poder; as ferramentas de IA necessárias para tudo isto estarão facilmente disponíveis para todos nós.
#4: Bloqueio
As empresas de redes sociais fazem um grande esforço para que seja difícil sair das suas plataformas. Não se trata apenas de perder as conversas com os seus amigos. As empresas dificultam a transferência dos dados guardados – ligações, mensagens, fotografias – para outra plataforma. Cada momento que investe na partilha de uma memória, no contacto com um conhecido ou na seleção dos seus seguidores numa plataforma social acrescenta um tijolo ao muro que teria de transpor para ir para outra plataforma.
Este conceito de “lock-in” não é exclusivo das redes sociais. A Microsoft cultivou durante anos formatos de documentos proprietários para o manter a utilizar o seu principal produto, o Office. O seu serviço de música ou leitor de livros electrónicos dificulta a transferência do conteúdo que comprou para um serviço ou leitor rival. E se mudar de um iPhone para um dispositivo Android, os seus amigos podem zombar de você por enviar mensagens de texto em bolhas verdes. Mas as redes sociais levam isto a um novo nível. Por muito mau que seja, é muito difícil sair do Facebook se todos os seus amigos estiverem lá. Coordenar a saída de todos para uma nova plataforma é impossivelmente difícil, por isso ninguém o faz.
Do mesmo modo, as empresas que criam assistentes pessoais digitais com IA dificultarão a transferência dessa personalização para outra IA. Se os assistentes pessoais com IA conseguirem poupar muito tempo, isso dever-se-á ao facto de conhecerem os meandros da sua vida tão bem como um bom assistente humano; quereria abdicar disso para começar de novo com o serviço de outra empresa? Em exemplos extremos, algumas pessoas criaram laços estreitos, talvez mesmo familiares, com chatbots de IA. Se pensar na sua IA como um amigo ou um terapeuta, isso pode ser uma forma poderosa de fidelização.
O lock-in é uma preocupação importante porque resulta em produtos e serviços que são menos reactivos à procura dos clientes. Quanto mais difícil for mudar para um concorrente, mais maltratado pode ser o cliente por uma empresa. Na ausência de qualquer forma de forçar a interoperabilidade, as empresas de IA têm menos incentivos para inovar em termos de características ou competir em termos de preço, e menos escrúpulos em relação à vigilância ou a outros maus comportamentos.
#5: Monopolização
As plataformas sociais começam muitas vezes como grandes produtos, verdadeiramente úteis e reveladores para os seus consumidores, antes de começarem a monetizar e a explorar esses utilizadores em benefício dos seus clientes empresariais. Depois, as plataformas recuperam o valor para si próprias, transformando os seus produtos em experiências verdadeiramente miseráveis para todos. Este é um ciclo sobre o qual Cory Doctorow escreveu de forma poderosa e que foi traçado através da história do Facebook, do Twitter e, mais recentemente, do TikTok.
A razão para estes resultados é estrutural. Os efeitos de rede das plataformas tecnológicas levam a que algumas empresas se tornem dominantes, e o “lock-in” assegura o seu domínio contínuo. Os incentivos no sector da tecnologia são tão espectaculares, tão poderosos que permitiram a seis megacorporações (Amazon, Apple, Google, Facebook, Meta, Microsoft e Nvidia) comandar um trilião de dólares de valor de mercado cada – ou mais. Estas empresas usam a sua riqueza para bloquear qualquer legislação significativa que possa reduzir o seu poder. E, por vezes, conspiram umas com as outras para ficarem ainda mais gordas.
Este ciclo está claramente a começar a repetir-se na IA. Basta olhar para o exemplo da OpenAI, cuja principal oferta, o ChatGPT, continua a estabelecer marcas de aceitação e utilização. No espaço de um ano após o lançamento do produto, a avaliação da OpenAI disparou para cerca de 90 mil milhões de dólares.
Em tempos, a OpenAI pareceu ser uma alternativa “aberta” aos megacorpos – uma transportadora comum de serviços de IA com uma missão sem fins lucrativos de cariz social. Mas o desastre do despedimento e recontratação de Sam Altman no final de 2023, e o papel central da Microsoft na reintegração de Altman no cargo de CEO, simplesmente ilustrou como o financiamento de risco das fileiras familiares da elite tecnológica permeia e controla a IA corporativa. Em janeiro de 2024, a OpenAI deu um grande passo no sentido da monetização desta base de utilizadores, introduzindo a sua GPT Store, em que um cliente da OpenAI pode cobrar a outro pela utilização das suas versões personalizadas do software OpenAI, que recolhe as receitas de ambas as partes. Isto põe em marcha o ciclo para o qual Doctorow alerta.
No meio desta espiral de exploração, pouca ou nenhuma atenção é dada às externalidades que atingem o grande público – pessoas que nem sequer estão a utilizar as plataformas. Mesmo depois de a sociedade se ter debatido com os seus efeitos nocivos durante anos, as redes sociais monopolistas não têm praticamente nenhum incentivo para controlar o impacto ambiental dos seus produtos, a tendência para espalhar desinformação ou os efeitos perniciosos na saúde mental. E o governo não tem aplicado praticamente nenhuma regulamentação para esses fins.
Do mesmo modo, existem poucas ou nenhumas protecções para limitar o potencial impacto negativo da IA. O software de reconhecimento facial que equivale a perfis raciais, as opiniões públicas simuladas e sobrecarregadas por chatbots, os vídeos falsos em anúncios políticos – tudo isto persiste numa zona cinzenta do ponto de vista jurídico. Mesmo os que violam claramente a lei da publicidade de campanha podem, segundo alguns, ficar impunes se simplesmente o fizerem com IA.
Atenuar os riscos
Os riscos que a IA representa para a sociedade são surpreendentemente familiares, mas há uma grande diferença: não é demasiado tarde. Desta vez, sabemos que está tudo a chegar. Depois da nossa experiência com os danos causados pelas redes sociais, temos todos os avisos de que precisamos para evitar os mesmos erros.
O maior erro que cometemos com as redes sociais foi deixá-las como um espaço não regulamentado. Mesmo agora – depois de todos os estudos e revelações sobre os efeitos negativos das redes sociais nas crianças e na saúde mental, depois da Cambridge Analytica, depois da exposição da intervenção russa na nossa política, depois de tudo o resto – as redes sociais nos EUA continuam a ser, em grande parte, uma “arma de destruição” não regulamentada. O Congresso receberá milhões de dólares em contribuições das Big Tech, e os legisladores até investirão milhões dos seus próprios dólares nessas empresas, mas aprovar leis que limitem ou penalizem o seu comportamento parece ser uma ponte demasiado longe.
Não nos podemos dar ao luxo de fazer o mesmo com a IA, porque os riscos são ainda maiores. Os danos que as redes sociais podem causar resultam da forma como afectam a nossa comunicação. A IA afetar-nos-á da mesma forma e de muitas mais. Se a trajetória da Big Tech for um sinal, as ferramentas de IA estarão cada vez mais envolvidas na forma como aprendemos e como expressamos os nossos pensamentos. Mas estas ferramentas também influenciarão a forma como programamos as nossas actividades diárias, como concebemos produtos, como redigimos leis e até como diagnosticamos doenças. O papel expansivo destas tecnologias na nossa vida quotidiana dá às empresas com fins lucrativos a oportunidade de exercerem controlo sobre mais aspectos da sociedade, o que nos expõe aos riscos decorrentes dos seus incentivos e decisões.
A boa notícia é que dispomos de toda uma categoria de ferramentas para modular o risco que as acções das empresas representam para as nossas vidas, a começar pela regulamentação. A regulamentação pode assumir a forma de restrições à atividade, por exemplo, limitações quanto aos tipos de empresas e produtos que podem incorporar ferramentas de IA. Podem assumir a forma de regras de transparência, exigindo a divulgação dos conjuntos de dados utilizados para treinar modelos de IA ou dos novos modelos em fase de pré-produção que estão a ser treinados. E podem assumir a forma de requisitos de supervisão e responsabilização, permitindo a aplicação de sanções civis nos casos em que as empresas não cumpram as regras.
O maior ponto de influência que os governos têm quando se trata de empresas de tecnologia é a lei antitrust. Apesar do que muitos lobistas querem que se pense, uma das principais funções da regulamentação é preservar a concorrência – não tornar a vida mais difícil para as empresas. Não é inevitável que a OpenAI se transforme noutro Meta, um gorila de 800 quilos cuja base de utilizadores e alcance são várias vezes superiores aos dos seus concorrentes. Para além de reforçar e fazer cumprir a legislação antitrust, podemos introduzir regulamentação que apoie normas de concorrência específicas do sector tecnológico, como a portabilidade dos dados e a interoperabilidade dos dispositivos. Esta é outra estratégia fundamental para resistir ao monopólio e ao controlo das empresas.
Além disso, os governos podem aplicar os regulamentos existentes sobre publicidade. Tal como os EUA regulam quais os meios de comunicação social que podem ou não acolher anúncios de produtos sensíveis como os cigarros, e tal como muitas outras jurisdições exercem um controlo rigoroso sobre o tempo e a forma da publicidade politicamente sensível, também os EUA poderiam limitar o envolvimento entre fornecedores de IA e anunciantes.
Por último, devemos reconhecer que o desenvolvimento e o fornecimento de ferramentas de IA não tem de ser um domínio soberano das empresas. Nós, o povo e o nosso governo, também o podemos fazer. A proliferação do desenvolvimento de IA de código aberto em 2023, com um sucesso que surpreendeu os actores empresariais, é a prova disso. E podemos ir mais longe, apelando ao nosso governo para que crie ferramentas de IA de opção pública desenvolvidas com supervisão política e responsabilidade no âmbito do nosso sistema democrático, onde a ditadura do lucro não se aplica.
É discutível qual destas soluções é mais prática, mais importante ou mais urgentemente necessária. Deveríamos ter um diálogo social vibrante sobre se e como utilizar cada um destes instrumentos. Há muitos caminhos para um bom resultado.
O problema é que isto não está a acontecer agora, particularmente nos EUA. E com uma eleição presidencial iminente, conflitos a alastrar de forma alarmante na Ásia e na Europa e uma crise climática global, é fácil imaginar que não vamos conseguir lidar com a IA mais depressa do que (não) conseguimos com as redes sociais. Mas não é demasiado tarde. Estes ainda são os primeiros anos para aplicações práticas de IA para o consumidor. Devemos e podemos fazer melhor.
Nathan E. Sanders é cientista de dados e afiliado ao Berkman Klein Center da Universidade de Harvard. Bruce Schneier é tecnólogo em segurança, bolsista e professor da Harvard Kennedy School.