Até o final de novembro do ano passado, quando a saga épica do colapso da diretoria da OpenAI se desenrolou, o observador casual poderia ser perdoado por supor que o setor em torno da IA generativa era um ecossistema competitivo vibrante.
Mas esse não é o caso — nem nunca foi. E entender o porquê disso é fundamental para entender o que é Inteligência Artificial e as ameaças que ela representa. Simplificando, no contexto do paradigma atual de criação de sistemas de IA cada vez maiores, não existe IA sem Big Tech. Com pouquíssimas exceções, todas as startups, novos entrantes e até mesmo laboratórios de pesquisa de IA dependem dessas empresas. Todas dependem da infraestrutura de computação da Microsoft, Amazon e Google para treinar os seus sistemas e do vasto alcance do mercado consumidor dessas mesmas empresas para implantar e vender os seus produtos de IA.
De fato, muitas startups simplesmente licenciam e remarcam modelos de IA criados e vendidos por esses gigantes da tecnologia ou por suas startups parceiras. Isso ocorre porque as grandes empresas de tecnologia acumularam vantagens significativas na última década. Graças ao domínio da plataforma e às propriedades de autor reforço do modelo de negócios de vigilância, elas possuem e controlam os ingredientes necessários para desenvolver e implantar a IA em larga escala. Elas também moldam as estruturas de incentivo para o campo de pesquisa e desenvolvimento em IA, definindo o presente e o futuro da tecnologia.
A recente saga da OpenAI, na qual a Microsoft exerceu o seu domínio discreto, mas firme, sobre a entidade de “lucro limitado”, é uma demonstração poderosa do que temos analisado na última meia década. Ou seja: quem tem o dinheiro dita as regras. E, neste momento, eles estão envolvidos numa corrida para o fundo do poço, lançando sistemas antes de estarem prontos, numa tentativa de manter a sua posição dominante.
O poder concentrado não é apenas um problema para os mercados. Depender de alguns atores corporativos irresponsáveis para a infraestrutura principal é um problema para a democracia, a cultura e a agência individual e coletiva. Sem uma intervenção significativa, o mercado de IA acabará recompensando e fortalecendo as mesmas empresas que colheram os lucros do modelo de negócios de vigilância invasiva que impulsionou a internet comercial, muitas vezes, à custa do público.
O escândalo da Cambridge Analytica foi apenas um entre muitos que expuseram essa realidade obscura. Essa concentração também cria pontos únicos de falha, o que gera ameaças reais à segurança. E o presidente da Comissão de Valores Mobiliários, Gary Gensler, alertou que ter um pequeno número de modelos e atores de IA na base do ecossistema representa riscos sistémicos para a ordem financeira, na qual os efeitos de uma única falha poderiam ser distribuídos de forma muito mais ampla.
A afirmação de que a IA depende da concentração de poder no setor de tecnologia — e a exacerba — foi muitas vezes recebida com resistência. Os investidores que passaram rapidamente da Web3 para o metaverso e para a IA estão ansiosos para obter retornos num ecossistema em que um ciclo de imprensa frenético impulsiona as avaliações para IPOs e aquisições lucrativas, mesmo que as promessas da tecnologia em questão nunca sejam cumpridas.
Mas a tentativa de expulsão — e subsequente reintegração — dos cofundadores da OpenAI, Sam Altman e Greg Brockman, não apenas evidencia o poder e a influência da Microsoft, mas também comprova o nosso argumento de que esses acordos comerciais dão à Big Tech um profundo controle sobre a trajetória da IA. A história é bastante simples: após ser aparentemente pega de surpresa pela decisão do conselho, a Microsoft agiu para proteger o seu investimento e o seu roteiro de lucro. A empresa rapidamente exerceu o seu peso, apoiando Altman e prometendo “adquirir” aqueles que quisessem se desvincular.
A Microsoft agora tem uma cadeira na diretoria da OpenAI, embora sem direito a voto. Mas a verdadeira vantagem que a Big Tech tem no cenário da IA é a combinação do seu poder de computação, dados e vasto alcance de mercado. Para seguir a sua abordagem “maior é melhor” no desenvolvimento de IA, a OpenAI fez um acordo. Ela licencia exclusivamente o seu sistema GPT-4 e todos os outros modelos da OpenAI para a Microsoft em troca de acesso à infraestrutura de computação da Microsoft.
Para as empresas que desejam criar modelos básicos, há poucas alternativas para trabalhar com a Microsoft, o Google ou a Amazon. E aqueles que estão no centro da IA estão bem cientes disso, conforme ilustrado pela busca furtiva de Sam Altman por investimentos soberanos da Arábia Saudita e dos Emirados Árabes num empreendimento de hardware que ele esperava que rivalizasse com a Nvidia. Essa empresa detém quase o monopólio de chips de última geração para treino de IA e é outro ponto de estrangulamento importante ao longo da cadeia de suprimentos de IA. Desde então, os órgãos reguladores dos EUA desfizeram um investimento inicial da Arábia Saudita numa empresa apoiada por Altman, a RainAI, reforçando a dificuldade que a OpenAI enfrenta para navegar no mercado ainda mais concentrado de fabricação de chips.
Há poucas alternativas significativas, mesmo para aqueles que estão dispostos a se esforçar mais para criar uma IA independente do setor. Conforme descrevemos em outro lugar, a “IA de código aberto” – um termo mal definido que atualmente é usado para descrever tudo, desde o LLaMA-2 da Meta (comparativamente fechado) e a série Pythia da Eleuther (maximamente aberta) – não pode, por si só, oferecer velocidade de escape da concentração do setor. Por um lado, muitos projetos de IA de código aberto operam por meio de créditos de computação, compartilhamento de receita ou outros acordos contratuais com gigantes da tecnologia que enfrentam as mesmas dependências estruturais. Além disso, as grandes empresas de tecnologia têm um longo legado de capturar ou tentar lucrar com o desenvolvimento de código aberto. A IA de código aberto pode oferecer transparência, reutilização e extensibilidade, e isso pode ser positivo. Mas isso não resolve o problema da concentração de poder no mercado de IA.
A saga entre a OpenAI e a Microsoft também demonstra um fato que frequentemente se perde no hype em torno da IA: ainda não há um modelo de negócios claro além do aumento dos lucros da nuvem para as grandes empresas de tecnologia, agregando serviços de IA à infraestrutura de nuvem. E um modelo de negócios é importante quando se trata de sistemas que podem custar centenas de milhões de dólares para serem treinados e desenvolvidos.
A Microsoft não está sozinha aqui: a Amazon, por exemplo, administra um mercado para modelos de IA, no qual todos os seus produtos, e alguns outros, operam usando o Amazon Web Services. Recentemente, a empresa fechou um acordo de investimento de até US$4 biliões com a Anthropic, que também se comprometeu a usar o chip interno da Amazon, o Trainium, otimizado para a criação de IA em larga escala.
As Big Techs estão se tornando cada vez mais assertivas nas suas manobras para proteger o seu domínio sobre o mercado. Não se engane: embora a OpenAI estivesse na mira desta vez, agora que todos nós vimos o que acontece com uma pequena entidade quando uma grande empresa da qual ela depende decide se flexibilizar, outras estarão a prestar atenção e entrando na fila.
A regulamentação poderia ajudar, mas a política governamental muitas vezes acaba consolidando, em vez de mitigar, o poder dessas empresas à medida que elas alavancam o seu acesso ao dinheiro e a sua influência política. Tomemos como exemplo as recentes ações da Microsoft no Reino Unido: na semana passada, ela anunciou um investimento de £2,5 bilhões na construção de uma infraestrutura de nuvem no Reino Unido, uma ação elogiada por um primeiro-ministro que claramente sinalizou as suas ambições de construir um setor de IA local no Reino Unido como o seu principal legado. Essa notícia não pode ser lida de forma isolada: é uma tentativa clara de atenuar uma investigação sobre o mercado de nuvem feita pelo órgão regulador da concorrência do Reino Unido, após um estudo que especificamente apontou preocupações registadas por uma série de participantes do mercado relativamente ao comportamento anticompetitivo da Microsoft.
Desde a ameaça (em última análise, vazia) da OpenAI de deixar a UE devido à Lei de IA até o lobby da Meta para isentar a IA de código aberto das obrigações básicas de responsabilidade, passando pela pressão da Microsoft por um licenciamento restritivo e pela campanha financiada pela Big Tech para incorporar bolsistas no Congresso, estamos a ver posturas cada vez mais agressivas de grandes empresas que estão a tentar reforçar o seu domínio exercendo o seu considerável poder económico e político.
Os gigantes do setor de tecnologia já estão a dar voltas em torno das suas carroças à medida que surgem novas regulamentações da Casa Branca, da UE e de outros lugares. Mas está claro que precisamos ir muito além. Chegou a hora de criar um regime de responsabilidade significativo e robusto que coloque os interesses do público acima das promessas de empresas que não são conhecidas por cumpri-las.
Precisamos de mandatos de transparência agressivos que eliminem a opacidade em torno de questões fundamentais, como os dados que as empresas de IA estão a acessar para treinar os seus modelos. Também precisamos de regimes de responsabilidade que imponham às empresas o ónus de demonstrar que cumprem os padrões básicos de privacidade, segurança e parcialidade antes que os seus produtos de IA sejam lançados publicamente. E para começar a lidar com a concentração, precisamos de uma regulamentação ousada que force a separação dos negócios entre as diferentes camadas da pilha de IA e não permita que a Big Tech aproveite o seu domínio na infraestrutura para consolidar a sua posição no mercado de modelos e aplicativos de IA.
Mas se os governos continuarem a dar ao mesmo grupo restrito de interesses do setor a primazia na orientação de políticas, não iremos longe.
_____________________________________________________
Amba Kak é diretora-executiva e Sarah Myers West é diretora administrativa do AI Now Institute, uma organização de pesquisa de políticas com sede em Nova York voltada para a inteligência artificial. Meredith Whittaker, presidente da Signal, é a principal consultora do instituto.