Governança

Guia preliminar para a criação de políticas voltadas para a Inteligência Artificial Generativa

Como os legisladores estão a pensar sobre os riscos da última revolução tecnológica.

Em março, conversei com uma professora de política em Washington (EUA), que me disse que alunos e colegas da área estão querendo saber mais sobre o GPT-4 e a Inteligência Artificial (IA) generativa: o que deveriam estar a ler? Até que ponto devem se preocupar?

Ela queria saber se eu tinha alguma sugestão e perguntou a minha opinião sobre todos os novos avanços e o que eu achava que significavam para os legisladores. Passei alguns dias a pensar, a ler e a conversar com especialistas sobre isso, e a minha resposta se transformou neste texto.

Embora o GPT-4 seja o modelo de referência, ele é mais um dos muitos lançamentos de maior destaque de IA generativa nos últimos meses de uma das principais empresas da área: outras organizações como o Google, a Nvidia, Adobe e Baidu anunciaram seus próprios projetos. Basicamente, todo mundo está falando sobre IA generativa. E embora a tecnologia não seja nova, ainda levarão meses, senão anos, para que suas implicações políticas sejam compreendidas.

O GPT-4, lançado pela OpenAI em meados de março, é um grande modelo de linguagem multimodal que usa deep learning para prever palavras em uma frase. Ele gera um texto surpreendentemente fluente e pode reagir a imagens, bem como a instruções escritas. Para clientes pagantes, o GPT-4 potencializará o ChatGPT, que já foi incorporado a aplicações comerciais.

A mais nova versão causou grande impacto, e Bill Gates a chamou de “revolucionária” em uma carta escrita no fim de março. No entanto, a OpenAI também foi criticada por falta de transparência sobre como o modelo foi treinado e avaliado no que diz respeito ao enviesamento da ferramenta.

Apesar de toda a empolgação em torno do assunto, a IA generativa apresenta riscos significativos. A internet, um repositório tóxico de conteúdo, é usada extensivamente para treinar esses modelos, o que muitas vezes gera argumentos e materiais racistas e sexistas. Eles também inventam coisas com frequência e as declaram com confiança convincente. Do ponto de vista da desinformação, isto pode ser um pesadelo, e pode tornar golpes mais persuasivos e prolíficos.

As ferramentas generativas de IA também são ameaças potenciais à segurança e à privacidade das pessoas, além de terem pouca consideração pelas leis de direitos autorais. Como resultado, empresas que usam IA generativa que roubaram o trabalho de terceiros já estão sendo processadas.

Alex Engler, pesquisador em estudos de governança da Brookings Institution, refletiu como os formuladores de políticas deveriam pensar sobre isso e identificou dois tipos principais de riscos que eles deveriam se atentar: aos danos decorrentes pelo uso malicioso e danos

causados pelo uso comercial. Usos maliciosos da tecnologia, como práticas voltadas para a desinformação, a automatização do discurso de ódio e fraude, “têm muito em comum no que diz respeito a moderação de conteúdo”, disse Engler em um e-mail, “e a melhor maneira de lidar com esses riscos é provavelmente por meio da governança da plataforma”. (Se você quiser saber mais sobre isso, recomendo ouvir a este episódio do podcast Sunday Show, da Tech Policy Press, onde Justin Hendrix, editor e palestrante sobre tecnologia, mídia e democracia, fala com uma comissão de especialistas sobre se os sistemas generativos de IA deveriam ser regulados de forma semelhante aos algoritmos de pesquisa e recomendação. (Dica: Seção 230.)

Até agora, as discussões políticas sobre IA generativa se concentraram nos riscos do uso comercial da tecnologia, como programação de software ou publicidade exagerada. E nesse contexto, o governo dos EUA adotou medidas tímidas, mas notáveis, principalmente por meio da Comissão Federal de Comércio (FTC, pela sigla em inglês). Por exemplo, em fevereiro, a FTC emitiu um comunicado de advertência às empresas instando-as a não fazer alegações sobre capacidades técnicas que não possam comprovar, como exagerar o que a IA pode fazer. No final de março, publicaram no blog de negócios da comissão um artigo onde foram ainda mais enfáticos sobre os riscos que as empresas devem considerar ao usar IA generativa.

“Se você desenvolver ou oferecer uma mídia sintética ou um produto de IA generativo, considere maneiras razoavelmente previsíveis, e muitas vezes óbvias, de como isso pode ser usado indevidamente para fraude ou causar outros danos logo na fase inicial de desenvolvimento e nas posteriores. Então, pergunte a si mesmo se esses riscos são altos o suficiente para que você não deva disponibilizar o produto”, diz a postagem do blog.

O Escritório de Direitos Autorais dos EUA também lançou uma nova iniciativa destinada a lidar com as espinhosas questões políticas sobre IA, atribuição e propriedade intelectual.

Enquanto isso, a União Europeia (UE) mantém-se fiel à sua reputação de líder mundial em política tecnológica. No início deste ano, a jornalista Melissa Heikkilä escreveu sobre as iniciativas da UE para tentar aprovar a Lei da IA europeia. A lei consiste em um conjunto de regras que impediria as empresas de lançarem modelos sem divulgar como ocorre seu funcionamento interno, que é exatamente a crítica de alguns especialistas que acusam a OpenAI e o GPT-4.

A UE pretende separar os usos de alto risco da IA, como contratação, aplicações legais ou financeiras, dos usos de menor risco, como videogames e filtros anti-spam, e exigir mais transparência em relação aos usos mais sensíveis e sigilosos. A OpenAI concordou com algumas das preocupações sobre a rapidez da adoção dos modelos. Na verdade, o próprio CEO da empresa, Sam Altman, disse à ABC News que compartilha muitos dos mesmos medos. No entanto, a organização ainda não está divulgando dados importantes sobre o GPT-4.

Para os especialistas políticos em Washington (EUA), Bruxelas (Bélgica), Londres (Reino Unido) e escritórios em todo o mundo, é importante entender que a IA generativa veio para ficar. Sim, há toda uma grande empolgação sobre o assunto, mas os avanços recentes na IA são tão reais e importantes quanto os riscos que representam.

Nossos tópicos