A IA de código aberto está em todo o lado atualmente. O problema é que ninguém concorda com o que ela é realmente. Agora, poderemos finalmente ter uma resposta. A Open Source Initiative (OSI), árbitra autoproclamada do que significa ser de código aberto, divulgou uma definição nova, que espera ajudar os legisladores a desenvolver regulamentos para proteger os consumidores dos riscos associados à IA.
Embora a OSI tenha várias publicações sobre o que constitui a tecnologia de código aberto em outras áreas, esta é a sua primeira tentativa de definir o termo para modelos de IA. A OSI solicitou a um grupo de 70 pessoas, formado por investigadores, advogados, decisores políticos e ativistas, bem como por representantes de grandes empresas de tecnologia como a Meta, a Google e a Amazon, que elaborasse a definição funcional.
Segundo o grupo, um sistema de IA de código aberto pode ser usado para qualquer finalidade sem ser necessária permissão, e os investigadores devem poder inspecionar os seus componentes e estudar como o sistema funciona.
Também deve ser possível modificar o sistema para qualquer objetivo, incluindo para alterar os seus resultados, e partilhá-lo com outras pessoas para que o utilizem, com ou sem modificações, para qualquer objetivo. Para além disso, o padrão tenta definir um nível de transparência para os dados de treino, o código-fonte e os pesos de um determinado modelo.
A falta de um padrão de código aberto representava um problema. Apesar de sabermos que as decisões das empresas OpenAI e Anthropic de manterem os seus sistemas, conjuntos de dados e algoritmos em segredo tornam a sua IA em código fechado, alguns especialistas argumentam que os modelos de acesso público da Meta e da Google, que podem ser inspecionados e adaptados por qualquer pessoa, também não são verdadeiramente de código aberto. As razões para isso são as licenças que restringem o que os utilizadores podem fazer com os modelos e a falta de divulgação pública dos conjuntos de dados de treino. A Meta, a Google e a OpenAI foram contactadas para comentar a nova definição, mas não responderam antes da publicação.
“Sabe-se que as empresas utilizam indevidamente o termo ao comercializar os seus modelos”, diz Avijit Ghosh, investigador de políticas aplicadas da Hugging Face, uma plataforma para criar e partilhar modelos de IA. A descrição dos modelos como sendo de código aberto pode fazer com que sejam considerados mais confiáveis, mesmo que os investigadores não possam investigar independentemente se são realmente de código aberto.
Ayah Bdeir, uma conselheira principal da Mozilla que participou no processo da OSI, diz que foi relativamente fácil concordar com certas partes da definição de código aberto, incluindo a necessidade de revelar os pesos dos modelos (os parâmetros que ajudam a determinar a forma como um modelo de IA gera um resultado). Outras partes das deliberações foram mais contenciosas, sobretudo a questão do nível de divulgação dos dados de treino.
A falta de transparência sobre a origem dos dados de treino levou a inúmeras ações judiciais contra grandes empresas de IA, desde fabricantes de vastos modelos de linguagem, como a OpenAI, a geradores de música, como o Suno, que não divulgam muito sobre os seus conjuntos de treino para além de informar que contêm informações acessíveis ao público. Em resposta, alguns defensores dizem que os modelos de código aberto devem divulgar todos os seus conjuntos de treino, um padrão que, segundo Ayah, seria difícil de aplicar devido a complicações como os direitos autorais e a propriedade de dados.
Em última análise, a nova definição exige que os modelos de código aberto forneçam informações sobre os dados de treino na medida em que “uma pessoa qualificada possa recriar um sistema substancialmente equivalente usando os mesmos dados, ou semelhantes”. Não se trata de um requisito geral de partilha de todos os conjuntos de dados de treino, mas também vai além do que muitos modelos proprietários ou mesmo modelos alegadamente de código aberto fazem atualmente. Trata-se de um compromisso.
“Insistir num tipo de padrão de ouro ideologicamente imaculado que, na verdade, não será efetivamente cumprido por ninguém, acaba por ter o efeito contrário ao desejado”, diz Ayah. Ela acrescenta que a OSI está a planear um tipo de mecanismo de fiscalização que irá identificar modelos descritos como sendo de código aberto, mas que não atendem à sua definição. A OSI também pretende divulgar uma lista de sistemas de IA que correspondem à nova definição. Embora nenhum esteja confirmado, os modelos que, de acordo com o que Ayah afirmou à MIT Technology Review americana, devem entrar na lista são nomes relativamente pequenos, incluindo Pythia da EleutherAI, OLMo da Ai2, e modelos da iniciativa LLM360.