O documentário Coded Bias, da cientista e investigadora Joy Buolamwini, finalmente está acessível a todos os utilizadores da Netflix. Antes disso, tive a oportunidade de assisti-lo duas vezes, uma delas com direito a uma mesa de debate organizada pela distribuidora do documentário. Agora, após assistir ao documentário pela terceira vez, separei alguns pontos importantes para quem está a tentar ter um contato inicial com o tema.
Em primeiro lugar, é preciso dizer que Coded Bias aborda de forma espetacular um conceito muito importante para a atualidade, que é a visão computacional. Uma área da Ciência da Computação que trabalha com imagens ou dados multidimensionais com o objetivo de extrair informações desses formatos.
A diretora do documentário, Joy Buolamwini, enquanto pesquisava no MIT Media Lab, decidiu realizar um projeto intitulado “espelho mágico”, e durante os testes percebeu que o software não a reconhecia, mas bastou colocar uma máscara branca e o software a reconheceu. Assim mesmo! O choque de estar frente a frente com algoritmos que não foram pensados para pessoas negras aconteceu. O documentário explica tudo isso em detalhes, e é possível visualizar como esta, ao se deparar com um problema como este, antes de mais nada, começa a pesquisar a fundo as origens dos algoritmos e também a se conectar com investigadoras que estavam a enfrentar os mesmos perigos.
O segundo ponto, que só existe por causa do primeiro, é que o documentário coloca as diferentes realidades e impactos de softwares assim na sociedade. Ao mesmo tempo que Joy tenta entender os vieses nos algoritmos de reconhecimento facial, em Hong Kong acontece uma manifestação da sociedade civil contra o uso desta tecnologia em ambientes públicos. A ferramenta estava a ser utilizada para rastrear manifestantes, facto amplamente noticiado em 2019. Um caso similar aqui no Brasil é o uso de reconhecimento facial na segurança pública, que levanta questões e gera controvérsias porque os resultados sempre apontam pessoas negras como suspeitas.
Exibir diferentes realidades e impactos de uma tecnologia é essencial quando queremos levantar questões e reflexões sobre os seus usos. É normal o discurso de que tecnologia foi pensada para tornar o dia a dia mais fácil, mas e quando acontece o contrário? O que fazemos?
O terceiro ponto que permeia o documentário é o facto de expressar como o Machine Learning é uma caixa preta até mesmo para os programadores. Diversos investigadores e cientistas renomados apontam os perigos da indústria utilizar IA a partir de um discurso de que tudo hoje tem que necessariamente usar essa tecnologia. Recentemente Michael I. Jordan, cientista considerado um dos pioneiros em Machine Learning deu uma entrevista para IEEE Spectrum, uma publicação importante da área criado pelo IEEE, na qual afirma que deveríamos parar de chamar tudo de “IA” ou utilizar o conceito para resolver todos os problemas. Segundo Jordan, “as pessoas estão a ficar confusas sobre o significado da IA nas discussões sobre tendências tecnológicas — existe algum tipo de pensamento inteligente nos computadores que é responsável pelo progresso e que está a competir com os humanos”. “Não temos isso, mas as pessoas estão a falar como se tivéssemos”, conclui. Essa visão complementa-se a como “avançamos” no discurso sobre área de IA e menos em repensar o seu impacto prático na sociedade.
O último ponto que destaco no documentário, especialmente para quem está a dar o primeiro passo sobre ética em IA, são as inúmeras referências apresentadas. São investigadores, publicações e casos para ajudar a entender o contexto de tudo isso. Cathy O’Neil e Meredith Broussard são investigadoras que apresentam os seus pontos de vista, estão há algum tempo a apontar os perigos das tecnologias e redes sociais. Além disso, o documentário mostra as universidades e laboratórios que estão a contribuir com as pesquisas sobre ética em IA.
No Brasil ainda estamos a dar passos pequenos, mas já temos iniciativas importantes como a do Departamento de Informática da PUC-Rio — do qual tenho orgulho de ser aluna — que criou o grupo Valores Humanos e Ética na Informática (VHEI), formado pelos professores Markus Endler, Daniel Schwabe, Clarisse Sieckenius de Souza, Edward Hermann Haeusler, Marcos Kalinowski, Sérgio Lifschitz, Simone Barbosa, Anderson Silva e Júlio Leite. Há também disciplina com o mesmo nome do grupo que é dada na pós-graduação.
Iniciativas como o documentário Coded Bias e o grupo de pesquisa são importantes para trazer mais para perto dos pensadores e criadores de código a reflexão durante essas criações. Não basta apenas saber programar ou entregar uma solução, é preciso compreender os impactos das tecnologias.
Além dos aspectos descritos aqui, outro ponto que me atraiu em Coded Bias é a linguagem e a forma escolhidas pela diretora. Traz um tom diferente daquele apresentado pelo “Dilema das Redes”, pois não são só investigadores a falar, há participação da sociedade nas discussões. Numa das cenas, Joy aparece a conversar e a tentar entender com moradores de uma região os motivos que os levam a não sentirem confiança no uso de reconhecimento facial na vizinhança.
O documentário deixa um recado claro para a sociedade e sobretudo para as Big Techs: não existe pensar em soluções tecnológicas sem pensar nas consequências para a sociedade e sem a participação da sociedade. Não existe IA inclusiva se ela não reconhece uma raça ou se ela só direciona determinadas ações para um género. É realmente injusto que as empresas criem e disponibilizem ferramentas sem saber as reais consequências e pensar nas prevenções.
Artigo Nino da Hora, Autor – MIT Technology Review Portugal