Jess Whittlestone, do Centro de Leverhulme para o Futuro da Inteligência, na Universidade de Cambridge, e os seus colegas publicaram um artigo de opinião na Nature Machine Intelligence em junho, argumentando que se a inteligência artificial vai ajudar numa crise, precisamos de uma maneira nova e mais rápida de criar ética para a IA, ao que chamam de ética por urgência.
JESS WHITTLESTONE
Para Whittlestone, isto significa antecipar problemas antes que aconteçam, encontrar melhores maneiras de incorporar segurança e confiabilidade aos sistemas de IA e enfatizar o conhecimento técnico em todos os níveis de desenvolvimento e uso da tecnologia. No centro dessas recomendações está a ideia de que a ética precisa de se tornar simplesmente uma parte de como a IA é feita e usada, em vez de um complemento ou uma reflexão tardia.
Por fim, a IA quando associada à ética, pode ser implementada mais rapidamente quando necessário, argumenta. Pedimos-lhe que falasse sobre o que isto significa na entrevista abaixo.
Por que é que precisamos de um novo tipo de ética para a IA?
Com esta pandemia, de repente estamos numa situação em que as pessoas estão realmente a debater sobre se a IA poderia ser útil, se poderia salvar vidas. Mas a crise deixou claro que não temos procedimentos de ética suficientemente robustos para que a IA seja implantada com segurança, e certamente nenhum que possa ser implementado rapidamente.
O que há de errado com a ética que temos?
Passei os últimos dois anos a analisar iniciativas de ética em IA, as suas limitações e à procura das que mais precisamos. Em comparação com a ética biomédica, por exemplo, a ética que temos para a IA não é muito prática. Concentra-se demasiado nos princípios de alto nível. Todos podemos concordar que a IA deve ser usada para o bem. Mas o que é que isso realmente significa? E o que acontece quando esses princípios entram em conflito?
Por exemplo, a IA tem potencial para salvar vidas, mas pode custar liberdades civis, como a privacidade. Como lidar com estas concessões de maneira a que seja aceitável para muitas pessoas diferentes? Precisamos decidir e planear como lidar com as inevitáveis divergências.
A ética na IA também tende a responder a problemas existentes, em vez de antecipar novos. A maioria das problemáticas a serem discutidas hoje em dia surgiram apenas quando questões de alto nível deram errado, como nas decisões de policiamento e liberdade condicional.
Mas a ética precisa ser proativa e preparar-se para o que pode dar errado, e não para o que já deu. Obviamente, não podemos prever o futuro. Porém, à medida que estes sistemas se tornam mais poderosos e se acostumam a situações de alto risco, os erros serão ainda maiores.
Que oportunidades perdemos por não dispormos desses procedimentos?
É fácil exagerar no que seria possível, mas é pouco provável que a IA desempenhasse um grande papel nesta crise. Os sistemas de machine learning não são maduros o suficiente.
Há alguns casos em que a IA está a ser testada para diagnóstico médico ou para alocação de recursos entre hospitais. Podíamos ter sido capazes de usar estes tipos de sistemas de maneira mais ampla, reduzindo parte da carga da assistência médica, se tivessem sido desenhados desde o início com a ética em mente.
Com a alocação específica de recursos, está a decidir quais pacientes são de maior prioridade. É necessário construir uma estrutura ética antes de usar a IA neste tipo de decisões.
Então a ética de urgência é simplesmente um apelo para melhorar a ética já existente na IA?
Em partes, sim. O facto de não termos processos práticos e robustos para a ética na IA dificulta a situação em cenário de crise. Mas em tempos como esse, também surge uma maior necessidade de transparência. Fala-se muito sobre a falta de transparência nos sistemas de machine learning como as caixas-pretas. Mas há outro tipo de transparência, referente à forma como os sistemas são usados.
É especialmente importante numa crise, quando governos e organizações estão a tomar decisões urgentes que envolvem um certo equilíbrio. A quem devemos priorizar a saúde? Como salvar vidas sem destruir a economia? Se uma IA está a ser usada na tomada de decisões públicas, a transparência é mais importante do que nunca.
O que é preciso mudar?
Precisamos de pensar na ética de forma diferente. Não deve ser algo que acontece separadamente ou mais tarde, algo que diminua o nosso ritmo. Simplesmente, deveria fazer parte de como construímos os sistemas de raiz: ética a partir do próprio projeto.
Às vezes sinto que “ética” é a palavra errada. O que defendemos é que investigadores e engenheiros de machine learning necessitam ser treinados para refletirem sobre as implicações do que estão a construir, estejam eles a fazer pesquisas fundamentais, como projetar um novo algoritmo de reinforcement-learning (em tradução livre, aprendizagem por reforço) ou algo mais prático como desenvolver um sistema de assistência médica. Se o trabalho for direcionado para produtos e serviços do mundo real, como será isto? Que tipos de questões pode suscitar?
Algumas já começaram a aparecer. Estamos a trabalhar com alguns investigadores de IA que no início da sua carreira, e a discutir com eles sobre como trazer esta forma de pensar para o seu trabalho. É como uma experiência para ver o que acontece. Mas até o NeurIPS [uma importante conferência de IA] agora pede aos investigadores que incluem uma declaração no final das suas pesquisas a descrever os possíveis impactos sociais dos seus trabalhos.
Disse que precisamos de pessoas com conhecimento técnico em todos os níveis de projeto e uso de IA. Porquê?
Não estou a dizer que o conhecimento técnico seja a essência da ética, mas é uma perspectiva que precisa ser representada. Não quero parecer que estou a dizer que toda a responsabilidade é dos pesquisadores, porque muitas das decisões importantes sobre como a IA é usada são tomadas mais adiante na pirâmide, pela indústria ou governos.
Preocupo-me que as pessoas que estão a tornar essas decisões, nem sempre entendem completamente como isto pode dar errado. É preciso envolver pessoas com conhecimento técnico. As nossas intuições sobre o que a IA pode ou não fazer não são muito confiáveis.
O que precisa em todos os níveis de desenvolvimento de IA são pessoas que realmente entendem os detalhes do machine learning para trabalharem com outras que entendem a ética. No entanto, a colaboração interdisciplinar é difícil. Pessoas com diferentes áreas de especialização costumam falar sobre as coisas de maneiras diferentes. O que um investigador de machine learning quer dizer com privacidade pode ser muito diferente do que um advogado pensa sobre o assunto, e pode acabar por ter pessoas a falar umas por cima das outras. Por isso é importante que esses diferentes grupos se acostumem a trabalharem juntos.
Luta por uma grande reforma institucional e cultural. O que a faz pensar que as pessoas vão querer fazer isso ao invés de criar conselhos de ética ou comités de supervisão – que sempre me fazem suspirar um pouco porque tendem a ser ineficazes?
Sim, eu também suspiro. Mas acho que esta crise está a forçar as pessoas a verem a importância de soluções práticas. Talvez, em vez de dizer: “Oh, vamos ter esse e aquele conselho de supervisão”, as pessoas dirão: “Precisamos fazer isso e precisamos fazê-lo corretamente”.
Artigo original escrito por Will Douglas Heaven, da equipa do MIT Technology Review (EUA) (adaptado).