Um novo projeto de lei permitirá consumidores processar empresas por danos, mas só se provarem que a Inteligência Artificial da companhia foi a responsável por eles mesmos.
A União Europeia (UE) está a criar novas regras para tornar mais fácil processar empresas de Inteligência Artificial (IA) por danos. Um projeto de lei divulgado no final de setembro do ano passado, que será provavelmente sancionado em poucos anos, faz parte da tentativa da Europa em prevenir que programadores de IA implementem sistemas perigosos. E enquanto empresas da área de tecnologia reclamam que essa regulamentação pode ter efeitos paralisantes na inovação, ativistas pela defesa do consumidor dizem que esta não é abrangente o suficiente.
Tecnologias poderosas de IA estão cada vez mais a moldar as nossas vidas, relacionamentos, e sociedades, e os seus malefícios são muito bem documentados. Algoritmos de redes sociais intensificam a desinformação, sistemas de reconhecimento facial são altamente discriminatórios com frequência, e sistemas de IA preventiva usados para aprovar ou rejeitar empréstimos podem ser menos precisos com minorias.
O novo projeto de lei, chamado de AI Liability Directive, irá reforçar a Lei da IA europeia da UE, que deve ser sancionada por volta da mesma época. A Lei da IA europeia exigirá procuras extras para verificação de usos de IA de “alto risco” que tenham maior potencial para prejudicar as pessoas, incluindo sistemas de vigilância, recrutamento ou serviços médicos.
Além disso, daria o direito às pessoas e empresas de abrirem processos por danos após serem lesados por um sistema de IA. O objetivo é responsabilizar programadores, produtores e utilizadores dessas tecnologias, e exigir uma explicação por parte deles de como os seus sistemas foram construídos e treinados. Empresas do setor de tecnologia que não conseguissem seguir as regras correriam o risco de sofrer uma ação judicial coletiva por parte da UE.
Por exemplo, candidatos a empregos que consigam provar que um sistema de IA para triagem de currículos discriminou-os podem solicitar a um tribunal para que force a empresa a conceder acesso às informações sobre o sistema para que possam identificar responsáveis e descobrir o que houve de errado. Equipados com essa informação, podem abrir um processo.
A proposta ainda precisa passar pelo processo legislativo da UE, o que tomará pelo menos alguns anos. Esta será alterada por membros do Parlamento Europeu e governos da UE e irá provavelmente encarar uma pressão intensa por parte das empresas de tecnologia, cujas alegações são de que tais regras podem causar um efeito “paralisante” na inovação.
Independentemente do seu sucesso, essa nova legislação da UE terá um efeito cascata em como a IA é regulamentada ao redor do mundo.
Em particular, o projeto de lei pode ter um impacto negativo no desenvolvimento de software, diz Mathilde Adjutor, gerente de políticas Europeias do grupo de lobistas tecnológico CCIA, que representa empresas como a Google, Amazon e Uber.
Com as novas regras, “programadores não correm somente o risco de serem responsabilizados por erros de software, mas também por seu potencial impacto na saúde mental dos utilizadores,” diz ela.
Imogen Parker, diretora associada de políticas do Ada Lovelace Institute, um instituto de pesquisa na área de IA, diz que esse projeto de lei tirará o poder das mãos das empresas e o entregará de volta para os consumidores, uma correção que vê como especialmente importante dado o potencial para discriminação por parte das inteligências artificiais. O projeto irá garantir que quando uma IA causar danos, existirá uma maneira comum para buscar compensação em toda a UE, diz Thomas Boué, chefe de políticas públicas Europeias do grupo de lobistas BSA, o qual inclui membros como Microsoft e IBM.
No entanto, algumas instituições de direitos do consumidor e ativistas dizem que as propostas não são suficientemente abrangentes e estabelecerão um padrão muito alto para consumidores que quiserem fazer reivindicações.
Ursula Pachl, vice-diretora-geral da Organização Europeia do Consumidor, diz que a proposta é uma “grande deceção,” porque coloca a responsabilidade nos consumidores para provar que uma IA os lesou ou que um desenvolvedor foi negligente.
“Num mundo de sistemas de IA ‘caixas pretas’ altamente complexos e sigilosos, será praticamente impossível para o consumidor usar das novas regras,” diz Pachl. Por exemplo, será extremamente difícil provar que uma discriminação racial contra alguém ocorreu por conta do modo como um sistema de avaliação de crédito foi configurado, diz ela.
O novo regulamento também não leva em consideração os danos causados indiretamente por sistemas de IA, diz Claudia Prettner, representante da UE no Future of Life Institute, uma organização sem fins lucrativos com foco no risco existencial da IA. Uma versão aprimorada do projeto responsabilizaria as empresas quando as suas ações causassem danos sem necessariamente existir culpa, como as regras que já existem para carros ou animais, adiciona Prettner.
“Sistemas de IA são frequentemente construídos para um determinado propósito, mas podem levar a danos inesperados em outras áreas. Algoritmos de redes sociais, por exemplo, foram construídos para maximizar o tempo gasto nas plataformas, mas inadvertidamente intensificaram a polarização do seu conteúdo,” diz ela.
A UE quer que sua Lei da IA Europeia seja o padrão de excelência global para a regulamentação da IA. Outros países como os Estados Unidos (EUA), onde alguns esforços já estão em andamento para regulamentar a tecnologia, estão de olho nisso. A Comissão Federal do Comércio dos EUA está a considerar estabelecer regras sobre como empresas manuseiam dados e constroem algoritmos, além de já ter compelido empresas que haviam coletado dados ilegalmente a apagarem seus algoritmos.
Independentemente do seu sucesso, essa nova legislação da UE terá um efeito cascata em como a IA é regulamentada ao redor do mundo. “É do interesse dos cidadãos, empreendimentos e legisladores que a UE regule corretamente o mundo da IA. Sem isso, não é possível fazer a IA trabalhar para o povo e a sociedade,” diz Parker.