O estudo “The ethics of artificial intelligence: Issues and initiatives” afirma que o princípio da responsabilidade e prestação de contas exige que a Inteligência Artificial seja auditável, ou seja, os programadores, proprietários e operadores da tecnologia são responsáveis por prestar contas pelos comportamentos ou decisões de um sistema de IA.
Isso quer dizer que tais agentes são responsáveis pelas implicações morais ou éticas de seu uso, mau uso e comportamento e têm a responsabilidade e a oportunidade de moldar essas implicações.
A ética da Inteligência Artificial é uma área de pesquisa muito ampla e, embora vários artigos de revisão tenham sido publicados nos últimos anos, cada um deles se concentra num determinado aspecto ético da tecnologia.
Por exemplo, a pesquisa “Privacy and security issues in deep learning: A survey” foi dedicada a investigar os problemas de privacidade e segurança do uso de deep learning, enquanto a obra “Ethics and privacy of artificial intelligence: Understandings from bibliometrics” mapeia os principais problemas de privacidade usando a abordagem bibliométrica.
Entre o vasto leque focal dessas aplicações, a “Recomendação sobre a Ética da Inteligência Artificial”, desenvolvida pela UNESCO, é um documento agregador sobre o assunto, que estabelece valores, princípios e áreas de ação para orientar o desenvolvimento e o uso da Inteligência Artificial de forma ética, humana e sustentável.
A lista dos princípios, sobretudo, chama atenção ao propósito desse artigo:
- Proporcionalidade e não causar dano;
- Segurança e proteção; justiça e não discriminação;
- Sustentabilidade;
- Direito à privacidade e proteção de dados;
- Supervisão humana e determinação;
- Transparência e explicabilidade;
- Responsabilidade e prestação de contas;
- Conscientização e alfabetização;
- Governança e colaboração adaptáveis e com múltiplas partes interessadas.
Sobre direito à privacidade e proteção de dados, a Recomendação da UNESCO diz: “a privacidade, um direito essencial para proteger a dignidade, a autonomia e a capacidade de ação humanas, deve ser respeitada, protegida e promovida pelos sistemas de IA. É importante que os dados destinados a tais sistemas sejam coletados, utilizados, compartilhados, arquivados e apagados de modos compatíveis com o direito internacional e alinhados com os valores e princípios estabelecidos na presente recomendação, respeitando os marcos jurídicos nacionais, regionais e internacionais relevantes”.
A efeito de medida, o uso dos sistemas de Inteligência Artificial deve ser um ambiente claro a despeito de questões sobre propriedade intelectual, tais quais definição de autoria e titularidade dos direitos autorais de um conteúdo produzido ou não pela tecnologia.
Quem seria o autor ou o dono da obra: a máquina, o programador, o usuário, o fornecedor de dados ou uma mistura deles? Como estabelecer critérios e regras para determinar a autoria e a titularidade em um contexto de colaboração e cocriação entre humanos e máquinas?
A autoria é o reconhecimento da pessoa física que criou a obra e a titularidade é o direito de explorar economicamente a obra. No entanto, nem sempre esses conceitos são claros ou aplicáveis quando se trata de obras geradas por IA.
Critérios e regras para determinar autoria e titularidade em uma obra produzida por IA
Alguns possíveis critérios e regras para determinar a autoria e a titularidade são:
- O critério da originalidade: exige que a obra seja fruto da criatividade e da expressão do autor – não de uma mera reprodução ou imitação de obras alheias. Esse critério pode ser usado para avaliar se a Inteligência Artificial apenas copiou ou modificou obras existentes ou se criou algo novo e distinto;
- O critério da contribuição: exige que o autor tenha participado efetivamente da criação da obra – não apenas fornecido os meios ou os dados para a Inteligência Artificial. Esse critério pode ser usado para avaliar se o programador, o usuário, o fornecedor de dados ou outro agente teve algum papel na concepção, na execução ou na finalização da obra;
- O critério da intenção: exige que o autor tenha manifestado a vontade de criar e de reivindicar a obra como sua, e não apenas deixado a Inteligência Artificial agir por conta própria. Esse critério pode ser usado para avaliar se houve um propósito ou um objetivo na criação da obra e se houve uma declaração ou uma atribuição da autoria.
Esses critérios podem ser combinados ou ponderados de acordo com cada caso concreto, levando em conta as características da obra, da tecnologia e dos envolvidos. Além disso, podem ser complementados por normas e princípios que orientem o uso ético e sustentável da Inteligência Artificial, respeitando os direitos e os deveres de todos os envolvidos.
Outra questão é sobre a garantia do respeito aos direitos autorais de terceiros quando se utiliza IA para criar conteúdo. Como prevenir que a máquina copie, reproduza ou modifique obras alheias sem permissão ou sem dar os devidos créditos? Como monitorar e punir eventuais violações ou infrações?
Procedência e qualidade de dados gerados por Inteligência Artificial
Existe um forte debate sobre a procedência e a qualidade dos dados que alimentam os sistemas de Inteligência Artificial. No caso de qualquer informação sigilosa, qual é sua origem? Quem a está fornecendo? De que forma foi coletada? Como é validada?
Essas perguntas são importantes para garantir que os dados sejam confiáveis, relevantes e representativos – e que não sejam obtidos ou usados sem o consentimento ou o conhecimento dos titulares. Os questionamentos vão além: qual é o objetivo do uso dos dados? Quem os usa? Como são usados? Como são compartilhados? Como são protegidos?
Ainda sobre direito à privacidade e proteção de dados, a Recomendação da UNESCO diz: “marcos de proteção de dados e quaisquer mecanismos relacionados devem ter como referência os princípios e normas internacionais de proteção de dados relativos à coleta, ao uso e à divulgação de dados pessoais e ao exercício dos direitos pelos titulares dos dados, garantindo ao mesmo tempo um objetivo legítimo e uma base jurídica válida para o processamento de dados pessoais, incluindo o consentimento consciente”.
Tal princípio levanta a discussão sobre a responsabilidade e a prestação de contas do uso dos dados. Quem é responsável pelos danos ou prejuízos causados pela tecnologia? Essas perguntas, por sua vez, são importantes para garantir que haja uma accountability e uma reparação de eventuais erros ou violações envolvendo os dados gerados pela IA.
Privacidade e segurança de dados no mundo corporativo
De acordo com o estudo “Privacy and security of big data in AI systems: A research and standards perspective”, o desempenho da tecnologia depende fortemente dos dados de treinamento. O uso indevido, como adulteração de informações pessoais, são questões éticas graves que estão intimamente relacionadas a cada indivíduo, instituição e organização.
Esses dados podem ser de qualquer natureza e podem ser coletados, analisados e compartilhados por diferentes agentes e plataformas. De um lado da moeda esse efeito é capaz de trazer personalização, otimização e previsão, mas do outro também pode acarretar violação, exposição ou manipulação.
Isso levanta o debate sobre responsabilidade e prestação de contas sobre os resultados dos sistemas de Inteligência Artificial, que podem ser positivos ou negativos, intencionais ou não intencionais, previsíveis ou imprevisíveis.
Sob a perspectiva positiva, intencional e previsível, empresas e o mundo corporativo operarão com maior transparência e confiança entre seus stakeholders (clientes, colaboradores, fornecedores e parceiros) por meio de mecanismos de controle, auditoria e prestação de contas.
Esses mecanismos são formas de garantir que a IA seja usada de forma ética, legal e responsável e que os resultados sejam verificáveis, explicáveis e corrigíveis.
Controlo é o mecanismo que visa definir e monitorizar as normas, os padrões e os limites para o uso da tecnologia, bem como avaliar o seu desempenho e o seu impacto. Pode ser feito por meio de leis, regulamentos, códigos de conduta ou certificações, que estabeleçam os direitos e os deveres dos envolvidos no uso da Inteligência Artificial.
A auditoria, por sua vez, visa verificar e validar o uso da IA, bem como identificar e reportar possíveis erros, falhas ou violações. Tais atividades podem ser realizadas por órgãos, entidades ou profissionais independentes e qualificados, que tenham acesso aos dados, aos algoritmos e aos modelos da máquina.
A prestação de contas tem como intuito comunicar e justificar o uso da Inteligência Artificial, bem como assumir e reparar as consequências. Canais de informação, comunicação e participação, que permitam aos stakeholders saber como a tecnologia funciona e quais são os seus riscos e benefícios, permitem que ela seja realizada.
Além disso, ela pode ser feita por meio de sistemas de feedback, reclamação e recurso, que permitam aos stakeholders expressar suas opiniões, insatisfações ou contestações sobre a tecnologia.
Sob a perspectiva negativa, intencional e imprevisível, as consequências sobre privacidade e segurança de dados podem ser no mínimo invasivas – para não soar catastrófico.
Sistemas algorítmicos exigem um uso inovador da privacidade.
Usando de um último trecho sobre o princípio de direito à privacidade e proteção de dados, a Recomendação da UNESCO diz: “sistemas algorítmicos exigem avaliações adequadas de impacto na privacidade, as quais também incluem considerações sociais e éticas de sua utilização e um uso inovador da privacidade pela abordagem de projeto. Os atores de IA devem garantir sua responsabilidade pelo projeto e pela implementação de sistemas de IA, de modo a assegurar que as informações pessoais sejam protegidas durante todo o ciclo de vida dos sistemas de IA”.
A UNESCO reforça a importância de respeitar o direito à privacidade e à proteção de dados das pessoas que são afetadas pela Inteligência Artificial, ao mesmo passo que reconhece os desafios e as oportunidades que a tecnologia traz para a sociedade e para o desenvolvimento humano. Por isso, propõe uma abordagem ética e humana que oriente os atores de IA a projetar e implementar seus sistemas de forma responsável, transparente e inclusiva.
Nesse pacote está incluso o uso inovador da privacidade nos projetos que envolvam Inteligência Artificial, ou em outras palavras, medidas adequadas de prevenção, mitigação e monitoramento de riscos, mecanismos de garantia em um cenário que ainda nos soa um tanto quanto incerto, mas cujos rumos já estão a ser definidos.
Este artigo foi escrito por Bruno Nardon, na MIT Technology Review Brasil.