Os investigadores de IA costumam dizer que o bom machine learning é, na realidade, muito mais uma arte do que ciência. O mesmo pode ser dito quando pensamos em relações públicas eficazes. Escolher as palavras certas para dar um tom positivo ou ressignificar a conversa sobre IA é uma tarefa delicada: quando bem feita, pode fortalecer a imagem da marca de alguém, mas se mal feita, pode desencadear uma reação ainda maior.
Os gigantes da tecnologia saberiam fazer essa escolha. Nos últimos anos, tiveram que aprender essa arte rapidamente, pois enfrentaram a crescente desconfiança do público em relação às suas ações e intensificaram as críticas sobre as suas pesquisas e tecnologias de IA.
Por isso, desenvolveram um novo vocabulário para usar quando quiserem mostrar ao público que se preocupam profundamente com o desenvolvimento de IA de maneira responsável — mas querem ter certeza de que não haja uma análise muito profunda sobre o que fazem. Aqui está um guia para descodificar a sua linguagem e desafiar as suposições e valores embutidos.
Adversário (s) – Um engenheiro solitário capaz de interromper o seu poderoso sistema de IA de geração de receita. Veja as definições de robustez e proteção.
Alinhamento (s) – O desafio de projetar sistemas de IA que façam o que mandamos e valorizem o que valorizamos. Intencionalmente abstrato. Evite usar exemplos reais de efeitos não intencionais e prejudiciais. Veja a definição de segurança.
Auditoria (s) - Uma avaliação que paga a alguém para fazer na sua empresa ou sistema de IA para que pareça mais transparente sem precisar mudar nada. Veja a definição de avaliação de impacto.
Avaliação de impacto (fra) – uma revisão que faz da sua empresa ou sistema de IA para mostrar sua disposição de considerar suas desvantagens sem alterar nada. Veja a definição de auditoria.
Benéfico (adjetivo) – Uma descrição geral do que está a tentar construir. Convenientemente mal definida . Veja a definição de valor.
Comité de ética (fra) – um grupo de consultores sem poder real, convocado para criar a aparência de que a sua empresa escuta ativamente. Exemplos: Conselho de ética de IA do Google (cancelado), Oversight Board do Facebook (ainda de pé).
Compliance/conformidade (s) – O ato de cumprir a lei. Tudo o que não é ilegal, pode fazer.
Concessão de privacidade (fra) – O nobre sacrifício do controlo individual sobre as informações pessoais para benefícios do grupo, como avanços no sistema de saúde impulsionados por IA, que também são altamente lucrativos.
Confiável (adj) – Uma avaliação de um sistema de IA que pode ser fabricado com publicidade coordenada suficiente.
Democratizar (v) – Escalonar uma tecnologia a todo custo. Uma justificativa para concentrar recursos. Veja a definição de escala.
Design centrado no ser humano (fra) – Um processo que envolve o uso de “personas” para imaginar o que um utilizador médio pode querer do seu sistema de IA. Pode envolver a solicitação de feedback de utilizadores reais. Só se houver tempo. Veja a definição de as partes interessadas.
Diversidade, equidade e inclusão (fra) – O ato de contratar engenheiros e investigadores de grupos marginalizados para que possa exibi-los ao público. Se desafiarem o status quo, demita-os.
Eficiência (s) – O uso de menos dados, memória, equipas ou energia para construir um sistema de IA.
Escala (s) – O resultado final que qualquer bom sistema de IA deve se esforçar para alcançar na prática.
Expandir (verbo) – Aumentar a produtividade dos trabalhadores de escritório. Efeito colateral: automatizar empregos de operários. Triste, mas inevitável.
Explicável (adj) – Para descrever um sistema de IA que você, o programador e o utilizador podem entender. Muito mais difícil de explicar para as pessoas que são usadas por ele. Provavelmente não vale o esforço. Veja interpretável.
Framework (s) – Um conjunto de diretrizes para a tomada de decisões. Uma boa maneira de parecer consciente e ponderado enquanto atrasa a tomada de decisões reais.
Generalizável (adj) – O sinal de um bom modelo de IA. Um que continua a funcionar em condições variáveis. Veja a definição de o mundo real.
Governança (s) – Burocracia.
Humano no processo (fra) – Qualquer pessoa que faça parte de um sistema de IA. As responsabilidades vão desde falsificar os recursos do sistema até repelir acusações de automação.
IA responsável (s) – Um apelido para qualquer trabalho na sua empresa que possa ser interpretado pelo público como um esforço sincero para mitigar os danos dos seus sistemas de IA.
Inteligência artificial geral (frase) - Um deus de IA hipotético que provavelmente está muito distante no futuro, mas também pode ser iminente. Pode ser muito bom ou muito mau, o que for mais retoricamente útil. Obviamente, está a construir um bom. O que é caro. Portanto, precisa de mais dinheiro. Veja a definição de os riscos de longo prazo.
Integridade (s) – Problemas que prejudicam o desempenho técnico do seu modelo ou a capacidade de escala da sua empresa. Não confunda com questões que fazem mal à sociedade e tampouco com honestidade.
Interdisciplinar (adj) – Termo usado para designar qualquer equipa ou projeto envolvendo pessoas que não codificam: utilizadores investigadores, gestores de produto, filósofos morais. Principalmente filósofos morais.
Interpretável (adj) – Descrição de um sistema de IA cuja computação, o programador, pode seguir passo a passo para entender como chegou à resposta. Na verdade, provavelmente é apenas uma regressão linear. IA soa melhor.
Justiça (s) – Uma noção complicada de imparcialidade usada para descrever algoritmos imparciais. Pode ser definido de várias maneiras com base na sua preferência.
Mundo real (fra) – O oposto do mundo simulado. Um ambiente físico dinâmico cheio de surpresas inesperadas no qual os modelos de IA são treinados para sobreviver. Não deve ser confundido com humanos e sociedade.
Para o bem (fra) – Como em “IA para o bem” ou “Dados para o bem“. Uma iniciativa totalmente tangencial ao seu negócio principal que o ajuda a gerar boas publicidades.
Parceiros (s) – Outros grupos de elite que partilham a sua visão de mundo e podem trabalhar consigo para manter o status quo. Veja a definição de as partes interessadas.
Partes interessadas (s) – Acionistas, reguladores, utilizadores. As pessoas no poder que deseja manter felizes.
Por design (fra) – No sentido de desde a concepção, como em “justiça por design” ou “responsabilidade desde o design”. “ Uma frase para sinalizar que está a pensar muito sobre coisas importantes desde o início.
Precisão (s) – correção técnica. A medida mais importante de sucesso na avaliação do desempenho de um modelo de IA. Veja a definição de validação.
Previsão (s) – A capacidade de perscrutar o futuro. Basicamente impossível: portanto, uma explicação perfeitamente razoável do porquê não poder eliminar a possibilidade de consequências indesejadas do seu sistema de IA.
Princípios (s) – não se esqueça de que os tem. Lembre-se das pessoas.
Princípios de ética (fra) – Um conjunto de obviedades usados para sinalizar as suas boas intenções. Mantenha-o em alto nível. Quanto mais vaga a linguagem, melhor. Veja a definição de IA responsável.
Progresso (s) – Avanço científico e tecnológico. Um bem inerente.
Proteção (s) – O ato de proteger dados valiosos ou confidenciais e modelos de IA de serem violados por malfeitores. Veja a definição de o adversário.
Redistribuição de riqueza (fra) – Uma ideia útil para mostrar quando as pessoas o julgam por usar muitos recursos e ganhar muito dinheiro. Como funcionaria a redistribuição de riqueza? Renda básica universal, é claro. Também não é algo que possa descobrir sozinho. Exigiria regulamentação. Veja a definição de regulamento.
Regulamento (s) - O que pede quando quer transferir a responsabilidade de mitigar a IA prejudicial aos legisladores. Não deve ser confundido com políticas que dificultariam o seu crescimento.
Renda básica universal (fra) – A ideia de que pagar a todos um salário fixo resolverá a enorme turbulência económica causada quando a automação leva à perda generalizada de empregos. Popularizado pelo candidato presidencial de 2020, Andrew Yang. Veja a definição de redistribuição de riqueza.
Responsabilidade (substantivo) – O ato de responsabilizar outra pessoa pelas consequências quando o seu sistema de IA falha.
Reter publicação (fra) – O ato benevolente de escolher não abrir o código-fonte do seu sistema porque ele pode cair nas mãos de uma pessoa mal-intencionada. Melhor limitar o acesso a parceiros que podem pagar.
Riscos de longo prazo (s) – Coisas más que podem ter efeitos catastróficos num futuro distante. Provavelmente nunca acontecerá, mas é mais importante estudá-los e evitá-los do que fazer alguma coisa sobre os danos imediatos dos sistemas de IA existentes.
Rotuladores de dados (fra) – As pessoas que supostamente realizam o trabalho por trás da interface Mechanical Turk da Amazon para fazer uma limpeza de dados por um preço baixo. Não tenho certeza de quem eles são. Nunca os conheci.
Robustez (s) – A capacidade de um modelo de IA de funcionar de forma consistente e precisa sob tentativas perversas de alimentá-lo com dados corrompidos.
Segurança (s) – O desafio de construir sistemas de IA que não se desviem das intenções do desenvolvedor. Não deve ser confundido com a construção de sistemas de IA que não falham. Veja a definição de alinhamento.
Transparência (s) – revelando os seus dados e código. Mau para informações confidenciais e proprietárias. Portanto, muito difícil; francamente, até mesmo impossível. Não deve ser confundido com uma comunicação clara sobre como o seu sistema realmente funciona.
Validação (s) – O processo de testar um modelo de IA em dados diferentes dos dados em que foi treinado, para verificar se ainda é preciso.
Valor (s) – Um benefício intangível oferecido aos utilizadores que gera muito dinheiro para si.