Imagens explicitamente sexuais de Taylor Swift, uma das maiores estrelas pop do mundo, tornaram-se virais online. Milhões de pessoas viram pornografia deepfake não consensual de Swift na plataforma de redes sociais X, anteriormente conhecida como Twitter. X tomou a medida drástica de bloquear todas as pesquisas por Taylor Swift para tentar controlar o problema.
Este não é um fenómeno novo: deepfakes existem há anos. No entanto, o surgimento da IA generativa facilitou mais do que nunca criar pornografia deepfake e assediar sexualmente pessoas usando imagens e vídeos gerados por IA.
De todos os tipos de danos relacionados à IA generativa, os deepfakes não consensuais afetam o maior número de pessoas, com as mulheres representando a grande maioria dos alvos, afirma Henry Ajder, um especialista em IA que se dedica à IA generativa e mídia sintética.
Felizmente, há alguma esperança. Novas ferramentas e leis poderiam dificultar que os atacantes utilizem fotos das pessoas como armas, e poderiam ajudar-nos a responsabilizar os perpetradores.
Aqui estão três maneiras de combater a pornografia deepfake não consensual.
MARCAS D’ÁGUA
As plataformas de redes sociais filtram as postagens enviadas para seus sítios da web e removem o conteúdo que violam suas políticas. No entanto, esse processo é irregular na melhor das hipóteses e deixa passar muitos conteúdos prejudiciais, como os vídeos de Swift no X mostram. Também é difícil distinguir entre conteúdo autêntico e gerado por IA.
Uma solução técnica poderia ser o uso de marcas d’água. As marcas d’água ocultam um sinal invisível nas imagens que ajuda os computadores a identificar se foram geradas por IA. Por exemplo, o Google desenvolveu um sistema chamado SynthID, que usa redes neurais para modificar píxeis em imagens e adiciona uma marca d’água invisível ao olho humano. Essa marca é projetada para ser detetada mesmo se a imagem for editada ou capturada. Em teoria, essas ferramentas poderiam ajudar as empresas a melhorar a sua moderação de conteúdo e torná-las mais rápidas para identificar conteúdo falso, incluindo deepfakes não consensuais.
Prós: Marcas d’água podem ser uma ferramenta útil que facilita a identificação mais rápida de conteúdo gerado por IA e a identificação de postagens tóxicas que devem ser removidas. Incluir marcas d’água em todas as imagens por padrão também tornaria mais difícil para os atacantes criar deepfakes não consensuais, afirma Sasha Luccioni, pesquisadora na startup de IA Hugging Face, que estudou viés em sistemas de IA.
Contras: Esses sistemas ainda são experimentais e não são amplamente utilizados. E um atacante determinado ainda pode manipulá-los. As empresas também não aplicam a tecnologia a todas as imagens indiscriminadamente. Por exemplo, os utilizadores do gerador de imagens de IA Imagen do Google podem escolher se desejam que as suas imagens geradas por IA tenham a marca d’água. Todos esses fatores limitam a sua utilidade no combate à pornografia deepfake.
ESCUDOS PROTETORES
No momento, todas as imagens que postamos online estão disponíveis para qualquer pessoa usar na criação de deepfakes. E, como os sistemas de IA de última geração para criação de imagens são tão sofisticados, está se tornando mais difícil provar que o conteúdo gerado por IA é falso.
No entanto, uma série de novas ferramentas defensivas permitem que as pessoas protejam as suas imagens da exploração impulsionada por IA, tornando-as distorcidas ou distorcidas nos sistemas de IA.
Uma dessas ferramentas, chamada PhotoGuard, foi desenvolvida por pesquisadores do MIT. Ela funciona como um escudo protetor, alterando os píxeis em fotos de maneiras invisíveis ao olho humano. Quando alguém usa um aplicativo de IA, como o gerador de imagens Stable Diffusion, para manipular uma imagem tratada com o PhotoGuard, o resultado parecerá irreal. Fawkes, uma ferramenta semelhante desenvolvida por pesquisadores da Universidade de Chicago, oculta imagens com sinais ocultos que tornam mais difícil para o software de reconhecimento facial reconhecer rostos.
Outra nova ferramenta, chamada Nightshade, poderia ajudar as pessoas a resistir ao uso em sistemas de IA. A ferramenta, desenvolvida por pesquisadores da Universidade de Chicago, aplica uma camada invisível de “veneno” às imagens. A ferramenta foi desenvolvida para proteger artistas contra o uso não autorizado das suas imagens protegidas por direitos autorais por empresas de tecnologia. No entanto, em teoria, ela poderia ser usada em qualquer imagem cujo proprietário não queira que seja usada por sistemas de IA. Quando as empresas de tecnologia pegam material de treino online sem consentimento, essas imagens envenenadas prejudicarão o modelo de IA. Imagens de gatos podem se tornar cães, e imagens de Taylor Swift também podem se tornar cães.
Prós: Essas ferramentas tornam mais difícil para os atacantes usarem nossas imagens para criar conteúdo prejudicial. Elas mostram alguma promessa em fornecer a indivíduos comuns proteção contra o abuso de imagens por IA, especialmente se aplicadas por padrão em aplicativos de namoro e empresas de redes sociais, diz Ajder.
“Todos deveríamos estar usando o Nightshade para cada imagem que postamos na internet”, diz Luccioni.
Contras: Esses escudos defensivos funcionam nas últimas gerações de modelos de IA. Mas não há garantia de que futuras versões não conseguirão superar esses mecanismos protetores. Além disso, não funcionam em imagens que já estão online e são mais difíceis de aplicar a imagens de celebridades, já que pessoas famosas não controlam quais fotos delas são carregadas online.
“Vai ser esse jogo gigante de gato e rato”, diz Rumman Chowdhury, que dirige a empresa de consultoria e auditoria ética de IA, Parity Consulting.
REGULAMENTAÇÃO
Soluções técnicas têm limitações. A única coisa que levará a uma mudança duradoura é uma regulamentação mais rigorosa, afirma Luccioni.
Os deepfakes virais de Taylor Swift deram novo impulso aos esforços para combater a pornografia deepfake. A Casa Branca classificou o incidente como “alarmante” e instou o Congresso a tomar medidas legislativas. Até agora, os EUA têm abordado a tecnologia de maneira fragmentada, estado por estado. Por exemplo, Califórnia e Virgínia proibiram a criação de deepfakes pornográficos feitos sem consentimento. O Estado de Nova York e da Virgínia, nos EUA, também proíbem a distribuição desse tipo de conteúdo.
No entanto, podemos finalmente ver ação em nível federal. Um novo projeto de lei bipartidário que tornaria crime federal o compartilhamento de imagens falsas nuas foi recentemente reintroduzido no Congresso dos EUA. Um escândalo de deepfake pornográfico em uma escola secundária de Nova Jersey também levou os legisladores a responderem com um projeto de lei chamado Preventing Deepfakes of Intimate Images Act. A atenção dada ao caso de Swift pode angariar mais apoio bipartidário.
Legisladores ao redor do mundo também estão pressionando por leis mais rigorosas para a tecnologia. A Lei de Segurança Online do Reino Unido, aprovada no ano passado, proíbe o compartilhamento de material de pornografia deepfake, mas não sua criação. Os infratores podem enfrentar até seis meses de prisão.
Na União Europeia, uma série de novos projetos de lei aborda o problema de diferentes maneiras. O abrangente Ato de IA exige que criadores de deepfake divulguem claramente que o material foi criado por IA, e o Ato de Serviços Digitais exigirá que empresas de tecnologia removam conteúdo prejudicial muito mais rapidamente.
A lei de deepfake da China, que entrou em vigor em 2023, vai mais longe. Na China, os criadores de deepfake precisam tomar medidas para impedir o uso de seus serviços para fins ilegais ou prejudiciais, pedir consentimento aos usuários antes de transformar suas imagens em deepfakes, autenticar as identidades das pessoas e rotular o conteúdo gerado por IA.
Prós: A regulamentação oferecerá às vítimas uma solução, responsabilizará os criadores de pornografia deepfake não consensual e criará um poderoso dissuasor. Também envia uma mensagem clara de que criar deepfakes não consensuais não é aceitável. Leis e campanhas de conscientização pública que deixem claro que as pessoas que criam esse tipo de pornografia deepfake são criminosas sexuais poderiam ter um impacto real, afirma Ajder. “Isso mudaria a atitude um tanto indiferente que algumas pessoas têm em relação a esse tipo de conteúdo como não prejudicial ou não uma forma real de abuso sexual”, diz ele.
Contras: Será difícil fazer cumprir esse tipo de legislação, diz Ajder. Com as técnicas atuais, será difícil para as vítimas identificar quem as agrediu e construir um caso contra essa pessoa. A pessoa que cria os deepfakes também pode estar numa jurisdição diferente, o que torna a persecução mais difícil.