Odiou esse vídeo? O algoritmo do YouTube pode empurrá-lo para outro igual
Humanos e Tecnologia

Odiou esse vídeo? O algoritmo do YouTube pode empurrá-lo para outro igual

Uma nova pesquisa da Mozilla mostra que os utilizadores têm pouco poder de ação sobre quais vídeos a influente Inteligência Artificial do YouTube recomenda. 

O algoritmo de recomendação do YouTube gera 70% do que as pessoas assistem na plataforma.  

Esse algoritmo molda as informações que biliões de pessoas consomem, e o YouTube tem controlos cujo objetivo é permitir que as pessoas ajustem o que mostra ou não. Mas, segundo um novo estudo, isso não quer dizer muito. Em vez disso, os utilizadores têm pouco poder para manter vídeos indesejados fora das suas recomendações, o que pode incluir compilações de acidentes de carro, transmissões ao vivo de zonas de guerra e discursos de ódio.  

Os investigadores da Mozilla analisaram sete meses de atividade no YouTube, de mais de 20.000 participantes, para avaliar quatro maneiras pelas quais o YouTube diz que as pessoas podem “ajustar as suas recomendações” ao clicarem em Não gostei, não tenho interesse, remover do histórico ou Não recomendo este canal. Queriam ver a eficácia desses controlos.  

Cada participante instalou uma extensão do navegador que adicionou um botão Parar de recomendar no topo de todos os vídeos do YouTube que viram, além daqueles na barra lateral. Ao clicarem nele uma, das quatro respostas de ajuste de algoritmo, aparecia todas as vezes.  

Dezenas de assistentes de pesquisa observaram os vídeos rejeitados para ver o quanto eles se assemelhavam às dezenas de milhares de recomendações subsequentes do YouTube para os mesmos utilizadores. Descobriram que os controlos do YouTube têm um efeito “insignificante” nas recomendações que os participantes recebiam. Ao longo dos sete meses, um vídeo rejeitado gerou, em média, cerca de 115 recomendações más, ou seja, vídeos que se assemelhavam aos que os participantes já haviam dito ao YouTube que não queriam ver.  

Pesquisas anteriores indicam que a prática do YouTube, de recomendar vídeos com os quais você provavelmente concorda e recompensar de certa forma conteúdo controverso, pode fortalecer certos tipos de opiniões e levar as pessoas à uma radicalização política. A plataforma também foi diversas vezes criticada por promover e viralizar vídeos sexualmente explícitos ou vídeos sugestivos incluindo crianças, um conteúdo que viola as suas próprias políticas. Após um estudo, o YouTube prometeu reprimir o discurso de ódio, aplicar melhor as suas diretrizes e não usar o seu algoritmo de recomendação para promover conteúdo “duvidoso”.  

No entanto, o estudo descobriu que o conteúdo que parecia violar as próprias políticas do YouTube ainda estava sendo ativamente recomendado aos utilizadores, mesmo depois deles terem enviado respostas negativas por meio dos controles da plataforma.  

Clicar em Não gostei, a forma mais visível de fornecer retorno negativo, interrompe apenas 12% das recomendações más. O controlo Não interessado bloqueia apenas 11%. No entanto, o YouTube anuncia ambas as opções como formas de ajustar o seu algoritmo para o que o utilizador realmente quer ver.  

Elena Hernandez, porta-voz do YouTube, diz: “Os nossos controlos não filtram tópicos ou pontos de vista na sua totalidade, pois isso pode ter efeitos negativos para os espectadores, como criar câmaras de eco”. Hernandez também diz que o relatório da Mozilla não leva em conta como o algoritmo do YouTube realmente funciona. Mas isso é algo que ninguém fora do YouTube realmente sabe, dadas as biliões de entradas do algoritmo e a transparência limitada da empresa. O estudo da Mozilla tenta examinar essa caixa preta para entender melhor seus resultados.  

As ferramentas que funcionam com maior precisão, segundo o estudo, não apenas expressam um sentimento, mas dão uma ordem explícita ao YouTube. Remover do histórico reduziu as recomendações indesejadas em 29% e Não recomendar este canal teve o desempenho mais razoável, interrompendo 43% das recomendações ruins. Apesar disso, vídeos de um canal que os espectadores pediram ao YouTube para silenciar ainda podem aparecer nas sugestões deles.  

O relatório da Mozilla especula que isso ocorre porque a plataforma prioriza o tempo de exibição sobre a satisfação do utilizador, uma métrica que o algoritmo de recomendação do YouTube nem considerou nos primeiros 10 anos de história da plataforma. Se o YouTube quiser “realmente colocar as pessoas no centro das decisões”, diz a Mozilla, a plataforma deve permitir que as pessoas treinem proativamente o algoritmo excluindo palavras-chave e determinados tipos de conteúdo de seus vídeos recomendados.  

Muitas das questões levantadas pelo relatório da Mozilla estão centradas em recomendações de conteúdo potencialmente traumatizante. Por exemplo, mesmo após pedir ao YouTube que parasse de recomendar vídeos de armas de fogo, um utilizador continuou recebendo na sua timeline vídeos de demonstração de armas. Da mesma forma, a plataforma continuou a recomendar imagens de fogo cruzado na Ucrânia para participantes que rejeitaram conteúdo semelhante.  

Outras recomendações foram apenas desagradáveis. Um vídeo de enriquecimento rápido com criptomoedas e um “ASMR de experimentação de biquínis” são exemplos dos tipos de vídeos que os utilizadores sinalizaram negativamente, mas não conseguiram evitar as suas recomendações. Um participante disse: “Parece que quanto mais feedback negativo eu dou, maior é a quantidade de porcaria que me recomendam”. Músicas natalinas são outra categoria de conteúdo recomendado que os participantes acharam difícil de escapar.  

“Com essa lacuna entre a regra que escreveram e a sua aplicação, o YouTube tem as suas dificuldades, assim como todas as plataformas”, diz Mark Bergen, autor de Like, Comment, Subscribe, um livro recente sobre a ascensão do YouTube. “Parte disso é apenas porque estão a lidar com um volume enorme de vídeo em muitos países e idiomas diferentes”.  

Ainda assim, diz Bergen, a Inteligência Artificial do YouTube é poderosa o suficiente para oferecer aos utilizadores ferramentas para moldar o conteúdo que eles veem. “O YouTube gosta de dizer ‘O algoritmo é o público’”, diz Bergen. Mas para o escritor, está claro que os utilizadores comuns não estão a ser ouvidos ou não estão sendo compreendidos. 

Nossos tópicos