YouTube conduz usuários a vídeos radicais e de extrema direita, diz estudo

Revista ihu on-line

Diálogo interconvicções. A multiplicidade no pano da vida

Edição: 546

Leia mais

Cultura Pop. Na dobra do óbvio, a emergência de um mundo complexo

Edição: 545

Leia mais

Revolução 4.0. Novas fronteiras para a vida e a educação

Edição: 544

Leia mais

Mais Lidos

  • Bolívia. O MAS e o triunfo avassalador

    LER MAIS
  • "Governo tenta intencionalmente destruir povos indígenas". Entrevista com Carlos Frederico Marés de Souza Filho

    LER MAIS
  • O PT e o voto evangélico

    LER MAIS

Newsletter IHU

Fique atualizado das Notícias do Dia, inscreva-se na newsletter do IHU


05 Fevereiro 2020

A tendência de radicalização progressiva no conteúdo consumido pelos usuários do YouTube tem sido um tema recorrente em pesquisas jornalísticas e de organizações especializadas, nos últimos anos. Um estudo apresentado esta semana na Conferência Tecnológica FAT, que nesta semana reúne em Barcelona especialistas mundiais em justiça e transparência de algoritmos, conseguiu provar que “os usuários migram constantemente de conteúdo mais moderado para mais extremo” e que boa parte dos membros que integram as comunidades de extrema direita na plataforma começaram a assistir a vídeos sobre temas semelhantes, mas com conteúdo muito menos radical.

A reportagem é de Calor del Castilho, publicada por El Diario, 30-01-2020. A tradução é do Cepat.

“Encontramos fortes evidências de radicalização entre os usuários do YouTube e que o sistema de recomendação de conteúdos permite a descoberta de canais de extrema direita, mesmo em um cenário sem personalização” do algoritmo, afirmam os pesquisadores da Escola Politécnica de Lausanne (Suíça), da Universidade Federal de Minas Gerais (Brasil) e da Universidade de Harvard (Estados Unidos).

A pesquisa foi baseada na análise de 330.925 vídeos, de 349 canais do YouTube, além dos mais de dois milhões de vídeos e dez milhões de canais recomendados pelo algoritmo da plataforma, com base na visualização dos primeiros. Para seguir o rastro dos usuários e comprovar a evolução do conteúdo que consumiram, os autores analisaram seus comentários nesses vídeos, mais de 72 milhões no total.

Os comentários e vídeos analisados pertenciam a três comunidades “tradicionalmente associadas à radicalização”: a Intellectual Dark Web, que discute questões controversas como a relação entre raça e coeficiente intelectual, embora não necessariamente apoie ideias extremistas e racistas, a Alt-lite, um conceito que surgiu nos Estados Unidos em 2017 para nomear uma nova corrente à direita, caracterizada por rejeitar o conservadorismo moderado tradicional, mas também ideias da extrema direita, como supremacismo branco, e, por último, a Alt-right ou extrema direita, uma comunidade cujos vídeos espalham abertamente ideias racistas, machistas e negacionistas das mudanças climáticas.

O que os pesquisadores descobriram é que é fácil que os vídeos das duas primeiras comunidades, mais moderadas, sejam promovidos pela plataforma com uma simples busca de conteúdos. Não acontece o mesmo com os que podem ser classificados como de extrema direita, que não aparecem nessas buscas superficiais. No entanto, a partir do estudo dos comentários nos vídeos da Intellectual Dark Web e da Alt-lite, os pesquisadores descobriram que 26% dos usuários que comentaram esses vídeos apareciam, “com o passar dos anos”, comentando vídeos rotulados como de extrema direita, devido às recomendações.

O estudo mostra que essa tendência foi se acelerando a partir de 2016, quando Donald Trump apareceu em cena. Os maiores saltos das comunidades mais moderadas em direção à extrema direita são produzidos precisamente a partir dessa data. Por exemplo, até 12% dos usuários que começaram a comentar vídeos moderados, em 2017, foram expostos a conteúdo de extrema direita pela plataforma nos próximos 18 meses. Esse número é equivalente a 60.000 pessoas.

Para comparar a transferência de usuários entre as comunidades da Intellectual Dark Web e da Alt-lite com a extrema direita, a partir do que se produz em outros tipos de canais, os pesquisadores também analisaram quantos consumidores de vídeos de notícias acabam aparecendo como comentaristas dos conteúdos radicais. Nesse caso, a porcentagem fica em torno de 1%.

Embora tudo sugira que o algoritmo do YouTube direcione os usuários da plataforma para conteúdos cada vez mais extremos, os pesquisadores esclarecem que não têm provas disso. Entre outras coisas, porque não introduziram a variável da personalização na recomendação de conteúdos. “Embora argumentemos que há fortes evidências da existência de espirais de radicalização no YouTube, nosso trabalho fornece poucas informações sobre o porquê dessas espirais. Elucidar essas causas será importante para entender melhor os processos de radicalização e o impacto das redes sociais em nossas vidas”.

“Até onde sabemos, esta é a primeira auditoria quantitativa, em larga escala, da radicalização de usuários no YouTube”, defendem.

YouTube critica o estudo

“Discordamos totalmente da metodologia, dos dados e, mais importante, das conclusões que foram tiradas dessa nova pesquisa”, explicou um porta-voz do YouTube em comunicado enviado a este jornal. “Embora aceitemos a pesquisa externa, este estudo não reflete as mudanças que ocorreram como resultado de nossa política do discurso de ódio e as atualizações das recomendações”, argumentam.

Com relação à metodologia, os pesquisadores argumentam que rastrear os comentários dos usuários é um bom método de análise, pois os vídeos das três comunidades analisadas apresentam um alto grau de engajamento. No caso da extrema direita, é particularmente alto, já que um em cada cinco usuários que assistem a um vídeo com esse tipo de conteúdo o comenta. Além disso, essas contribuições são extremamente positivas: dos 900 comentários selecionados aleatoriamente para analisar esse problema (300 em cada comunidade), “apenas 5 poderiam ser interpretados como críticos ao vídeo ao qual estavam associados”, destaca o estudo.

“Nos últimos anos, investimos fortemente em políticas, recursos e produtos necessários para proteger a comunidade do YouTube”, respondem pela empresa, de propriedade do Google. “Alteramos nossos algoritmos de pesquisa para garantir que o conteúdo mais fidedigno apareça e seja classificado com destaque nos resultados e nas recomendações de buscas, e começamos a reduzir as recomendações de conteúdo e vídeos de caráter duvidoso, que podem desinformar os usuários de forma prejudicial”. Afirmam que, graças a essa mudança, as recomendações desse tipo de conteúdo extremista, por parte de seu algoritmo, foram reduzidas em 50%.

Leia mais

Comunicar erro

close

FECHAR

Comunicar erro.

Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:

YouTube conduz usuários a vídeos radicais e de extrema direita, diz estudo - Instituto Humanitas Unisinos - IHU

##CHILD
picture
ASAV
Fechar

Deixe seu Comentário

profile picture
ASAV