O algoritmo que promove discursos de ódio se torna um bumerangue contra o Facebook

Revista ihu on-line

Zooliteratura. A virada animal e vegetal contra o antropocentrismo

Edição: 552

Leia mais

Modernismos. A fratura entre a modernidade artística e social no Brasil

Edição: 551

Leia mais

Metaverso. A experiência humana sob outros horizontes

Edição: 550

Leia mais

Mais Lidos

  • “Se vejo o Evangelho apenas de maneira sociológica, sim, sou comunista, e Jesus também”. Entrevista com o Papa Francisco

    LER MAIS
  • Eu, o tirano. Entrevista com Éric Sadin

    LER MAIS
  • Dois teólogos questionam o Concílio Vaticano II sobre questões que nunca havia se posto...

    LER MAIS

Newsletter IHU

Fique atualizado das Notícias do Dia, inscreva-se na newsletter do IHU


22 Outubro 2021

 

O algoritmo que facilita a circulação de discursos de ódio está se tornando um bumerangue para o Facebook e Instagram, mas algumas denúncias apontam que a empresa de Mark Zuckerberg não decide modificá-lo porque o mecanismo gera interações, mesmo que ataque grupos vulneráveis e contradiga o objetivo de criar uma rede “significativa e saudável”, considera Ezequiel Ipar, diretor do Laboratório de Estudos sobre Democracia e Autoritarismo - LEDA.

A reportagem-entrevista é de Guillermo Lipis, publicada por Telám, 16-10-2021. A tradução é do Cepat.

Os textos que promovem discursos de ódio, pelo que parece, se aprofundaram com a modificação do algoritmo do Facebook, o verdadeiro gestor da interação entre seus usuários.

O assunto ganhou mais força quando a funcionária dessa empresa, Frances Haugen, pediu a regulamentação do gigante das redes sociais a quem acusou, diante de parlamentares dos Estados Unidos, de “financiar seus lucros” com a segurança dos usuários.

Haugen revelou que o Facebook sabe que os seus sites são potencialmente prejudiciais à saúde mental dos jovens. “Quase ninguém sabe o que acontece dentro do Facebook. Omitem informações ao público, a seus acionistas e aos governos”, acrescentou.

Na Argentina, pelo LEDA, da Universidade Nacional de San MartínUNSAM, com pesquisadores do CONICET, Ipar e sua equipe pesquisam essas redes e as consequências da aplicação do algoritmo desenhado por gente de Zuckerberg.

Haugen disse que o Facebook “pode responder e reconhecer de 3 a 5% dos discursos de ódio das mensagens dos 3 bilhões de usuários. Mas parece que os controles funcionam em 50 línguas, e o Facebook tem usuários em 5.500. Ou seja, 5.450 vivem em um far west digital”, sentenciou Ipar.

Como exemplo do discurso de ódio e a falta de controles da rede, em outubro de 2018, The New York Times denunciou que militares birmaneses usaram o Facebook para justificar uma limpeza étnica contra os rohingyas, uma minoria muçulmana, e argumentaram que o islã representa uma ameaça para o budismo.

Ipar também lembrou “casos de incitação à violência interétnica na Etiópia”.

Em novembro de 2019, a BBC reproduziu o depoimento do atleta etíope Haile Gebrselassie, que denunciou o Facebook como responsável pela matança de 78 pessoas devido à “distribuição de notícias falsas”, explicou.

“Começaram a procurar onde o discurso de ódio havia sido gerado e descobriram que foi por meio de postagens no Facebook”, explicou o pesquisador.

“Não foi o rádio ou televisão, nem um ditador falando de um meio de comunicação oficial, foi a partir da capilaridade do Facebook que foi gerada a sensação de medo”, acrescentou.

“Contudo, a forma como o Facebook buscou “resolver esses problemas acabou acentuando-os”, disse sobre a reformulação que fizeram do algoritmo.

Abaixo, as passagens centrais da entrevista com Ipar.

Qual é o objetivo do algoritmo?

Conectar as pessoas e saber o que pode despertar interesse em um usuário, no que poderá colocar a sua atenção. Por isso, é dito que o Facebook domina a atenção dos indivíduos. É isso o que o algoritmo busca: chamar a sua atenção e conectar os usuários.

Como associa essa função do algoritmo com a difusão dos discursos de ódio?

Quando começaram a cair as interações entre indivíduos, em 2017/2018, o Facebook redesenhou seu algoritmo para que, disseram, os usuários tivessem “uma experiência mais saudável e significativa”. O que mostrariam de modo privilegiado não seria mais publicidade, mas o que fosse interessante para seus amigos, para promover mais “likes”, compartilhar mais conteúdos e aumentar o tráfico de comentários.

Foi assim que detectaram que começaram a se destacar os discursos que incitavam o ódio nas interações. Aprofundou-se uma interação relacionada ao narcisismo do ódio, mas não a consideraram porque os algoritmos quantificam a interação e a reação dos usuários, e não a qualidade ou o conteúdo das respostas.

O algoritmo facilita a circulação de mensagens, e os discursos de ódio produziram mais interações na rede. Entre o mais saudável e o mais significativo, o algoritmo promove o significativo para gerar maior tráfego na rede. Sendo assim, é muito provável que o algoritmo do Facebook esteja incitando campanhas de ódio.

O algoritmo avalia a intensidade da circulação das mensagens, sem importar o conteúdo dos mesmos. É um fato matemático sem conotação humana. Por que o Facebook não modifica seu algoritmo?

Porque verificaram que o que mais potencializa a circulação de mensagens são, justamente, as mensagens com conotações de discurso de ódio.

O que fazem com esse dado, sabendo que acabam facilitando tais mensagens?

Estamos exatamente nesse momento. Haugen se deu conta que no Facebook sabiam o que estavam mobilizando com o seu algoritmo e que também estavam dispostos a não fazer nada para modificá-lo. Agora, há uma resposta curiosa do Facebook porque começam a sugerir a necessidade de certa regulamentação estatal, pois entenderam que há algo no próprio espaço digital, que eles criaram, que está intrinsecamente descontrolado e que pode começar a afetar a plataforma e os seus negócios.

Acredito que perceberam que também existe o risco de que uma boa porcentagem de seus usuários se retirem das redes por essa distribuição de discursos de ódio e violência. Eles próprios estão sugerindo que para o Facebook ser “significativo e saudável”, agora, é preciso algum tipo de avaliação e supervisão, saber o que está acontecendo na rede, e uma regulamentação externa.

Mas não estão permitindo essa janela de observação.

Ainda não, e esse é o conflito no qual estamos agora. Por um lado, em que medida – a partir dessa crise – o Facebook tornará públicas as informações que dispõe e em que medida estão dispostos a intervir na rede, conforme seus próprios estudos sugerem. Esses documentos demonstram que existem profissionais no Facebook que já possuem alternativas para mudar a circulação dos discursos de ódio, mas são mudanças estruturais que podem colocar em jogo uma parte do negócio.

Uma de suas equipes estudou os temas da violência, assédio e discurso de ódio no algoritmo e sugeriu retirar a possibilidade de compartilhar conteúdos maliciosos. Não os eliminar, mas que também não possam ser compartilhados. Parece que fizeram um teste e funcionou, mas decidiram não adotar.

O relato diz que esse documento interno chegou às máximas autoridades da empresa e a resposta foi que a solução era muito boa, mas que a deixarão como uma alternativa de emergência. Imagino que se negam a realizar a mudança porque consideram que a violência e o discurso de ódio são um problema social que se expressa na rede social, mas que não é um problema da rede social em si.

 

 

 

Leia mais

 

Comunicar erro

close

FECHAR

Comunicar erro.

Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:

O algoritmo que promove discursos de ódio se torna um bumerangue contra o Facebook - Instituto Humanitas Unisinos - IHU

##CHILD
picture
ASAV
Fechar

Deixe seu Comentário

profile picture
ASAV