• Início
  • Sobre o IHU
    • Gênese, missão e rotas
    • Sala Ignacio Ellacuría e Companheiros
    • Rede SJ-Cias
      • CCIAS
      • CEPAT
  • Programas
    • Observasinos
    • Teologia Pública
    • IHU Fronteiras
    • Repensando a Economia
    • Sociedade Sustentável
  • Notícias
    • Mais notícias
    • Entrevistas
    • Páginas especiais
    • Jornalismo Experimental
    • IHUCAST
  • Publicações
    • Mais publicações
    • Revista IHU On-Line
  • Eventos
  • Espiritualidade
    • Comentário do Evangelho
    • Ministério da palavra na voz das Mulheres
    • Orações Inter-Religiosas Ilustradas
    • Martirológio Latino-Americano
    • Sínodo Pan-Amazônico
    • Mulheres na Igreja
  • Contato
close
search
  • Início
  • Sobre o IHU
    • Gênese, missão e rotas
    • Sala Ignacio Ellacuría e Companheiros
    • Rede SJ-Cias
      • CCIAS
      • CEPAT
  • Programas
    • Observasinos
    • Teologia Pública
    • IHU Fronteiras
    • Repensando a Economia
    • Sociedade Sustentável
  • Notícias
    • Mais notícias
    • Entrevistas
    • Páginas especiais
    • Jornalismo Experimental
    • IHUCAST
  • Publicações
    • Mais publicações
    • Revista IHU On-Line
  • Eventos
  • Espiritualidade
    • Comentário do Evangelho
    • Ministério da palavra na voz das Mulheres
    • Orações Inter-Religiosas Ilustradas
    • Martirológio Latino-Americano
    • Sínodo Pan-Amazônico
    • Mulheres na Igreja
  • Contato
search

##TWEET

Tweet

O algoritmo que promove discursos de ódio se torna um bumerangue contra o Facebook

Fonte: Pixabay

Mais Lidos

  • Uma breve oração pelos mortos no massacre no Rio de Janeiro: “Nossa Senhora da minha escuridão, que me perdoe por gostar dos des-heróis”

    LER MAIS
  • “É muito normal ouvir que Jesus está para voltar. Mas quem está no púlpito dizendo que Jesus está para voltar está fazendo aplicações em ações ou investimentos futuros, porque nem ele mesmo acredita que Jesus está para voltar”, afirma o historiador

    Reflexão para o Dia dos Mortos: “Num mundo onde a experiência fundamentalista ensina o fiel a olhar o outro como inimigo, tudo se torna bestial”. Entrevista especial com André Chevitarese

    LER MAIS
  • O massacre no Rio. Artigo de Frei Betto

    LER MAIS

Vídeos IHU

  • play_circle_outline

    30º Domingo do Tempo Comum - Ano C - Deus tem misericórdia e ampara os humildes

close

FECHAR

Revista ihu on-line

Um caleidoscópio chamado Rio Grande do Sul

Edição: 556

Leia mais

Entre códigos e consciência: desafios da IA

Edição: 555

Leia mais

A extrema-direita e os novos autoritarismos: ameaças à democracia liberal

Edição: 554

Leia mais

COMPARTILHAR

  • FACEBOOK

  • Twitter

  • LINKEDIN

  • WHATSAPP

  • IMPRIMIR PDF

  • COMPARTILHAR

close CANCELAR

share

22 Outubro 2021

 

O algoritmo que facilita a circulação de discursos de ódio está se tornando um bumerangue para o Facebook e Instagram, mas algumas denúncias apontam que a empresa de Mark Zuckerberg não decide modificá-lo porque o mecanismo gera interações, mesmo que ataque grupos vulneráveis e contradiga o objetivo de criar uma rede “significativa e saudável”, considera Ezequiel Ipar, diretor do Laboratório de Estudos sobre Democracia e Autoritarismo - LEDA.

A reportagem-entrevista é de Guillermo Lipis, publicada por Telám, 16-10-2021. A tradução é do Cepat.

Os textos que promovem discursos de ódio, pelo que parece, se aprofundaram com a modificação do algoritmo do Facebook, o verdadeiro gestor da interação entre seus usuários.

O assunto ganhou mais força quando a funcionária dessa empresa, Frances Haugen, pediu a regulamentação do gigante das redes sociais a quem acusou, diante de parlamentares dos Estados Unidos, de “financiar seus lucros” com a segurança dos usuários.

Haugen revelou que o Facebook sabe que os seus sites são potencialmente prejudiciais à saúde mental dos jovens. “Quase ninguém sabe o que acontece dentro do Facebook. Omitem informações ao público, a seus acionistas e aos governos”, acrescentou.

Na Argentina, pelo LEDA, da Universidade Nacional de San Martín – UNSAM, com pesquisadores do CONICET, Ipar e sua equipe pesquisam essas redes e as consequências da aplicação do algoritmo desenhado por gente de Zuckerberg.

Haugen disse que o Facebook “pode responder e reconhecer de 3 a 5% dos discursos de ódio das mensagens dos 3 bilhões de usuários. Mas parece que os controles funcionam em 50 línguas, e o Facebook tem usuários em 5.500. Ou seja, 5.450 vivem em um far west digital”, sentenciou Ipar.

Como exemplo do discurso de ódio e a falta de controles da rede, em outubro de 2018, The New York Times denunciou que militares birmaneses usaram o Facebook para justificar uma limpeza étnica contra os rohingyas, uma minoria muçulmana, e argumentaram que o islã representa uma ameaça para o budismo.

Ipar também lembrou “casos de incitação à violência interétnica na Etiópia”.

Em novembro de 2019, a BBC reproduziu o depoimento do atleta etíope Haile Gebrselassie, que denunciou o Facebook como responsável pela matança de 78 pessoas devido à “distribuição de notícias falsas”, explicou.

“Começaram a procurar onde o discurso de ódio havia sido gerado e descobriram que foi por meio de postagens no Facebook”, explicou o pesquisador.

“Não foi o rádio ou televisão, nem um ditador falando de um meio de comunicação oficial, foi a partir da capilaridade do Facebook que foi gerada a sensação de medo”, acrescentou.

“Contudo, a forma como o Facebook buscou “resolver esses problemas acabou acentuando-os”, disse sobre a reformulação que fizeram do algoritmo.

Abaixo, as passagens centrais da entrevista com Ipar.

Qual é o objetivo do algoritmo?

Conectar as pessoas e saber o que pode despertar interesse em um usuário, no que poderá colocar a sua atenção. Por isso, é dito que o Facebook domina a atenção dos indivíduos. É isso o que o algoritmo busca: chamar a sua atenção e conectar os usuários.

Como associa essa função do algoritmo com a difusão dos discursos de ódio?

Quando começaram a cair as interações entre indivíduos, em 2017/2018, o Facebook redesenhou seu algoritmo para que, disseram, os usuários tivessem “uma experiência mais saudável e significativa”. O que mostrariam de modo privilegiado não seria mais publicidade, mas o que fosse interessante para seus amigos, para promover mais “likes”, compartilhar mais conteúdos e aumentar o tráfico de comentários.

Foi assim que detectaram que começaram a se destacar os discursos que incitavam o ódio nas interações. Aprofundou-se uma interação relacionada ao narcisismo do ódio, mas não a consideraram porque os algoritmos quantificam a interação e a reação dos usuários, e não a qualidade ou o conteúdo das respostas.

O algoritmo facilita a circulação de mensagens, e os discursos de ódio produziram mais interações na rede. Entre o mais saudável e o mais significativo, o algoritmo promove o significativo para gerar maior tráfego na rede. Sendo assim, é muito provável que o algoritmo do Facebook esteja incitando campanhas de ódio.

O algoritmo avalia a intensidade da circulação das mensagens, sem importar o conteúdo dos mesmos. É um fato matemático sem conotação humana. Por que o Facebook não modifica seu algoritmo?

Porque verificaram que o que mais potencializa a circulação de mensagens são, justamente, as mensagens com conotações de discurso de ódio.

O que fazem com esse dado, sabendo que acabam facilitando tais mensagens?

Estamos exatamente nesse momento. Haugen se deu conta que no Facebook sabiam o que estavam mobilizando com o seu algoritmo e que também estavam dispostos a não fazer nada para modificá-lo. Agora, há uma resposta curiosa do Facebook porque começam a sugerir a necessidade de certa regulamentação estatal, pois entenderam que há algo no próprio espaço digital, que eles criaram, que está intrinsecamente descontrolado e que pode começar a afetar a plataforma e os seus negócios.

Acredito que perceberam que também existe o risco de que uma boa porcentagem de seus usuários se retirem das redes por essa distribuição de discursos de ódio e violência. Eles próprios estão sugerindo que para o Facebook ser “significativo e saudável”, agora, é preciso algum tipo de avaliação e supervisão, saber o que está acontecendo na rede, e uma regulamentação externa.

Mas não estão permitindo essa janela de observação.

Ainda não, e esse é o conflito no qual estamos agora. Por um lado, em que medida – a partir dessa crise – o Facebook tornará públicas as informações que dispõe e em que medida estão dispostos a intervir na rede, conforme seus próprios estudos sugerem. Esses documentos demonstram que existem profissionais no Facebook que já possuem alternativas para mudar a circulação dos discursos de ódio, mas são mudanças estruturais que podem colocar em jogo uma parte do negócio.

Uma de suas equipes estudou os temas da violência, assédio e discurso de ódio no algoritmo e sugeriu retirar a possibilidade de compartilhar conteúdos maliciosos. Não os eliminar, mas que também não possam ser compartilhados. Parece que fizeram um teste e funcionou, mas decidiram não adotar.

O relato diz que esse documento interno chegou às máximas autoridades da empresa e a resposta foi que a solução era muito boa, mas que a deixarão como uma alternativa de emergência. Imagino que se negam a realizar a mudança porque consideram que a violência e o discurso de ódio são um problema social que se expressa na rede social, mas que não é um problema da rede social em si.

 

 

 

Leia mais

 

  • “O Facebook está dilacerando nossas sociedades”, diz ex-funcionária
  • O Facebook devorado pela onda de evidências de seu impacto tóxico na sociedade
  • Os danos psíquicos do Instagram aos adolescentes
  • “O Instagram arrasa porque soube cruzar ego e capitalismo”. Entrevista com Sarah Frier
  • Agora o Facebook quer mudar nossa dimensão religiosa. Artigo de Pasquale Annicchino
  • Twitter, Facebook e WhatsApp: os antros da desinformação e da proliferação do discurso de ódio. Entrevista especial com David Nemer
  • A sociedade algorítmica
  • “As redes sociais nos geram angústia, prazer e ciúmes”. Entrevista com William Davies
  • As redes sociais prejudicam seriamente a humanidade
  • As agressões nas redes sociais. Entrevista com Martín Becerra e Ernesto Calvo
  • Redes sociais elevam depressão entre meninas adolescentes, diz pesquisa
  • Sociabilidade Algorítmica: o desafio de não perdermos a humanidade que nos une pela polaridade que nos divide na era da Internet
  • Os cercos do algoritmo
  • Redes sociais criam bolhas ideológicas inacessíveis a quem pensa diferente 

Notícias relacionadas

  • Vaticano: Papa recebeu fundador da rede social «Facebook»

    Foto: Osservatore Romano O Papa Francisco recebeu hoje em audiência o fundador do Facebook, com quem conversou sobre o uso d[...]

    LER MAIS
  • Como as redes sociais mudaram a forma de lidar com o luto e a morte

    As redes sociais estão modificando as formas de luto e o diálogo sobre a morte no âmbito público. Duas sociólogas da Universi[...]

    LER MAIS
  • Em busca da Internet perdida

    LER MAIS
  • @Pontifex e os sacros tuítes: As redes sociais digitais segundo Bento XVI

    A mensagem de Bento XVI para o 47º Dia Mundial das Comunicações Sociais lança os desafios do papa à própria Igreja com rela[...]

    LER MAIS
  • Início
  • Sobre o IHU
    • Gênese, missão e rotas
    • Sala Ignacio Ellacuría e Companheiros
    • Rede SJ-Cias
      • CCIAS
      • CEPAT
  • Programas
    • Observasinos
    • Teologia Pública
    • IHU Fronteiras
    • Repensando a Economia
    • Sociedade Sustentável
  • Notícias
    • Mais notícias
    • Entrevistas
    • Páginas especiais
    • Jornalismo Experimental
    • IHUCAST
  • Publicações
    • Mais publicações
    • Revista IHU On-Line
  • Eventos
  • Espiritualidade
    • Comentário do Evangelho
    • Ministério da palavra na voz das Mulheres
    • Orações Inter-Religiosas Ilustradas
    • Martirológio Latino-Americano
    • Sínodo Pan-Amazônico
    • Mulheres na Igreja
  • Contato

Av. Unisinos, 950 - São Leopoldo - RS
CEP 93.022-750
Fone: +55 51 3590-8213
humanitas@unisinos.br
Copyright © 2016 - IHU - Todos direitos reservados