Algoritmos: não nos largam e reduzem o mundo que vemos na Net

Revista ihu on-line

Gênero e violência - Um debate sobre a vulnerabilidade de mulheres e LGBTs

Edição: 507

Leia mais

Os coletivos criminais e o aparato policial. A vida na periferia sob cerco

Edição: 506

Leia mais

Giorgio Agamben e a impossibilidade de salvação da modernidade e da política moderna

Edição: 505

Leia mais

Mais Lidos

  • “O PT não defende a causa da esquerda. Nem a do país”. Entrevista com Ruy Fausto

    LER MAIS
  • O que é a esquerda hoje. Artigo de Atawallpa Oviedo Freire

    LER MAIS
  • “A Reforma Trabalhista é a vitória do Brasil colônia sobre o Brasil do desenvolvimento”

    LER MAIS

Newsletter IHU

Fique atualizado das Notícias do Dia, inscreva-se na newsletter do IHU

close

FECHAR

Enviar o link deste por e-mail a um(a) amigo(a).

29 Março 2016

O Instagram foi a última rede social a render-se aos algoritmos que nos dizem aquilo que devemos ver. Mas há um lado negro de se servir apenas conteúdos à medida do que se julga ser o gosto do utilizador: o empobrecimento informativo, a guetização cultural, a manipulação da opinião.

A reportagem é de Pedro Guerreiro, publicada por Público, 28-03-2016.

Sentemo-nos à mesa e façamos um exercício para explicar como funciona a filtragem de conteúdos na Internet através de um algoritmo e quais as suas vantagens e problemas. Preferia nunca mais apreciar o seu prato favorito ou ser obrigado a comê-lo a todas as refeições para o resto da vida? Se optasse por uma existência à base de cozido à portuguesa, talvez fosse feliz durante um tempo, mas perderia a oportunidade de descobrir novas iguarias. “O que é que vai ser? O costume.” Nas redes e nos motores de busca, vivemos num regime alimentar escolhido por terceiros com base naquilo que estes julgam ser os nossos gostos, a partir das nossas escolhas passadas. O efeito é igualmente nocivo. Há um empobrecimento do menu e a eliminação de alternativas.

O nome desta dieta é “o efeito bolha”. Eli Pariser, o actual CEO do site Upworthy, um projecto que tenta unir conteúdo viral e a promoção de causas sociais, foi umas das primeiras pessoas a escrever extensivamente sobre o assunto. Em The Filter Bubble: What the Internet is Hiding from You, o empresário e ativista denuncia o que entende ser o efeito perverso da excessiva personalização dos motores de busca e das redes sociais: a segregação cultural e informativa, o empobrecimento do debate público.

Pariser dava como exemplo os diferentes resultados de uma pesquisa sobre o Egito realizada em 2011, ano da queda de Hosni Mubarak. Num primeiro exercício realizado por um utilizador habituado a consumir informação, a crise política no Cairo surgia naturalmente no primeiro lugar da pesquisa. No segundo caso, de outro utilizador que dedicava menos atenção às notícias, o Google dava prioridade a sites de venda de viagens turísticas para o Egito. Esta diferença é explicada pela forma como o motor de busca traça o perfil de cada utilizador a partir de 57 tipos de informação, desde a frequência de determinadas pesquisas e o conjunto de sites habitualmente visitados até ao local físico de acesso e o tipo de computador ou telemóvel utilizado. Para cada perfil, uma lista de resultados feita à medida. O que um utilizador encontra no Google não é necessariamente aquilo que é visto pelo vizinho.

A posição praticamente monopolista do Google no panorama dos motores de busca levanta a questão dos efeitos do seu algoritmo na formação da opinião pública mundial. A maioria dos utilizadores acede apenas aos primeiros resultados de uma pesquisa, e a presença nesse top depende não só do perfil de quem procura a informação como também da página apresentada — o tamanho dos artigos, a data de publicação e, recentemente, o fato de o site estar ou não tecnicamente preparado para ser visualizado corretamente num smartphone ou num tablet. As regras do jogo não são claras. As variáveis levadas em conta e a sua ponderação não são públicas. E a fórmula está em constante alteração — o algoritmo será afinado cerca de 600 vezes por ano.

Eleger um Presidente?

Poderá uma dessas mudanças no algoritmo ter influência numa campanha eleitoral? Em 2015, os investigadores de Psicologia Robert Epstein e Ronald E. Robertson estudaram o impacto do Google no comportamento do eleitorado norte-americano e indiano. A pesquisa concluiu que o resultado de uma eleição poderia oscilar até 25% graças à informação apresentada pelo motor de busca, e que as intenções de voto dos indecisos poderiam alterar-se em até 80% dos casos. Em causa não estava a veracidade ou a qualidade dos resultados das buscas, mas sim a ordem pela qual a Google lista os artigos. 

Num artigo publicado posteriormente no Politico, Epstein alerta que “o próximo Presidente norte-americano poderá ser conduzido ao poder não por tempos de antena televisivos ou por discursos, mas pelas decisões secretas da Google”. O investigador, que tem um histórico de críticas em relação à empresa, apontava relações privilegiadas da Google com o Partido Democrata e o fato de a candidata Hillary Clinton ter contratado um alto quadro da empresa, Stephanie Hannon, para a sua campanha.

Em reação ao estudo, a Google desmente a ideia de manipulação e afirma que “fornecer resultados relevantes” é o único objetivo da empresa. Um outro investigador, Ryan Kennedy, da Universidade de Houston, dizia ao Huffington Post que uma tentativa de manipulação de resultados eleitorais através do Google “seria rapidamente identificada pelas pessoas, sobretudo se forem politicamente informadas”, desvalorizando as conclusões de Epstein e Robertson.

Também existem dúvidas sobre o impacto do Facebook na formação de opinião. A rede foi a primeira a introduzir um algoritmo em 2009, altura em que deixamos de ver as mensagens, fotografias e vídeos de familiares e amigos por ordem cronológica e em que as marcas intensificaram a disputa da nossa atenção. A relevância passou a ser a palavra-chave. “A morte de um esquilo à frente da tua casa pode ser mais relevante do que a morte de alguém em África”, terá explicado Mark Zuckerberg, numa citação atribuída por Pariser.

Em Maio de 2015, uma equipe de cientistas de dados daquela rede social publicou um estudo na revista Science que confirmava a teoria da bolha, ou seja, que tendemos de fato a ver mais conteúdos em linha com as nossas convições políticas. De todo o conteúdo visualizado no Facebook por utilizadores identificados com a esquerda, apenas 22% oferecem pontos de vista contrários aos seus. Entre os utilizadores conotados com a direita, o valor é de 33%. No entanto, o Facebook argumenta que as ações individuais dos utilizadores (os amigos que seguem, as páginas que decidem bloquear) determinam mais a natureza dos conteúdos que vêem do que o algoritmo da rede social.

Em comentário ao estudo, Pariser sublinha o seu significado: o Facebook confirma que tendemos a ler e a consumir conteúdos que validam as nossas crenças, escapando ao contraditório e a pontos de vista alternativos. “Cada algoritmo contém um ponto de vista sobre o mundo. Indiscutivelmente, um algoritmo é isso: uma teoria sobre como o mundo devia funcionar, expressa numa fórmula matemática ou num código”, escreve o empresário.

Para negros ou brancos

Mas ainda que o impacto político dos algoritmos das redes sociais e motores de busca seja o seu aspecto mais controverso, o propósito é sobretudo comercial. A elaboração de perfis de utilizadores, com os seus hábitos, crenças e preferências, e a correspondente distribuição de conteúdos à medida visam sobretudo segmentar audiências para campanhas publicitárias — ainda que isso também levante questões.

Este mês veio a público a forma como os estúdios Universal dirigiram campanhas distintas de promoção do filme Straight Outta Compton no Facebook de acordo com a “afinidade étnica” dos consumidores. Apesar de a rede social fundada por Mark Zuckerberg não permitir que um utilizador identifique a sua etnia do mesmo modo que o faz em relação à idade ou ao gênero, o Facebook tenta adivinhá-la e vende a sua informação a anunciantes.

Mais uma vez, o afunilamento da informação é alcançado através da análise do conjunto de dados que um utilizador acaba por fornecer voluntariamente. Para a rede, ter “afinidade étnica” com negros significa, por exemplo, gostar de hip hop ou R&B, ter frequentado uma determinada escola ou fazer parte de uma associação de defesa de direitos civis.

Enquanto anunciante, a Universal foi então capaz de promover o seu filme sobre o grupo de hip hop N.W.A. com um trailer editado à medida do público afro-americano, tendencionalmente familiarizado com a banda, e outro dirigido a americanos brancos, para os quais eram mais familiares as figuras de Ice Cube e Dr. Dre, atores e músicos que integraram originalmente o projeto musical. O filme acabaria por ser um dos grandes sucessos de bilheteira do Verão de 2015.

Para o Facebook, a revelação acabaria por gerar mais uma crise de relações públicas. Será a ferramenta de “afinidade étnica” um indício de que existe uma rede social para negros e outra para brancos? A empresa de Zuckerberg diz que não.

Política ou comercialmente motivado, ao serviço do utilizador ou uma ferramenta de segregação, o predomínio do algoritmo é crescente. Até Março, o Instagram era a última rede social de dimensão relevante a resistir a mostrar os seus conteúdos por outra ordem que não a cronológica. 

Entretanto, e apontando o crescimento da rede e o fato de os utilizadores não verem, em média, 70% das fotografias e vídeos partilhados pelos seus amigos e ídolos, a empresa detida pelo Facebook anunciou que iria passar a ordenar os conteúdos por um critério de relevância.

Até ao momento, desconhece-se o que determinará a relevância maior de uma fotografia em relação a outra. No entanto, e dada a relação umbilical com o Facebook, aposta-se num modelo análogo à da maior rede social do globo: quanto mais próxima a ligação e intensa a interacção com determinado utilizador, mais provável será ver o conteúdo que este publica. Nas redes, porém, um movimento de instagramers veio protestar contra a alteração, que entendem criar um efeito de afunilamento e impedir a descoberta fortuita de conteúdos.

Meses antes, foi a vez de o Twitter anunciar o recurso a um algoritmo similar. A rede social minimalista, centrada na partilha em tempo real de mensagens de 140 caracteres, passou a possibilitar a exibição de mensagens fora da sua tradicional ordem cronológica. Mais uma vez, sob um critério de relevância e proximidade. Críticos da mudança denunciam uma colagem da rede a adversários como o Facebook, numa tentativa de aumentar receitas publicitárias e rentabilizar um negócio em crise.

O avanço do algoritmo será imparável? Talvez, embora não impeça que gigantes como o Facebook ensaiem projetos de curadoria humana de notícias. Será porventura um reconhecimento das limitações e dos riscos de uma selecção integralmente computadorizada daquilo que lemos e partilhamos. De que o chef pode aconselhar o prato do dia, mas que a escolha deve ser nossa.

Comunicar erro

close

FECHAR

Comunicar erro.

Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:

Instituto Humanitas Unisinos - IHU - Algoritmos: não nos largam e reduzem o mundo que vemos na Net