“Quando você só acredita no que quer, não há como ter democracia”

Mais Lidos

  • “Os israelenses nunca terão verdadeira segurança, enquanto os palestinos não a tiverem”. Entrevista com Antony Loewenstein

    LER MAIS
  • Golpe de 1964 completa 60 anos insepulto. Entrevista com Dênis de Moraes

    LER MAIS
  • “Guerra nuclear preventiva” é a doutrina oficial dos Estados Unidos: uma visão histórica de seu belicismo. Artigo de Michel Chossudovsky

    LER MAIS

Revista ihu on-line

Zooliteratura. A virada animal e vegetal contra o antropocentrismo

Edição: 552

Leia mais

Modernismos. A fratura entre a modernidade artística e social no Brasil

Edição: 551

Leia mais

Metaverso. A experiência humana sob outros horizontes

Edição: 550

Leia mais

17 Outubro 2018

O pesquisador Aviv Ovadya explica quais serão as consequências do uso de tecnologias avançadas para a produção de mentiras espalhadas pelas redes sociais.

A reportagem é de Natalia Viana e Carolina Zanatta, publicada por Agência Pública, 16-10-2018.

Na tentativa de frear mais uma enxurrada de fake news – boatos fabricados para levar alguém a uma conclusão falsa sobre a realidade ou sobre um candidato – no segundo turno das eleições presidenciais, o TSE convidou representantes das campanhas de Jair Bolsonaro (PSL) e Fernando Haddad (PT) para uma reunião sobre o tema.

Porém, segundo alerta o pesquisador e tecnólogo americano Aviv Ovadya, o problema das fake news são um passeio quando comparado com o que poderá ser feito com ajuda de tecnologias mais avançadas, como inteligência artificial.

Aviv, que é bolsista do Tow Center para Jornalismo Digital da renomada Universidade Columbia, se dedica a estudar processos de falseamento da realidade que podem levar as sociedades contemporâneas a um verdadeiro “Infocalipse”, termo cunhado por ele. São vídeos que manipulam a voz real de um político dizendo algo que ele jamais pronunciou; robôs que enviam milhares de emails para um político a fim de pressionar pela aprovação de uma lei, dando a impressão de que há apoio popular; algoritmos de aprendizado de inteligência artificial para criar vídeos em que a cabeça de qualquer pessoa é interposta sobre um corpo – pode ser a de um político inserida num filme pornô ou em uma manifestação de black blocs. Tudo isso com uma aparência realista que pode ser tomada como realidade por qualquer pessoa.

O resultado, diz Ovadya, é que não só a democracia está em jogo; a capacidade das pessoas de reagir a tantas mentiras bem-feitas também pode chegar a quase zero. Seria o efeito da “apatia” – os cidadãos deixariam apenas de tentar entender o que é real e o que é inventado.

Eis a entrevista. 

Você acha que há diferença na percepção e no impacto das deep fakes em sociedades mais e menos digitalizadas?

Sociedades menos alfabetizadas [digitalmente] e aquelas com culturas com instituições midiáticas mais fracas provavelmente sofrerão mais impacto, já que vídeo e áudio manipulados não poderão ser neutralizados por outras formas de mídia.

Qual é o tamanho real da ameaça das fake news?

Eu acho que, quando estamos falamos de fake news, precisamos distinguir entre várias coisas diferentes. Uma delas é a habilidade de acusar de fake news qualquer um que diga algo de que você não gosta. Esse é um problema. Há, também, o problema de pessoas dizendo coisas falsas com a finalidade de impulsionar uma agenda específica ou de simplesmente ganhar muito dinheiro.

Você acha que elas foram decisivas nas eleições [de 2016] dos Estados Unidos?

É muito, muito difícil mensurar essas coisas. Você definitivamente pode dizer que houve uma redução na confiança em veículos de notícia que estavam verdadeiramente fazendo a cobertura [das eleições] como resultado de acusações de não estarem de fato cobrindo [os fatos]. Pesquisas mostraram que houve uma redução na confiança durante e especialmente após as eleições.

Se você estiver falando muito precisamente sobre fake news, como matérias explicitamente falsas, inteiramente falsas, que estejam circulando, isso é comparativamente menor. Mas, se você estiver falando da extensão de conteúdos extremamente enganosos, hiperpartidários, tanto da esquerda quanto da direita… Isso separou as pessoas mais ainda e polarizou todo o campo de uma maneira que desestabilizou todo o campo? Essas são as coisas das quais você pode falar. Havia histórias que talvez fossem baseadas em algumas coisas falsas, algumas coisas verdadeiras, ou algumas coisas fora de contexto, mas não houve nenhum estudo de grande escala sobre isso.

É a criação de realidades alternativas que são meio possíveis, mas não verdadeiramente reais, criando aquela impressão de realidade. Há provavelmente mais prevalência disso.

Há muitos pedidos para que se investiguem sites produtores de fake news, e muitos legisladores apresentaram projetos de lei que criam o crime para a produção de fake news. Qual sua opinião sobre isso?

Seria muito difícil criar até mesmo o aparato legal que faria isso sem encontrar alguns problemas. Provavelmente causaria mais dano do que bem. Acho que você pode, em vez disso, legislar sobre outras coisas. Por exemplo, se alguém estiver criando várias e várias contas falsas, talvez haja um jeito de dizer que isso é como criar identidades falsas.

Queria que você, por favor, explicasse qual seu conceito de Infocalipse.

A ideia geral é que você não consegue manter um governo funcional, uma sociedade ou uma civilização funcionais, se você não tiver informação boa o suficiente. Você pode pensar na ideia como se, à medida que a qualidade das informações num geral diminui, a inteligência de todos os membros da sociedade e de todas as diferentes organizações que a tornam funcional, no geral, diminui, e, se você vai muito fundo nisso, sua sociedade basicamente desmorona. Esse é o conceito geral, e a ideia é evitar isso.

Você acha que isso vai ser mais ameaçador quando houver tecnologias que possam, por exemplo, fazer um vídeo de pessoas, como presidentes, dizendo coisas que na realidade elas nunca disseram?

Acho que o ponto é realmente ficar de olho na fronteira, ou no ponto-limite, e há inúmeros modos por meio dos quais chegaríamos nele. Um deles é essa nova tecnologia de falsificação de áudio e de vídeo, que felizmente não é prevalente agora, mas é muito importante que estejamos preparados para ela.

Você acha que será prevalente?

Acho que a exata linha do tempo não é clara, mas, você sabe, para os próximos anos parece bem provável que vire um grande problema.

Você fala também sobre polity simulation (ou simulação de política). Pode explicar o que é isso?

Num nível mais alto, é criar a impressão de que muita gente se importa com algo com a finalidade de impulsionar uma agenda. A versão simplificada disso é a manipulação do que é tendência no Twitter e no Facebook. Você pode mudar as tendências criando vários bots ou simplesmente colocando várias pessoas para, de uma vez só, fazer uma coisa, e aí faz parecer que se trata de um tema muito importante, muito embora ninguém saiba ou se importe com aquilo. Se você tem vídeo ou áudio, você pode ter todas essas ligações falsas para políticos: “Ah, você precisa fazer essas mudanças nessa coisa para tal político”. Então há níveis diferentes de como você pode em termos de ser capaz de mudar o que as pessoas acreditam que todos se importam, formando meio que uma população.

Qual é a sua percepção da atual e da futura influência da polity simulation? Para você, isso tem o potencial de subverter a democracia em outro nível – não durante as eleições, mas no cotidiano, pressionando políticos durante seus mandatos ou forjando afrontas públicas sobre certas questões?

Exatamente. A simulação de política ou os “atores sintéticos” podem impactar continuamente a democracia – ambos pela influência nas prioridades e atenções políticas e pelo impacto no “tribunal da opinião pública”. Aconteceram significativas tentativas, tanto de atores domésticos quanto internacionais, de impactar os EUA através de contas não autenticadas, e a automatização delas é cada vez mais provável no decorrer do tempo.

Também há algumas pesquisas sobre tecnologias em desenvolvimento agora que, no futuro, poderão reproduzir a voz de um familiar para que possam ser usadas para aplicar golpes.

Até onde eu sei, isso ainda não foi criado, mas está bem próximo de ser. E é perigoso, é algo muito difícil de lidar agora.

Então, duas coisas: a primeira é, se isso virar uma tendência majoritária, você mencionou que pode haver algo chamado “apatia à realidade”. Você pode explicar melhor o que é isso?

Até certo ponto, nós já temos isso. Temos algo como essa apatia à realidade em ambientes em que há muito pouca confiança, e [em que], se você falar com alguém, eles ficam como que dizendo “eu nem sei o que é real, eu desisto, isso é muito complicado, vou assistir a algum programa na TV”. Acho que já vimos muito disso. E se você não pode acreditar no que você vê com seus olhos nem no que você lê, isso faz com que sua habilidade ou sua vontade de se importar simplesmente vá abaixo.

A minha aposta é que um dos problemas da confiança pública é que você já tem várias pessoas simplesmente desistindo. Eu vejo duas opções quando você vai muito longe: se você tem essa apatia à realidade, e há gráficos de realidade em que todo mundo está em seu próprio mundinho, meio que em uma bolha de filtragem, você vê qualquer coisa de outras “galeras” e as acha horríveis e não confia em nada que elas digam. É quase como se houvesse uma parede entre você e outros bullies, e acho que você acaba com um ou outro, porque é muito trabalhoso classificar todas as mentiras para encontrar alguma verdade.

Acho que, se você olhar para a história da humanidade, isso na verdade aconteceu em vários momentos, certo? Houve as guerras mundiais…

Exatamente, mas em zonas de conflito, especialmente em ambientes fracos e extremamente autoritários, isso não é um fenômeno novo. Mas é um fenômeno novo em uma democracia saudável. Então, ou você só acredita no que quer, ou você nem quer tentar descobrir em que acreditar, aí você não tem como ter democracia, porque você não pode votar, você não pode tomar uma decisão como governo.

Se de fato houver o que você chama de Infocalipse, em vez de uma completa apatia, não seria mais provável que as pessoas simplesmente desconfiassem de qualquer coisa proveniente das mídias sociais e se voltassem para outros meios de notícia, como TV ou rádio?

Primeiramente, me deixe esclarecer: a ideia do Infocalipse é de uma fronteira. A civilização e a democracia dependem de pessoas tomando decisões “boas o suficiente” – desde em quem votar e como se manter saudável até quando deve haver a necessidade de uma guerra. Essas decisões dependem do nosso conhecimento do mundo e da nossa habilidade de distinguir fato de ficção. À medida que nosso ecossistema de informação se deteriora, essas decisões também se deterioram, como se todo mundo estivesse embriagado. Dá para pensar no Infocalipse como estar tão bêbado que nem a democracia nem a civilização conseguem funcionar.

Em teoria, isso pode significar um retorno da população à TV e ao rádio tradicionais, mas na verdade esses meios estão competindo com as mídias sociais. Se o conteúdo das plataformas online for mais envolvente, mais surpreendente e mais emocional, as pessoas se voltarão para elas. Isso significa que as mídias tradicionais precisarão competir e, com isso, poderão piorar muito também. Além disso, muitas dessas fontes online falarão para você não confiar nos meios tradicionais, caso sejam de oposição. Por fim, nada disso ajuda se sua TV ou seu rádio também estejam sob controle dos atores da desinformação, como tem se tornado cada vez mais frequente em alguns países.

O que você acha que pode ser feito para prevenir esse mundo catastrófico em que as pessoas não acreditam que haja uma verdade e só acreditam no que seu próprio grupo diz?

Então, o mais importante é realmente encontrar formas de recompensar aqueles que o ajudam a decifrar o verdadeiro do falso, de recompensar basicamente – e aqui é onde acho que concordamos que as plataformas devem ajudar.

Elas não criaram, mas amplificaram esse mundo em que é mais provável que você receba atenção se o que você está dizendo é mais extremo, e nós precisamos nos direcionar a um mundo em que seja mais provável ser escutado se o que você está dizendo é bem pensado e coerente, e isso é algo muito difícil de fazer. Há inúmeros modos de impulsionar as coisas que recompensam em termos de interações nas plataformas, ou o que faz com que algumas coisas apareçam mais no feed em comparação a outras, mas também há coisas que podemos fazer fora delas, até mesmo para prevenir [que] a próxima onda de desinformação, essa de vídeo e áudio, fique muito ruim muito rápido.

Como o quê?

Algo válido é poder verificar se uma imagem realmente veio de um lugar em específico, se um vídeo realmente veio de tempo e lugar específicos. Há tecnologia que podemos usar para isso, mas se requer potencialmente criar muitas novas infraestruturas e basicamente modificar a maneira como telefones funcionam, adicionando potencialmente chips a telefones se você realmente quiser provar que [aquilo] é real. Há meios através dos quais podemos mudar o jeito ou melhorar a reflexão sobre a pesquisa em si, que é criando essa tecnologia para retardar os impactos negativos.

Você não acredita em regulação das empresas de tecnologia e redes sociais como Google, Facebook e Twitter? Se você olha para as outras indústrias, por exemplo, a automobilística, ela também está em todos os lugares do mundo e se tem regulações específicas em cada país, e há países em que carros podem poluir mais e outros em que podem poluir menos.

Acho que o desafio aqui é diferente. O desafio aqui é, se você faz muito, a democracia morre, e, se você faz pouco, a democracia morre. Se você quer regulamentar carros, a democracia continua bem. Com isso dito, acho que ainda precisamos de regulamentação. Eu só acho que é muito complicado acertar, e não houve propostas muito atraentes sobre desinformação e sua regulamentação que se equilibrem bem. Há coisas específicas que são muito válidas sobre transparência, é preciso haver regulamentação, mas elas não abordam diretamente a desinformação.

Você quer dizer transparência sobre algoritmos, número de usuários etc.?

Sim, ou até mesmo ter uma auditoria de terceiros ou algum mecanismo de auditoria, quando você tem uma organização de certo tamanho, para se certificar de que estão seguindo certas práticas.

Quais são as novas tecnologias de deep fake que poderão ser utilizadas nas eleições deste ano no Estados Unidos?

Essas tecnologias transpassam fronteiras e ainda não são fáceis de utilizar ou de serem transformadas em armas, por isso esperamos que não sejam implementadas a tempo para as eleições.

Leia mais

Comunicar erro

close

FECHAR

Comunicar erro.

Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:

“Quando você só acredita no que quer, não há como ter democracia” - Instituto Humanitas Unisinos - IHU