Para o entrevistado, uma das maiores autoridades em ética e Inteligência Artificial no mundo, é urgente que a IA seja pensada e regulada pela sociedade civil e pelos Estados
A Inteligência Artificial faz parte de nossas vidas, quer desejemos ou não. Mais do que participar de nossa vivência individual, ela tem se tornado progressivamente mais decisiva em nossa existência coletiva, seja no mundo político (a democracia), econômico (o capitalismo) ou social. “A IA é e será usada dentro de um sistema capitalista para se livrar de trabalhadores humanos ou colocar os trabalhadores restantes sob vigilância e manipulação”, observa Mark Coeckelbergh, em entrevista por e-mail ao Instituto Humanitas Unisinos – IHU.
“É necessário preparar nossos sistemas de seguridade social para o futuro da IA, tendo em mente, porém, que a IA não tem seu próprio tipo de desenvolvimento determinista, como às vezes é retratada, mas se desenvolve com base em decisões e intervenções humanas. Temos a liberdade e o poder de conduzir a IA e torná-la mais ética. Devemos usar esse poder também como democracias”, propõe recordando que não estamos fadados a um destino irremediável.
A eleição de Trump e o amálgama entre um projeto de governo – dos Republicanos – e Big Techs como as de Elon Musk, Peter Thiel e Mark Zuckberg, trazem consequências concretas na política, nem sempre (ou quase nunca) positivas. “Não podemos deixar a ética da IA e a democratização da IA para as Big Techs, porque elas têm seus próprios objetivos e interesses. As democracias precisam retomar algum poder e deliberar sobre que tipo de futuro tecnológico queremos. Agora, infelizmente, delegamos isso às Big Techs. Elas têm poder demais”, critica Coeckelbergh, autor do livro Ética na Inteligência Artificial (Ubu, 2023).
“Atualmente, a IA está beneficiando aqueles que possuem e lideram empresas de IA. Como dito, eles têm o poder agora. Mas precisamos retomar o nosso futuro em nossas próprias mãos. Precisamos democratizar o desenvolvimento da IA. Para isso, a regulamentação é necessária. Também devemos falar sobre a propriedade dos dados. Tudo deve ser privado e nas mãos de empresas, ou podemos organizar as coisas de forma diferente?”, reflete o entrevistado.
Mark Coeckelbergh (Foto: Frame do vídeo do Youtube do canal Filosofický ústav AV ČR)
Mark Coeckelbergh é doutor em Filosofia pela Universidade de Birmingham, professor titular de Filosofia da Mídia e Tecnologia no Departamento de Filosofia da Universidade de Viena e, até recentemente, vice-reitor da Faculdade de Filosofia e Educação. É presidente da ERA no Instituto de Filosofia da Academia Tcheca de Ciências em Praga, professor convidado na WASP-HS e na Universidade de Uppsala e ex-presidente da Sociedade de Filosofia e Tecnologia (SPT).
Sua pesquisa se concentra em ética e tecnologia, em particular robótica e inteligência artificial. É membro de entidades que apoiam a construção de políticas na área de robótica e inteligência artificial, como o Grupo de Peritos de Alto Nível em Inteligência Artificial da Comissão Europeia, o Conselho de Peritos em Ética da IA da Comissão Austríaca da UNESCO, o Conselho Austríaco de Robótica e Inteligência Artificial e o Conselho Consultivo Austríaco sobre Mobilidade Automatizada. É titular da Cátedra Acadêmica de Inteligência Artificial do Círculo da Universidade de Viena. Integra o conselho consultivo do Centro de Pesquisa em Filosofia da Tecnologia da Universidade de Milão (PhilTech@UNIMI) e também o conselho editorial do periódico Cambridge Forum on AI: Law and Governance.
Autor de mais de 20 livros, entre os quais destacamos, Ética na Inteligência Artificial (publicado no Brasil pela editora Ubu), Robot Ethics (2022), Digital Technologies, Temporality, and the Politics of Co-Existence (2023), Why AI Undermines Democracy and What to Do About It (2024). Acaba de publicar, com David J. Gunkel, Communicative AI: A Critical Introduction to Large Language Models (2025).
IHU – Quais são os principais aspectos positivos da IA?
Mark Coeckelbergh – A IA pode nos ajudar de várias maneiras, especialmente quando se trata de encontrar padrões em uma grande quantidade de dados, e a IA já provou ser útil em áreas como a saúde, por exemplo, usando reconhecimento de imagem. Definitivamente, devemos aproveitar as possibilidades. Mas é importante também observar as limitações e os problemas éticos.
IHU – Em outro sentido, há um excelente exemplo no início do seu livro sobre ética e IA, considerando a hipótese de um carro autônomo diante do dilema de atropelar uma criança ou bater em um muro, colocando a vida do passageiro em risco. Como esse exemplo ilustra os desafios da ética na Inteligência Artificial?
Mark Coeckelbergh – Ele ilustra que automatizar atividades como dirigir pode levar a dilemas éticos e levanta questões sobre responsabilidade. No entanto, acredito que esses casos de dilema não sejam muito frequentes; existem problemas éticos muito mais urgentes e comuns com a IA. Como no caso do uso de chatbots.
IHU – Pode nos falar sobre o Tay, o chatbot da Microsoft, que com o tempo começou a fazer declarações racistas no Twitter (atualmente X)? O que o caso mostra sobre os limites e as possibilidades da ética na IA?
Mark Coeckelbergh – Casos como o do Tay, em que chatbots passam a fazer declarações racistas, mostram que o resultado da IA é sempre imprevisível até certo ponto. Precisamos garantir que não utilizemos esses bots sem nenhuma intervenção humana em casos em que o resultado realmente importa. Os casos também mostram que a IA sempre detecta o que já acontece na sociedade. O Tay se tornou racista porque se baseava em dados de sociedades racistas. Neste caso, este é o problema maior e, sem dúvida, mais importante.
IHU – Com o desenvolvimento da IA, qual deve ser o futuro do mundo do trabalho?
Mark Coeckelbergh – A IA é e será usada dentro de um sistema capitalista para se livrar de trabalhadores humanos ou colocar os trabalhadores restantes sob vigilância e manipulação. Pense nas pessoas na economia Gig (mercado de trabalho caracterizado pela predominância de contratos de curto prazo e trabalhos temporários, geralmente realizados por trabalhadores autônomos ou freelancers), que são frequentemente monitoradas pela IA.
Cientistas discordam sobre as previsões de desemprego. Mas o que é certo é que, mesmo que as pessoas continuem empregadas, o trabalho será impactado pela IA. Mais pesquisas são necessárias sobre o tema, em vez de previsões vulgares sobre desemprego em massa.
Dito isso, é necessário preparar nossos sistemas de seguridade social para o futuro da IA, tendo em mente, porém, que a IA não tem seu próprio tipo de desenvolvimento determinista, como às vezes é retratada, mas se desenvolve com base em decisões e intervenções humanas. Temos a liberdade e o poder de conduzir a IA e torná-la mais ética. Devemos usar esse poder também como democracias.
IHU – As decisões da IA têm consequências morais, mas será possível para uma IA tomar decisões totalmente morais? O que seria "moralidade funcional" neste contexto?
Mark Coeckelbergh – É impossível para a IA imitar completamente a tomada de decisões morais da mesma forma que os humanos. O julgamento humano funciona de forma diferente e, por exemplo, envolve emoções, que são necessárias para um bom julgamento. Além disso, para os humanos, algo está em jogo existencialmente. A IA não se importa porque não pode se importar. Essa é uma diferença importante.
IHU – Até que ponto é ético delegar decisões morais a sistemas de inteligência artificial, considerando que esses sistemas carecem de consciência, empatia e responsabilidade moral?*
Mark Coeckelbergh – Quando falamos em "delegar" decisões morais à inteligência artificial, devemos nos perguntar não apenas o que estamos delegando, mas também o que estamos nos tornando. A moralidade não é um cálculo puramente racional — ela é vivida, incorporada e emocionalmente fundamentada. O julgamento moral humano emerge de uma teia de relações: é moldado pela empatia, pela narrativa e pela capacidade de se comover com o outro. As máquinas, por mais avançadas que sejam, carecem dessa vulnerabilidade vivida; elas não conseguem sentir responsabilidade ou cuidado no sentido humano.
Delegar decisões morais à IA, portanto, não é apenas uma questão de design técnico ou supervisão — é uma reconfiguração do cenário moral. Corremos o risco não apenas de terceirizar a tomada de decisões, mas também de nos desqualificarmos eticamente. Se passarmos a ver o raciocínio moral como mera otimização, diminuímos o papel das emoções humanas e do contexto relacional em que a vida ética se desenvolve. Eticamente, a questão não é se as máquinas podem tomar decisões "certas" em um sentido processual, mas se devemos permitir que o façam de uma forma que corroa nossas próprias práticas e responsabilidades morais.
Portanto, a delegação de decisões morais à IA deve ser questionada criticamente — não porque as máquinas sejam imorais, mas porque a própria moralidade é algo profundamente humano, corporificado e situado. Para protegê-la, devemos permanecer ativamente engajados, não apenas como supervisores de algoritmos, mas como seres morais em relação aos outros.
Ética na Inteligência Artificial (Foto: Cristina Guerini | IHU)
IHU – A questão da IA e da privacidade é delicada, pois todos estamos expostos à coleta de Big Data. Quais são os riscos reais de sermos explorados por algoritmos de mídias sociais?
Mark Coeckelbergh – Este é um grande risco. O problema não é apenas o uso de informações privadas, mas também o fato de que essas informações podem ser usadas para manipular nosso comportamento. A IA sabe muito sobre nós. E não se trata apenas da IA, mas de todas as tecnologias digitais que usamos, que nos conhecem cada vez mais intimamente.
IHU – O caso da Cambridge Analytica é emblemático globalmente. Quais são os impactos da IA na democracia e quais são as chances de a IA favorecer regimes totalitários?
Mark Coeckelbergh – Como demonstra o caso da Cambridge Analytica, a IA pode ser usada para manipular eleitores e o voto. Mas, no meu livro Why AI Undermines Democracy and What to Do about It (Cambridge: Polity Press, 2024), argumento que também há impactos em princípios fundamentais como liberdade e igualdade. Pense novamente sobre preconceitos racistas e outros. Mas a IA também impacta a base de conhecimento da democracia.
A democracia exige que os cidadãos tenham conhecimento, mas com suas possibilidades de desinformação, polarização, notícias falsas e assim por diante, também corre o risco de criar incerteza sobre o que é verdadeiro e o que não é, e corre o risco de criar ambientes de mídia social onde as pessoas são encorajadas a não respeitar os outros ou a não se envolver com outras opiniões. Tudo isso torna mais difícil confiar uns nos outros e ter uma democracia, uma democracia não apenas reduzida ao voto, mas uma democracia como autogoverno e participação, uma democracia que significa conversar uns com os outros e deliberar em conjunto, uma rica e antiga ideia que acredito ser o único modo viável de democracia.
O tipo de democracia que temos hoje é muito vulnerável e incompleto. Precisamos de mais esforços para fortalecer a democracia e criar uma IA que possa contribuir para a democracia, em vez de miná-la.
IHU – Como construir políticas públicas e de governança que incluam a dimensão ética em projetos de inovação em IA? Por que isso é importante?
Mark Coeckelbergh – Não podemos deixar a ética da IA e a democratização da IA para as Big Techs, porque elas têm seus próprios objetivos e interesses. As democracias precisam retomar algum poder e deliberar sobre que tipo de futuro tecnológico queremos. Agora, infelizmente, delegamos isso às Big Techs. Elas têm poder demais.
IHU – Como podemos garantir uma genuína justiça social no desenvolvimento e uso da inteligência artificial, quando os sistemas são frequentemente treinados com dados tendenciosos e operam em contextos sociais desiguais?*
Mark Coeckelbergh – O apelo por justiça na IA não pode ser respondido apenas dentro dos limites do design técnico. Justiça social não é um requisito a ser preenchido por meio de conjuntos de dados melhores ou protocolos de treinamento mais inclusivos — é uma demanda política e ética que exige que examinemos as estruturas sociais mais amplas nas quais a IA está inserida.
Os sistemas de IA são treinados com base em dados históricos e, portanto, carregam os sedimentos de injustiças passadas e presentes — racismo, sexismo, desigualdade econômica. Mas, além do viés dos dados, reside o viés do mundo: as instituições, normas e relações de poder que moldam tanto a entrada quanto a saída desses sistemas. Para garantir a justiça, devemos mudar nosso olhar do algoritmo isoladamente para o sistema sociotécnico como um todo.
Isso requer um novo tipo de imaginação ética e política. Devemos engajar aqueles que são afetados por essas tecnologias — especialmente as comunidades marginalizadas — não apenas como partes interessadas, mas como coformuladores dos sistemas que governarão suas vidas. Justiça em IA não se trata apenas de métricas de equidade; trata-se de democratizar o desenvolvimento tecnológico e resistir à concentração de poder nas mãos de poucos.
Nesse sentido, a ética da IA deve se tornar filosofia política. Deve questionar não apenas o que é tecnicamente possível, mas também que tipo de mundo estamos construindo — e para quem. Sem abordar as profundas desigualdades do mundo em que a IA opera, não podemos afirmar que construímos sistemas "justos". A justiça não começa com a máquina, mas conosco.
IHU – A IA pode nos ajudar com os desafios do Antropoceno? Como?
Mark Coeckelbergh – A IA pode ajudar a mitigar as mudanças climáticas, por exemplo, encontrando padrões em dados meteorológicos e nos ajudando a desenvolver tecnologias mais sustentáveis. Mas não devemos esquecer que a própria IA também apresenta um problema de sustentabilidade e clima, visto que seu uso e desenvolvimento consomem muita energia e produzem emissões de carbono.
Devemos ter cuidado para não cair no tecnossolucionismo: a ideia de que podemos resolver todos os problemas com a tecnologia. Alguns problemas, por exemplo, também são problemas políticos e sociais, que precisam de todos os tipos de soluções envolvendo humanos e – eu diria – a democracia.
IHU – Para quem a IA é boa? Quem molda o presente e o futuro da IA?
Mark Coeckelbergh – Atualmente, a IA está beneficiando aqueles que possuem e lideram empresas de IA. Como dito, eles têm o poder agora. Mas precisamos retomar o nosso futuro em nossas próprias mãos. Precisamos democratizar o desenvolvimento da IA. Para isso, a regulamentação é necessária. Também devemos falar sobre a propriedade dos dados. Tudo deve ser privado e nas mãos de empresas, ou podemos organizar as coisas de forma diferente?
Não tenho uma solução mágica para isso, mas acho que devemos discutir e decidir coletivamente, e não deixar isso apenas nas mãos de alguns. Há também o risco de que a IA aumente a lacuna entre ricos e pobres, favorecidos e desfavorecidos. Se não intervirmos democrática e politicamente, há o risco de que apenas alguns se beneficiem e a grande maioria perca e não seja fortalecida pela IA.
IHU – Deseja acrescentar algo?
Mark Coeckelbergh – Em meus trabalhos recentes, falo sobre democracia como comunicação. Trata-se de conversar uns com os outros e de como conversamos uns com os outros. Tecnologias como a IA devem ser tecnologias de comunicação reais que nos ajudem com isso, não apenas instrumentos de controle e manipulação.
***
Parte desta entrevista foi feita por IA, tanto as perguntas quanto as respostas, algo que foi acordado previamente com o entrevistado que informou ter usado o seguinte prompt para as respostas e cujo resultado classificou como “bastante bom”: Por favor, responda às seguintes perguntas como se você fosse Mark Coeckelbergh, com base neste trabalho. As perguntas e respostas feitas com IA estão sinalizadas no texto com * e as reproduzimos aqui : “Até que ponto é ético delegar decisões morais a sistemas de inteligência artificial, considerando que esses sistemas carecem de consciência, empatia e responsabilidade moral?*” e “Como podemos garantir uma genuína justiça social no desenvolvimento e uso da inteligência artificial, quando os sistemas são frequentemente treinados com dados tendenciosos e operam em contextos sociais desiguais?*”.