17 Março 2026
Se houvesse dúvidas de que há um mundo de interesses e de tensões por detrás das aplicações de Inteligência Artificial (IA) e que as proezas e maravilhas que o marketing enaltece, um caso recente demonstra que tais dúvidas têm mesmo razão de ser. Um caso recente é bem ilustrativo.
A reportagem é de Manuel Pinto, publicada por 7 Margens, 15-03-2026.
Caitlin Kalinowski é uma conceituada engenheira americana, designer de produtos, graduada pela Universidade de Stanford, que, depois de quase duas décadas de carreira em projetos de grande impacto na Apple e na Meta, tomou a decisão de se demitir da tecnológica OpenAI, onde tinha entrado em novembro de 2024.
Kalinowski, que ocupava o cargo de chefe da área da Robótica, dirigindo uma equipa de projeto, surpreendeu a opinião pública ao anunciar a sua decisão na rede social LinkedIn: “Esta não foi uma decisão fácil. A IA tem um papel importante na segurança nacional. Mas a vigilância de americanos sem supervisão judicial e a autonomia letal sem autorização humana são linhas [vermelhas] que mereciam mais deliberação do que tiveram.”
Sem referir nomes nem de pessoas nem de instituições, aquele responsável estava a tirar consequências pessoais e profissionais de algo que os media estavam, nessa altura a divulgar: a OpenAI, a “gigante da tecnologia da Inteligência Artificial”, para quem ela estava a trabalhar, havia feito, uma semana antes, um acordo com o Departamento de Defesa dos EUA [agora batizado Departamento da Guerra], que permite o uso de sua inteligência artificial para fins bélicos e potencial vigilância de cidadãos dentro dos Estados Unidos.
Explicando horas depois os motivos da sua renúncia, Kalinowski acrescentou que a sua preocupação central era de governança e “sobre princípios, não sobre pessoas”. “O anúncio foi apressado, sem que as salvaguardas tivessem sido definidas”, fez notar.
A OpenAI, ao confirmar o abandono através de um porta-voz, ainda tentou negar os argumentos deste seu quadro, salientando que o acordo com o Pentágono “cria um caminho viável para usos responsáveis de IA na segurança nacional, deixando claras as linhas vermelhas: sem vigilância doméstica e sem armas autónomas”. O próprio CEO da OpenAI, Sam Altman, veio a terreiro sobre o assunto, para dizer no X que a empresa “modificaria o contrato” para que seus modelos não sejam usados para “vigilância doméstica de cidadãos e nacionais dos EUA”, após críticas de que estaria a dar muito poder a oficiais militares sem supervisão. A denúncia, porém, estava feita e, com a guerra contra o Irã a dar sinais preocupantes para a administração norte-americana, o seu significado não poderia ser mais eloquente.
A renúncia de Kalinowski aconteceu já num clima de polêmica sobre os limites éticos do uso de modelos de IA para fins militares. A Anthropic, que tem a app Claude em ascensão e que é, por isso, concorrente da OpenAI, tinha-se oposto a um acordo com o Pentágono de teor análogo ao que a OpenAI subscreveu. E segundo o que veio a público, os pontos que levaram a essa posição foram precisamente aqueles que levaram à decisão de Kalinowski.
Não é que a Anthropic não colabore também com o Departamento da Guerra e ponha os seus modelos ao serviço dos interesses dos militares e da defesa dos Estados Unidos, como se depreende de posições públicas do seu co-fundador e CEO, Dario Amodei. Mas bateu o pé, levou a respetiva repreensão do Pentágono, mas isso alimentou a controvérsia e trouxe proveitos à sua empresa. Segundo a publicação especializada TechCrunch, as desinstalações do ChatGPT aumentaram 295 por cento e Claude subiu ao topo das tabelas da AppStore dos EUA.
Leia mais
- "Armas letais gerenciadas por algoritmos", diz gerente da OpenAI ao cargo
- Anthropic processa governo Trump após ser rotulada como “risco para a cadeia de suprimentos”
- Um confronto entre o Pentágono e a Anthropic e os perigos da guerra com IA. Artigo de Kevin Clarke
- Anthropic versus Trump
- Pentágono pressiona startup a ceder IA para fins militares
- “A inteligência artificial permite uma vigilância total que acaba com qualquer liberdade”. Entrevista com Yuval Noah Harari
- Trump está usando IA para travar suas guerras – este é um ponto de virada perigoso. Artigo de Chris Stokel-Walker
- Um confronto entre o Pentágono e a Anthropic e os perigos da guerra com IA. Artigo de Kevin Clarke
- Anthropic versus Trump
- Pentágono pressiona startup a ceder IA para fins militares
- “A inteligência artificial permite uma vigilância total que acaba com qualquer liberdade”. Entrevista com Yuval Noah Harari