• Início
  • Sobre o IHU
    • Gênese, missão e rotas
    • Sala Ignacio Ellacuría e Companheiros
    • Rede SJ-Cias
      • CCIAS
      • CEPAT
  • Programas
    • Observasinos
    • Teologia Pública
    • IHU Fronteiras
    • Repensando a Economia
    • Sociedade Sustentável
  • Notícias
    • Mais notícias
    • Entrevistas
    • Páginas especiais
    • Jornalismo Experimental
    • IHUCAST
  • Publicações
    • Mais publicações
    • Revista IHU On-Line
  • Eventos
  • Espiritualidade
    • Comentário do Evangelho
    • Ministério da palavra na voz das Mulheres
    • Orações Inter-Religiosas Ilustradas
    • Martirológio Latino-Americano
    • Sínodo Pan-Amazônico
    • Mulheres na Igreja
  • Contato
close
search
  • Início
  • Sobre o IHU
    • Gênese, missão e rotas
    • Sala Ignacio Ellacuría e Companheiros
    • Rede SJ-Cias
      • CCIAS
      • CEPAT
  • Programas
    • Observasinos
    • Teologia Pública
    • IHU Fronteiras
    • Repensando a Economia
    • Sociedade Sustentável
  • Notícias
    • Mais notícias
    • Entrevistas
    • Páginas especiais
    • Jornalismo Experimental
    • IHUCAST
  • Publicações
    • Mais publicações
    • Revista IHU On-Line
  • Eventos
  • Espiritualidade
    • Comentário do Evangelho
    • Ministério da palavra na voz das Mulheres
    • Orações Inter-Religiosas Ilustradas
    • Martirológio Latino-Americano
    • Sínodo Pan-Amazônico
    • Mulheres na Igreja
  • Contato
search

##TWEET

Tweet

E se a inteligência artificial decidisse quem deve ser salvo na guerra?

Mais Lidos

  • As tensões surgiram pela primeira vez na véspera do conclave: o decano não mencionou Francisco na homilia e parabenizou Parolin no final

    LER MAIS
  • Como o Papa Francisco exerce forte influência sobre o conclave de 2025

    LER MAIS
  • O professor e ensaísta analisa como Donald Trump se transformou em um showman global da antipolítica extremista de direita

    “Toda política hoje é mesopolítica: uma política de meios e de mediações”. Entrevista especial com Rodrigo Petronio

    LER MAIS

Vídeos IHU

  • play_circle_outline

    MPVM - 3º domingo da Páscoa - Ano C - O Ressuscitado encoraja para a missão

close

FECHAR

Image

COMPARTILHAR

  • FACEBOOK

  • X

  • IMPRIMIR PDF

  • WHATSAPP

close CANCELAR

share

20 Abril 2022

 

Agência estadunidense começou a desenvolver um instrumento baseado em deep learning que poderia um dia decidir como organizar os esforços de socorro das tropas sob ataque: outro passo para a automação da guerra.

 

A reportagem é de Andrea Daniele Signorelli, publicada em La Repubblica, 18-04-2022. A tradução é de Moisés Sbardelotto.

 

A inteligência artificial em âmbito militar recebeu uma promoção. Até hoje, as aplicações bélicas do deep learning sempre estiveram relacionadas aos chamados soldados robôs (mais corretamente, armas autônomas): drones, mísseis e não apenas teoricamente capazes de identificar os alvos por conta própria e disparar.

Trata-se de instrumentos que quase nunca foram usados em todas as suas potencialidades (o gatilho é pressionado por um ser humano) e que levantam tantos problemas éticos que uma importante campanha está em andamento há anos para pedir que sejam banidos.

 

A guerra na Ucrânia

 

De simples soldados, no entanto, os algoritmos agora poderiam se tornar oficiais. Em março, a Darpa – a agência para os projetos de pesquisa avançada da Defesa dos Estados Unidos, que no passado desempenhou um papel no nascimento da internet, do GPS e de muito mais – apresentou um projeto para desenvolver uma inteligência artificial capaz de decidir em questão de poucos segundos como organizar o resgate de uma tropa atingida por um ataque inimigo, como salvar o maior número possível de vidas após um atentado e outros cenários bélicos semelhantes.

Batizado de “In The Moment”, esse programa faz parte dos mais de 60 projetos relacionados ao emprego da inteligência artificial no setor da Defesa, financiados desde 2018 com mais de dois bilhões de dólares.

“O objetivo é desenvolver uma tecnologia capaz de tomar decisões muito rápidas em cenários extremamente estressantes, usando algoritmos e dados para remover os preconceitos humanos e, assim, salvar um número maior de vidas”, escreveu o Washington Post.

O “In The Moment” é um programa com uma duração estimada de três anos e meio, que envolve a colaboração de empresas privadas, embora não tenham sido divulgadas informações sobre quais empresas vão estar envolvidas ou demonstraram interesse, nem quantos recursos econômicos foram destinados a esse projeto.

Se e quando for concluído, esse sistema deverá ser capaz de enfrentar situações muito diferentes, que vão desde a organização dos esforços de socorro para pequenas unidades que sofreram grandes perdas no decurso de uma operação especial até atentados terroristas que podem provocar centenas de mortes entre civis.

 

Saúde

 

Ao intervir após episódios desse tipo, o software da Darpa deve ser capaz de identificar em poucos segundos todos os hospitais disponíveis nos arredores, quais estão mais abastecidos com os recursos médicos necessários (por exemplo, suprimentos de sangue ou leitos vagos), como subdividir os feridos nas diversas estruturas, a quais feridos dar a prioridade e muito mais.

“As indicações do algoritmo replicariam as dos seres humanos com mais experiência no campo da triagem”, explicou Matt Turek, responsável pelo projeto da Darpa. Os algoritmos informáticos, continuou Turek, podem encontrar soluções das quais os humanos não são capazes, tendo a possibilidade de avaliar uma enorme quantidade de dados, soluções e diferentes cenários em tempos muito curtos.

Como muitas vezes ocorre no campo da tecnologia (pensemos nas interfaces cérebro-máquina ou na edição genética), as primeiras aplicações promovidas dizem respeito ao campo médico e à possibilidade de salvar vidas ou eliminar doenças. No entanto, isso não impede de imaginar que, se esse primeiro experimento da Darpa for bem-sucedido, os sistemas de inteligência artificial poderão no futuro decidir também como alocar as tropas em um cenário de guerra, qual estratégia adotar, quem atacar e muito mais.

Seria um enorme passo na direção da automação da guerra, que foi recentemente recomendada pela National Security Commission on AI (um órgão de consultoria do governo dos Estados Unidos) e que é duramente combatida por muitos especialistas, extremamente preocupados com as consequências éticas.

Será que uma máquina realmente pode escolher quem deve ser tratado primeiro quando os recursos forem limitados? - Andrea Daniele Signorelli

Será que uma máquina realmente pode escolher quem deve ser tratado primeiro quando os recursos forem limitados? E quem deve assumir a responsabilidade se o software tomar decisões erradas, causando a morte de inúmeros soldados ou civis? Não há o risco de desresponsabilizar as pessoas que, hoje, fazem esse tipo de escolhas fundamentais? E sobretudo: estamos realmente certos de que – por mais rápidos e eficientes que sejam no tratamento de grandes quantidades de dados – é possível confiar tarefas tão delicadas a instrumentos totalmente desprovidas de bom senso e da capacidade de enfrentar de formas novas situações inéditas ou imprevistas?

Dos algoritmos que se encarregam de selecionar os candidatos mais aptos para um trabalho até os de polícia preditiva que indicam às patrulhas quais áreas vigiar, sempre que os sistemas de deep learning foram aplicados em campos onde os aspectos éticos e de valor desempenham um papel importante papel, multiplicaram-se os problemas de discriminação, erros e inadequação.

Antes de utilizar instrumentos que até hoje se mostraram altamente problemáticas até mesmo nas situações de emergência mais graves, talvez devêssemos pensar nisso com muita atenção.

 

Leia mais

 

  • Os algoritmos e as desafios às novas configurações acadêmicas. Artigo de Marcelo de Araújo.
  • Algoritmos e inteligência artificial podem promover racismo no Brasil.
  • Ainda seremos capazes de dominar a selva dos algoritmos? Entrevista com Aurélie Jean.
  • Algoritmos e novos instrumentos de participação política. Artigo de Paolo Benanti e Sebastiano Maffettone.
  • Os algoritmos podem intensificar a desigualdade. 
  • Um pacto entre ética e tecnologia: caso contrário, robôs e algoritmos mandarão nos seres humanos. Entrevista com Vincenzo Paglia.
  • “Black Mirror” expõe nosso medo de robôs e algoritmos que fogem do controle.
  • A silenciosa dominação por Algoritmos.
  • A silenciosa batalha dos algoritmos.
  • Um mundo regido por algoritmos tem potencial de acirrar desigualdades sociais.

Notícias relacionadas

  • 17 de maio de 1915 – Primeira Guerra Mundial faz superior-geral dos jesuítas se mudar para a Suíça

    Quando a Itália entrou na guerra contra a Áustria, ficou insustentável para Ledochowski (foto) permanecer em Roma. Então, e[...]

    LER MAIS
  • E Kissinger disse a Videla: "Façam tudo depressa"

    O secretário de Estado estadunidense Henry Kissinger e o ministro argentino das Relações Exteriores César Augusto Guzzetti enc[...]

    LER MAIS
  • Um filme para o museu

    Arte e poder são dois temas que interessam sobremaneira ao diretor russo Aleksandr Sokurov. Seus filmes combinam o rigor históri[...]

    LER MAIS
  • O rapaz da ambulância de Alepo. Uma criança de cinco anos é o novo símbolo da guerra na Síria

    Há cinco anos, quando a guerra na Síria começou, Omran Daqneesh nasceu. Na quarta-feira, ao fim do dia, a guerra ia-o matando [...]

    LER MAIS
  • Início
  • Sobre o IHU
    • Gênese, missão e rotas
    • Sala Ignacio Ellacuría e Companheiros
    • Rede SJ-Cias
      • CCIAS
      • CEPAT
  • Programas
    • Observasinos
    • Teologia Pública
    • IHU Fronteiras
    • Repensando a Economia
    • Sociedade Sustentável
  • Notícias
    • Mais notícias
    • Entrevistas
    • Páginas especiais
    • Jornalismo Experimental
    • IHUCAST
  • Publicações
    • Mais publicações
    • Revista IHU On-Line
  • Eventos
  • Espiritualidade
    • Comentário do Evangelho
    • Ministério da palavra na voz das Mulheres
    • Orações Inter-Religiosas Ilustradas
    • Martirológio Latino-Americano
    • Sínodo Pan-Amazônico
    • Mulheres na Igreja
  • Contato

Av. Unisinos, 950 - São Leopoldo - RS
CEP 93.022-750
Fone: +55 51 3590-8213
humanitas@unisinos.br
Copyright © 2016 - IHU - Todos direitos reservados