• Início
  • Sobre o IHU
    • Gênese, missão e rotas
    • Sala Ignacio Ellacuría e Companheiros
    • Rede SJ-Cias
      • CCIAS
      • CEPAT
  • Programas
    • Observasinos
    • Teologia Pública
    • IHU Fronteiras
    • Repensando a Economia
    • Sociedade Sustentável
  • Notícias
    • Mais notícias
    • Entrevistas
    • Páginas especiais
    • Jornalismo Experimental
    • IHUCAST
  • Publicações
    • Mais publicações
    • Revista IHU On-Line
  • Eventos
  • Espiritualidade
    • Comentário do Evangelho
    • Ministério da palavra na voz das Mulheres
    • Orações Inter-Religiosas Ilustradas
    • Martirológio Latino-Americano
    • Sínodo Pan-Amazônico
    • Mulheres na Igreja
  • Contato
close
search
  • Início
  • Sobre o IHU
    • Gênese, missão e rotas
    • Sala Ignacio Ellacuría e Companheiros
    • Rede SJ-Cias
      • CCIAS
      • CEPAT
  • Programas
    • Observasinos
    • Teologia Pública
    • IHU Fronteiras
    • Repensando a Economia
    • Sociedade Sustentável
  • Notícias
    • Mais notícias
    • Entrevistas
    • Páginas especiais
    • Jornalismo Experimental
    • IHUCAST
  • Publicações
    • Mais publicações
    • Revista IHU On-Line
  • Eventos
  • Espiritualidade
    • Comentário do Evangelho
    • Ministério da palavra na voz das Mulheres
    • Orações Inter-Religiosas Ilustradas
    • Martirológio Latino-Americano
    • Sínodo Pan-Amazônico
    • Mulheres na Igreja
  • Contato
search

##TWEET

Tweet

Inteligências artificiais racistas? O Google e os tons de pele. Artigo de Paolo Benanti

Mais Lidos

  • As tensões surgiram pela primeira vez na véspera do conclave: o decano não mencionou Francisco na homilia e parabenizou Parolin no final

    LER MAIS
  • Especialistas internacionais e nacionais – Andrea Grillo, Maria Cristina Furtado, Faustino Teixeira, Ivone Gebara e Alzirinha Souza – apresentam suas primeiras impressões após a eleição de Robert Francis Prevost, o primeiro papa estadunidense da Igreja

    Papa Leão XIV. Desafios e expectativas. Algumas análises

    LER MAIS
  • Esquerdas governamentais, conciliatórias e apaziguadoras reduziram-se a “salvar o capitalismo dele mesmo” e não conseguem canalizar inconformidade e indignação, tarefa que o fascismo desejado e reivindicado pelas massas tomou para si com sucesso

    A internacional fascista como modo de vida. Entrevista especial com Augusto Jobim do Amaral

    LER MAIS

Vídeos IHU

  • play_circle_outline

    MPVM - 4º domingo de Páscoa – Ano C – A missão de cuidar da vida e cuidar da humanidade

close

FECHAR

Image

COMPARTILHAR

  • FACEBOOK

  • X

  • IMPRIMIR PDF

  • WHATSAPP

close CANCELAR

share

20 Mai 2022

 

Na semana passada, o Google anunciou que está começando a incorporar um padrão de 10 tons de pele em todos os seus produtos, chamado de escala Monk Skin Tone (MST). Mas o código será suficiente para compensar as injustiças?

 

O comentário é de Paolo Benanti, teólogo e frei franciscano da Terceira Ordem Regular, professor da Pontifícia Universidade Gregoriana, em Roma, e acadêmico da Pontifícia Academia para a Vida.

 

O artigo foi publicado em seu blog, 19-05-2022. A tradução é de Moisés Sbardelotto.

 

Eis o texto.

 

Após a demissão em 2020 de Timnit Gebru, chefe da equipe Ethical AI do Google/Alphabet, inúmeras críticas de várias associações pela inclusão social foram feitas e inúmeros pesquisadores no campo da inteligência artificial abandonaram o gigante de Mountain View.

 

Na semana passada, em um anúncio na conferência anual Google I/O para desenvolvedores, a empresa disse que um novo sistema com 10 tons de pele reformulará a abordagem da empresa à inteligência artificial. Durante anos, a indústria de tecnologia se confiou a uma escala de seis tonalidades para classificar os tons de pele. A alternativa open source do gigante das buscas poderia mudar isso.

 

Mas o código será suficiente para compensar as injustiças? A péssima história da demissão de Gebru e as sombras resultantes são apenas problemas de software ou de cultura empresarial?

 

Um dos problemas que afligem as inteligências artificiais são erros sistemáticos de avaliação que podem produzir julgamentos sobre as pessoas semelhantes a verdadeiros preconceitos humanos. A máquina toma uma decisão não por parâmetros significativos como, por exemplo, os títulos de estudo, os dados de saúde ou a renda, mas por elementos passíveis de preconceito como o sexo, a região de residência, a nacionalidade.

 

Esses erros – em inglês, bias – podem levar a verdadeiras formas de injustiça social, se não forem previstos e controlados. Em particular, um erro particularmente grave, devido à longa história de racismo dos séculos passados, é aquele ligado à cor da pele. Durante anos, as empresas de tecnologia confiaram na chamada escala Fitzpatrick para classificar os tons de pele para os seus algoritmos de visão computadorizada.

 

Projetado originalmente para os dermatologistas nos anos 1970, o sistema compreende apenas seis tonalidades de pele, uma possível causa das falhas bem documentadas da inteligência artificial na identificação das pessoas negras.

 

Na semana passada, o Google anunciou que está começando a incorporar um padrão de 10 tons de pele em todos os seus produtos, chamado de escala Monk Skin Tone (MST), do Google Imagens ao Google Fotos e além.

Escala Monk Skin Tone (MST), do Google (Foto: PaoloBenanti.com)

 

Esse desenvolvimento tem o potencial de reduzir os vieses nos conjuntos de dados utilizados para treinar a inteligência artificial em qualquer âmbito, da assistência sanitária à moderação de conteúdos.

 

O Google sinalizou pela primeira vez a intenção de ir além da escala Fitzpatrick no ano passado. Internamente, o projeto remonta a um esforço do verão de 2020 de quatro mulheres negras do Google para fazer com que a inteligência artificial “funcione melhor para as pessoas negras”, de acordo com postagens no Twitter de Xango Eyeé, gerente de produto responsável pela inteligência artificial da empresa.

 

Na conferência Google I/O deste ano, realizada na segunda semana de maio, a empresa ilustrou o impacto que o novo sistema poderia ter em seus inúmeros produtos. O Google também tornará o MST um código aberto, o que significa que poderia substituir o Fitzpatrick como padrão industrial para avaliar a exatidão das câmeras e dos sistemas de visão computadorizada.

 

Se o Google adotasse a escala dos 10 tons de pele em todas as suas linhas de produtos, isso poderia ter implicações para uma avaliação justa dos algoritmos utilizados nos resultados de pesquisa do Google, nos smartphones Pixel, nos algoritmos de classificação do YouTube, nos carros autônomos Waymo e muito mais.

 

A escala cromática codificada até hoje na tecnologia pode levar a resultados pouco dignos para as pessoas de pele escura, como por exemplo o Google Fotos, que rotula erroneamente as fotos de pessoas negras como gorilas, ou saboneteiras racistas e imagens estereotipadas geradas automaticamente.

 

Um algoritmo desenvolvido pelo Google para identificar lesões não incluía as pessoas de pele escura. Descobriu-se que os sistemas de direção autônoma identificam as pessoas de pele escura de forma muito menos confiável do que aquelas de pele branca.

 

O mais notório é que um trabalho de pesquisa de 2018, de coautoria do ex-líder da equipe Ethical AI, Timnit Gebru, concluiu que os algoritmos de reconhecimento facial feitos pelas principais empresas tiveram resultados piores com mulheres de pele escura, um trabalho detalhado no documentário “Coded Bias”.

 

Após a demissão de Gebru pelo Google no fim de 2020, os grupos Black in AI e Queer in AI se comprometeram a não receber mais fundos do Google, e o relatório sobre a diversidade da empresa de 2021 constatou que as taxas de demissão são mais altas entre as mulheres negras e as nativas americanas.

 

Não sabemos se a escala Monk produzirá os efeitos esperados no software. O que desejamos é que a erradicação dos preconceitos do coração humano nunca seja uma tarefa delegada à máquina, mas passe por um compromisso educativo global.

 

Leia mais

 

  • O algoritmo “vigiador”. Artigo de Paolo Benanti
  • Por uma inteligência artificial humanística. Entrevista com Paolo Benanti
  • Tecnologia e novo pacto social. Artigo de Paolo Benanti
  • Ética e Inteligência Artificial. Dez áreas de interesse
  • Apelo de Roma por uma ética da inteligência artificial
  • A ética da inteligência artificial é a mesma de outras novas tecnologias
  • Por uma inteligência artificial humanística. Entrevista com Paolo Benanti
  • Igreja é voz moral diante do avanço da inteligência artificial. Entrevista com Brian Patrick Green
  • Inteligência artificial - A disputa entre a busca da eficiência e os desafios ético-morais. Entrevista especial com Brian Green
  • “A inteligência artificial já faz parte da nossa cotidianidade.” Entrevista com Luciano Floridi

  • Início
  • Sobre o IHU
    • Gênese, missão e rotas
    • Sala Ignacio Ellacuría e Companheiros
    • Rede SJ-Cias
      • CCIAS
      • CEPAT
  • Programas
    • Observasinos
    • Teologia Pública
    • IHU Fronteiras
    • Repensando a Economia
    • Sociedade Sustentável
  • Notícias
    • Mais notícias
    • Entrevistas
    • Páginas especiais
    • Jornalismo Experimental
    • IHUCAST
  • Publicações
    • Mais publicações
    • Revista IHU On-Line
  • Eventos
  • Espiritualidade
    • Comentário do Evangelho
    • Ministério da palavra na voz das Mulheres
    • Orações Inter-Religiosas Ilustradas
    • Martirológio Latino-Americano
    • Sínodo Pan-Amazônico
    • Mulheres na Igreja
  • Contato

Av. Unisinos, 950 - São Leopoldo - RS
CEP 93.022-750
Fone: +55 51 3590-8213
humanitas@unisinos.br
Copyright © 2016 - IHU - Todos direitos reservados