20 Mai 2022
Na semana passada, o Google anunciou que está começando a incorporar um padrão de 10 tons de pele em todos os seus produtos, chamado de escala Monk Skin Tone (MST). Mas o código será suficiente para compensar as injustiças?
O comentário é de Paolo Benanti, teólogo e frei franciscano da Terceira Ordem Regular, professor da Pontifícia Universidade Gregoriana, em Roma, e acadêmico da Pontifícia Academia para a Vida.
O artigo foi publicado em seu blog, 19-05-2022. A tradução é de Moisés Sbardelotto.
Após a demissão em 2020 de Timnit Gebru, chefe da equipe Ethical AI do Google/Alphabet, inúmeras críticas de várias associações pela inclusão social foram feitas e inúmeros pesquisadores no campo da inteligência artificial abandonaram o gigante de Mountain View.
Na semana passada, em um anúncio na conferência anual Google I/O para desenvolvedores, a empresa disse que um novo sistema com 10 tons de pele reformulará a abordagem da empresa à inteligência artificial. Durante anos, a indústria de tecnologia se confiou a uma escala de seis tonalidades para classificar os tons de pele. A alternativa open source do gigante das buscas poderia mudar isso.
Mas o código será suficiente para compensar as injustiças? A péssima história da demissão de Gebru e as sombras resultantes são apenas problemas de software ou de cultura empresarial?
Um dos problemas que afligem as inteligências artificiais são erros sistemáticos de avaliação que podem produzir julgamentos sobre as pessoas semelhantes a verdadeiros preconceitos humanos. A máquina toma uma decisão não por parâmetros significativos como, por exemplo, os títulos de estudo, os dados de saúde ou a renda, mas por elementos passíveis de preconceito como o sexo, a região de residência, a nacionalidade.
Esses erros – em inglês, bias – podem levar a verdadeiras formas de injustiça social, se não forem previstos e controlados. Em particular, um erro particularmente grave, devido à longa história de racismo dos séculos passados, é aquele ligado à cor da pele. Durante anos, as empresas de tecnologia confiaram na chamada escala Fitzpatrick para classificar os tons de pele para os seus algoritmos de visão computadorizada.
Projetado originalmente para os dermatologistas nos anos 1970, o sistema compreende apenas seis tonalidades de pele, uma possível causa das falhas bem documentadas da inteligência artificial na identificação das pessoas negras.
Na semana passada, o Google anunciou que está começando a incorporar um padrão de 10 tons de pele em todos os seus produtos, chamado de escala Monk Skin Tone (MST), do Google Imagens ao Google Fotos e além.
Escala Monk Skin Tone (MST), do Google (Foto: PaoloBenanti.com)
Esse desenvolvimento tem o potencial de reduzir os vieses nos conjuntos de dados utilizados para treinar a inteligência artificial em qualquer âmbito, da assistência sanitária à moderação de conteúdos.
O Google sinalizou pela primeira vez a intenção de ir além da escala Fitzpatrick no ano passado. Internamente, o projeto remonta a um esforço do verão de 2020 de quatro mulheres negras do Google para fazer com que a inteligência artificial “funcione melhor para as pessoas negras”, de acordo com postagens no Twitter de Xango Eyeé, gerente de produto responsável pela inteligência artificial da empresa.
Na conferência Google I/O deste ano, realizada na segunda semana de maio, a empresa ilustrou o impacto que o novo sistema poderia ter em seus inúmeros produtos. O Google também tornará o MST um código aberto, o que significa que poderia substituir o Fitzpatrick como padrão industrial para avaliar a exatidão das câmeras e dos sistemas de visão computadorizada.
Se o Google adotasse a escala dos 10 tons de pele em todas as suas linhas de produtos, isso poderia ter implicações para uma avaliação justa dos algoritmos utilizados nos resultados de pesquisa do Google, nos smartphones Pixel, nos algoritmos de classificação do YouTube, nos carros autônomos Waymo e muito mais.
A escala cromática codificada até hoje na tecnologia pode levar a resultados pouco dignos para as pessoas de pele escura, como por exemplo o Google Fotos, que rotula erroneamente as fotos de pessoas negras como gorilas, ou saboneteiras racistas e imagens estereotipadas geradas automaticamente.
Um algoritmo desenvolvido pelo Google para identificar lesões não incluía as pessoas de pele escura. Descobriu-se que os sistemas de direção autônoma identificam as pessoas de pele escura de forma muito menos confiável do que aquelas de pele branca.
O mais notório é que um trabalho de pesquisa de 2018, de coautoria do ex-líder da equipe Ethical AI, Timnit Gebru, concluiu que os algoritmos de reconhecimento facial feitos pelas principais empresas tiveram resultados piores com mulheres de pele escura, um trabalho detalhado no documentário “Coded Bias”.
Após a demissão de Gebru pelo Google no fim de 2020, os grupos Black in AI e Queer in AI se comprometeram a não receber mais fundos do Google, e o relatório sobre a diversidade da empresa de 2021 constatou que as taxas de demissão são mais altas entre as mulheres negras e as nativas americanas.
Não sabemos se a escala Monk produzirá os efeitos esperados no software. O que desejamos é que a erradicação dos preconceitos do coração humano nunca seja uma tarefa delegada à máquina, mas passe por um compromisso educativo global.
FECHAR
Comunique à redação erros de português, de informação ou técnicos encontrados nesta página:
Inteligências artificiais racistas? O Google e os tons de pele. Artigo de Paolo Benanti - Instituto Humanitas Unisinos - IHU