Inteligência artificial: substituição, hibridização… progresso?

Foto: Viralyft | Unsplash

25 Outubro 2023

O salto na adoção da inteligência artificial que o lançamento do ChatGTP representou convida-nos a refletir não só sobre a forma como esta tecnologia é utilizada, mas também sobre quem e como a IA é produzida e quem dela beneficia. Que tipos de trabalho permitem que ele seja produzido? Quais as consequências da sua adoção em termos de substituição de capacidades de aprendizagem? É possível outro modelo de inteligência artificial?

O artigo é de Cecília Rikap, pesquisadora do Instituto de Inovação e Propósito Público da University College London e do Conselho Nacional de Pesquisa Científica e Técnica (Conicet) da Argentina, publicado por Nueva Sociedad, setembro-outubro-2023.

Eis o artigo.

Em novembro de 2022, OpenAI lançou o ChatGPT. Segundo a empresa, em apenas cinco dias o aplicativo já contava com um milhão de contas ativas. O Instagram, até então um exemplo de rápida adoção, demorou cerca de dois meses e meio para atingir esse número de downloads. Em janeiro de 2023, o ChatGPT tinha mais de 100 milhões de contas ativas[1]. É uma tecnologia fácil e barata de adotar. Seu uso não requer equipamentos sofisticados porque funciona na internet, e o ChatGPT ainda possui uma versão gratuita. Existem também modelos rivais menos avançados disponíveis em acesso aberto, embora a sua utilização exija adaptação. Como veremos a seguir, a possibilidade de oferecer tecnologia de ponta a baixo preço se explica, entre outros fatores, porque sua base é a apropriação de conhecimentos e dados produzidos por terceiros.

Neste cenário, a preocupação não mais com o futuro, mas com o presente do trabalho, cresceu exponencialmente. O futuro do trabalho é hoje; Milhões de tarefas estão sendo automatizadas. A McKinsey, maior consultoria privada do mundo, estima que, até 2030, 30% das tarefas realizadas hoje nos Estados Unidos serão automatizadas[2], um número que esconde as desigualdades do mercado de trabalho. No mesmo relatório, estima-se que aqueles que ocupam empregos com salários mais baixos têm até 14 vezes mais probabilidade de ter de mudar de emprego do que aqueles que têm salários mais elevados, enquanto as mulheres têm 1,5 vezes mais probabilidade de ter de procurar emprego do que os homens[3].

Compreender por que razão a inteligência artificial (IA) desenvolvida hoje dá prioridade à automação exige que se afaste das discussões sobre a utilização desta tecnologia para se concentrar primeiro nas relações de produção da IA. Passaremos do trabalho que produz IA para a IA que substitui o trabalho. Isto implica perguntar-nos o que está sendo produzido, ou seja, o que é IA.

O que é inteligência artificial e quem a controla?

Indo do gênero à espécie, a IA é composta por um conjunto de algoritmos, ou seja, regras ou instruções que devem ser seguidas para resolver um problema ou realizar um cálculo. Embora utilizemos algoritmos para resolver os mais diversos problemas, sua popularidade recente está associada ao big data. Grandes volumes de dados extraídos de plataformas digitais ou de outras áreas, como máquinas conectadas através da Internet das Coisas, devem ser processados ​​para obter informações – sobre o passado e o presente – que possam moldar o futuro. Algoritmos são usados ​​para isso.

Atualmente, a técnica mais avançada para processamento de dados é um subconjunto de algoritmos de IA, uma classe de aprendizado de máquina chamada aprendizagem profunda ou redes neurais profundas. Esta é a tecnologia de IA que mais cresceu em pedidos de patentes entre 2012 e 2016[4], e seu desempenho é melhor do que qualquer outro modelo de IA[5]. Os modelos de aprendizagem profunda são compostos de muitas camadas que formam redes hierárquicas para aprender recursos e classificar por meio da identificação de padrões.

A especificidade desses algoritmos é que eles evoluem, tornando-se mais especializados com base no fluxo e na análise de dados. Por outras palavras, aprendem e melhoram por si próprios à medida que processam mais dados, ajustando os seus parâmetros para produzir melhores previsões. É por isso que a escala é importante para o desenvolvimento e utilização da IA. Dados e algoritmos são complementos estritos e igualmente essenciais para o funcionamento da IA. Na medida em que estes modelos se tornam melhores com o uso, podemos pensá-los como meios de produção que se valorizam ao longo do tempo, o que os torna únicos, uma vez que os restantes meios de produção se depreciam com o uso.

A sua aplicação é tão variada que a IA começou a ser considerada uma tecnologia de uso geral, ou mesmo um novo método de invenção, na medida em que nos permite automatizar descobertas e expandir o tipo de problemas que podem ser estudados com grande esforço com big data [6]. Em última análise, o objetivo das grandes empresas por trás desses modelos é produzir uma tecnologia que não necessite de processos de adaptação, que possa ser adotada diretamente para os mais diversos ambientes. Portanto, seus clientes são potencialmente todas as organizações e pessoas do mundo.

Nessa busca surge um tipo específico de modelo de aprendizagem profunda, os grandes modelos de linguagem (LLM). O ChatGPT é baseado no maior LLM do mundo. Os LLMs prevêem qual palavra vem a seguir em uma sequência. Como explica o Google, “LLMs geram novas combinações de texto na forma de linguagem natural. E podemos até construir modelos linguísticos para gerar outros tipos de resultados, como novas imagens, áudio e também vídeo[7]. Em entrevista, um funcionário do Google os definiu como “agentes” porque o agente inteligente – o programa de computador – interage com o ambiente e aprende a agir nele[8].

É uma ferramenta poderosa porque, como qualquer modelo de aprendizagem profunda, os ILMs melhoram quanto mais dados processam, que até certo ponto parte de sua melhoria é terceirizada para usuários ou clientes. Ou seja, parte do trabalho produzido pela IA – que não é remunerado – é realizado por quem a consome. Por exemplo, cada vez que fazemos uma pergunta ou solicitamos algo ao ChatGPT, são produzidos mais dados que podem ser usados ​​para melhorá-lo.

Um advogado da Amazon chegou ao ponto de dizer que ninguém na empresa deveria fornecer “informações confidenciais da Amazon ao ChatGPT (incluindo o código da Amazon em que você está trabalhando)” e acrescentou que esta recomendação era “importante porque sua opinião pode ser usada como dados." treinamento para uma iteração posterior do ChatGPT, e não gostaríamos que sua saída incluísse ou se parecesse com nossas informações confidenciais (e já vi casos em que sua saída se parece muito com material existente)[9]. A Amazon não é a única empresa líder que proibiu ou limitou o uso do ChatGPT aos seus funcionários pelos seguintes motivos: Apple, JPM Organ Chase e Samsung seguiram seus passos[10]. É só a OpenAI, empresa que criou o ChatGPT, que te preocupa?

Sopa de novo?

Em maio de 2023, o canal de televisão CNBC entrevistou o CEO da Microsoft, Satya Nadella. Quando questionado se a atual onda de IA favorece as empresas estabelecidas, ele respondeu negativamente, argumentando que uma start-up, a OpenAI, estava liderando esta tecnologia[11]. O que Nadella omitiu é que a sua empresa detém 49% da OpenAI e que está sob a sua órbita pelo menos desde 2019, quando lhe concedeu um primeiro financiamento de mil milhões de dólares em troca de acesso exclusivo ao filme que a OpenAI estava a desenvolver até então (GPT-3). O acordo significou para a Microsoft a possibilidade de orientar os desenvolvimentos e definir as prioridades do OpenAI. A Microsoft instou-a a priorizar o desenvolvimento de uma interface para usar o GPT-3, mais tarde chamada de ChatGPT, à qual a Microsoft teve acesso muito antes do lançamento público, com a possibilidade de integrar a tecnologia em seus serviços em nuvem, incluindo seu motor de busca Bing. OpenAI não apenas obteve financiamento, que após o sucesso do ChatGPT Microsoft aumentou em mais 10 bilhões de dólares[12]. A adesão à comitiva de empresas que dependem da Microsoft incluiu o acesso à sua nuvem pública, algo essencial para treinar os OpenAI LLMs, os maiores já vistos[13].

A empresa DeepMind, adquirida pelo Google em 2014, já trabalhava há anos na fronteira do LLM, mas sem que isso resultasse no lançamento de um produto semelhante ao ChatGPT. Temendo que o Bing pudesse ganhar o poder de mercado do seu motor de busca, o Google reagiu precipitadamente lançando o seu próprio modelo de linguagem principal, o Bard, que cometeu um erro na sua primeira demonstração. Em fevereiro de 2023, Meta introduziu sua própria alternativa, chamada MA (Large Language Model Meta AI)[14]. A Amazon entrou na corrida expandindo seu suporte à Hugging Face, uma startup cujo chatbot de IA é oferecido como um serviço na nuvem da Amazon, e oferecendo o Amazon Bedrock, um serviço para construir e dimensionar aplicativos de IA baseados em LLM[15]. Em uma saga digna de um documentário da Netflix, em menos de um ano vimos desfilar novas versões e serviços em nuvem que, em última análise, se assemelham ao ChatGPT. Outra semelhança é que todos estes filmes estão sob o controle – direto ou indireto – de algumas grandes empresas de tecnologia digital.

O mesmo pequeno grupo de gigantes monopoliza não apenas o desenvolvimento da IA mais avançada, mas também dos maiores bancos de dados, que se expandem continuamente à medida que utilizamos suas plataformas e infraestrutura digital – processadores e servidores interligados em data centers de área maior que um estádio de futebol. Até a Harvard Business Review, revista para executivos, já havia publicado um artigo que chamava a atenção para o poder excessivo das chamadas big tech anos antes da chegada do ChatGPT[16].

A capacidade de controlar a IA por algumas empresas deste porte não tem precedentes. Refiro-me aqui, em particular, à Amazon, Google, Meta e Microsoft, embora Alibaba, Tencent e outros gigantes chineses, como a empresa proprietária do TikTok, também desenvolvam e utilizem IA, apropriando-se livremente de códigos e dados. Num artigo recente, construí um proxy da rede de organizações que apresentaram mais trabalhos nas maiores conferências de IA do mundo. Todos esses gigantes digitais compõem a rede, com Google e Microsoft nas posições mais importantes. Além disso, a Microsoft é a ponte que liga as organizações ocidentais às chinesas, um sinal claro do seu papel geopolítico estratégico[17]. A Microsoft é o único gigante americano bem posicionado na China, onde abriu o seu primeiro grande campus de I&D fora dos EUA em 2010. Esta presença também se traduziu em colaborações regulares para o desenvolvimento da IA com as principais universidades daquele país e com os seus gigantes digitais. A Microsoft conecta todo o campo da IA e beneficia da investigação mais avançada em IA tal como ela é – e as outras grandes empresas digitais – e não as universidades e outras organizações de investigação com as quais co-produz IA, que monetizam o conhecimento produzido[18].

Escusado será dizer que as grandes empresas tecnológicas dos EUA também figuram com destaque nos comités de conferências que, em última análise, definem quais os trabalhos que são de vanguarda e que valem a pena apresentar. Por exemplo, todos eles têm pelo menos um membro no comitê organizador da NeurIPS, a principal conferência anual sobre aprendizado de máquina. Google, que teve o maior número de artigos aceitos nesta conferência em 2022[19], tinha nove de seus 39 membros.

Este punhado de empresas controla todo o setor. O Google adquiriu mais startups de IA do que qualquer outra empresa no mundo, e os outros gigantes não ficam muito atrás. Outro mecanismo que utilizam para controlar e acessar o código desenvolvido por outras empresas é atuar como investidores de capital de risco. O exemplo de OpenAI financiado pela Microsoft ao qual mencionei acima é talvez o mais bem-sucedido. Um terceiro mecanismo de apropriação de IA, utilizado em particular pela Microsoft, Google e Meta, é tornar o acesso aberto a códigos que não coloquem em risco o seu poder tecnológico. Pelo contrário, ao abri-lo à comunidade, promovem a sua utilização e melhoria. Esse código é então integrado com mais código e outros conhecimentos secretos, permitindo que todo o modelo seja otimizado e resultando em melhores serviços digitais. Sob o pretexto de contribuir para o desenvolvimento de software livre, eles terceirizam parte do trabalho de desenvolvimento sem colocar em risco – na verdade, melhorando – a sua liderança.

O resultado são sistemas de inovação integrados por múltiplas organizações, nos quais a empresa líder que planeia o sistema beneficia desproporcionalmente. Esses sistemas corporativos são um fenômeno muito mais difundido. Esta é uma nova forma de capitalismo, em que uma empresa é poderosa não com base no tamanho das suas fábricas, mas na sua capacidade de se apropriar de bens intangíveis – conhecimento e informação – que utiliza para se apropriar do valor de terceiros[20]. Nestas redes, as grandes empresas de tecnologia digital estão no auge do poder corporativo porque monopolizaram o pacote tecnológico que está a transformar todas e cada uma das áreas da vida. A sua apropriação da IA fronteiriça – juntamente com os dados que lhe dão vida – reconfigura regressivamente o capitalismo. Precisamente pelos seus efeitos em termos de polarização e desigualdade ainda maiores, é especialmente relevante aprofundar o trabalho que produz e o trabalho que é substituído pela IA.

Hibridização

No seu relato da pré-história da nuvem pública, Tung-Hui Hu diz que a nossa imaginação de uma “nuvem” virtual substitui o trabalho. Ou seja, entre tantos intangíveis – plataformas, nuvem, internet, etc. – o trabalho de produção de serviços digitais é invisibilizado.[21]. A cegueira é ainda maior no caso da IA, uma vez que esta é frequentemente apresentada como uma alternativa e não como um complemento ao trabalho. Mas a IA é um produto do trabalho e a sua sobrevivência – como expliquei acima – depende do trabalho contínuo e de consumo que realizamos nela. A fronteira entre a produção e o consumo de IA dissipa-se e, com isso, perde-se a distinção entre o trabalho que produz IA e o produto desse trabalho.

Os “sábios” da era digital

Como afirmou um executivo da Amazon e cientista de IA, a coisa mais importante para ser um líder em IA é ter as pessoas mais talentosas[22]. De acordo com um cientista de IA da Bosch, as grandes empresas de tecnologia americanas lideram a IA precisamente porque contratam as pessoas mais talentosas, ao mesmo tempo que impedem que os seus rivais as tenham acesso[23]. Um gerente de recursos humanos do Alibaba confirmou-me que a maior parte do talento internacional trabalha para Amazon, Microsoft e Google[24]. Essas empresas geralmente atraem os cientistas mais promissores do meio acadêmico. Diferentes entrevistados mencionaram-me que as conferências de IA são utilizadas por gigantes da tecnologia para identificar e atrair talentos. Ao reconstruir o histórico de membros de mais de 60.000 pesquisadores de IA, Roman Jurowetzki et al. Eles descobriram que 8% passaram da academia para a indústria e que essa fuga se aprofundou desde 2010[25]. Na mesma linha, Michael Gofman e Zhao Jin descobriram níveis elevados e exponencialmente crescentes de professores de IA de universidades dos EUA e do Canadá a ingressar na indústria[26]. As empresas que mais contrataram foram Google, Amazon e Microsoft.

Outra prática comum é contratar acadêmicos de meio período de destaque, que mantêm seus cargos universitários. Estes atuam, voluntariamente ou não, como ponte entre a coprodução da IA ​​com o mundo acadêmico e a apropriação dos resultados pelos seus empregadores privados. Na minha amostra de artigos de conferências sobre IA, encontrei cerca de 100 universidades que têm pelo menos uma pessoa com dupla afiliação a uma grande empresa dos EUA. Google e Microsoft são os que mais usaram essa tática[27].

O menor número de duplas dependências entre a Amazon e as universidades não é sinônimo de menor interesse no controle da disciplina. Pelo contrário, está subjacente a uma tática diferente, que também procura direcionar e alavancar de forma privada as capacidades dos principais talentos em IA. Meus entrevistados concordaram que a Amazon favorece apresentações internas nas quais acadêmicos de alto nível, contratados como consultores, descrevem o que estão fazendo em sua universidade ou, após assinarem acordos de confidencialidade estritos, aconselham os pesquisadores da Amazon.

Embora não tenha encontrado dupla dependência com os países periféricos, isso não significa que estejamos diante de mais um episódio em que estes países se limitam a adotar a tecnologia produzida pelos centrais, questão que tem sido amplamente estudada pela teoria da dependência em passado e que hoje assume contornos um tanto diferentes. Na era digital, a produção de algoritmos e dados é globalizada. No entanto, estes intangíveis são transformados em ativos e proporcionam rendimentos desproporcionais às megaempresas tecnológicas das duas principais potências do século XXI: os Estados Unidos e a China. Pesquisadores das principais universidades dos países periféricos participam das conferências de IA mais importantes do mundo. A Universidade de São Paulo é a primeira da América Latina em número de apresentações no período mais recente que analisei. A tal ponto produz conhecimento de ponta que compartilha um centro de pesquisa em IA com a IBM (C4 AI). O diretor é um pesquisador da universidade brasileira, enquanto o codiretor é um pesquisador da IBM. Neste momento, os seus resultados são apenas académicos, mas esta colaboração permite à IBM um acesso privilegiado ao conhecimento que pode depois utilizar para desenvolver serviços digitais.

Microtarefas

A IA não é produzida apenas escrevendo código. Anteriormente me referi à necessidade de treinar modelos com grandes bases de dados. Estas bases de dados têm de ser afinadas, mas para isso têm de ser construídas. Por trás de cada botão ou funcionalidade de uma plataforma digital está o trabalho de pensar nos tipos de dados que podem ser necessários e como coletá-los. Além disso, o processo de produção de banco de dados geralmente utiliza mão de obra não remunerada. Um precedente conhecido é o reCaptcha do Google, o sistema usado para validar que não somos robôs, que simultaneamente terceiriza a classificação de imagens que são então usadas para treinar modelos de IA. Isto levou a vários escândalos no processo de produção de bases de dados, incluindo casos em que algumas pessoas descobriram que as suas fotos tinham sido usadas – sem permissão – para treinar algoritmos de IA[28]. Uma atriz que trabalha subcontratada por uma dubladora que, por sua vez, é contratada da Disney, me contou sobre um caso recente em que um dublador foi convocado por um estúdio para fazer uma gravação, sem saber que sua voz seria utilizada para treinar IA para dublagem.

As bases de dados que emergem dos dados que criamos coletivamente nas plataformas também requerem trabalho para serem utilizadas como material de formação. Big data é o produto de milhares de microtarefas de limpeza e classificação de cada entrada que vão além da recaptação. Elas são chamadas de microtarefas porque você paga por informações limpas e classificadas. Este micro-trabalho por peça é oferecido em plataformas especializadas, uma delas propriedade da Amazon, pelas quais milhares de trabalhadores espalhados por todo o mundo – especialmente de países periféricos – recebem cêntimos por entrada. A Organização Internacional do Trabalho (OIT) realizou um estudo comparativo que pesquisou as condições de trabalho de 3.500 pessoas residentes em 75 países que realizam microtarefas. Descobriram que o rendimento médio por hora era de 3,31 dólares, embora este valor esconda fortes heterogeneidades geográficas. Em África (1,33 dólares por hora) ou na Ásia-Pacífico (2,22 dólares por hora) ganha-se muito menos do que nas regiões centrais. A maioria das pessoas entrevistadas indicou que gostaria de trabalhar mais horas, mas não encontrou microtarefas suficientes disponíveis[29].

Uma vez estabelecidas as bases e desenvolvido o modelo, seu uso ainda não está totalmente automatizado. Além das tarefas de manutenção, exércitos de trabalhadores filtram e promovem conteúdos em plataformas digitais em conjunto com a IA. Em geral, os algoritmos realizam um primeiro filtro de conteúdo que depois é controlado pelas pessoas.

Essa tarefa às vezes é terceirizada, como é o caso da empresa Meta, embora outras empresas contratem trabalhadores diretamente para ela, como a ByteDance, dona do TikTok. Seja qual for o caso, a filtragem de conteúdo pode causar traumas, consequências psicológicas e estresse devido à superexposição à violência, que vai desde assassinatos ao vivo até fotos de pedofilia. Quem filtra conteúdo para Meta ganha quase 8,5 vezes menos que o funcionário médio da empresa, e as condições de trabalho dos moderadores de conteúdo estão longe do ambiente descontraído das instalações da empresa que criou o Facebook[30]. Uma pessoa que desempenha esta tarefa na Europa disse-me que estão atualmente a treinar uma IA que poderá eventualmente substituí-los, embora tenha acrescentado que na verdade a substituição já está a acontecer, mas por trabalhadores que ganham menos em escritórios da mesma empresa terceirizada do Facebook em países periféricos, entre eles na América Latina[31]. Essas tarefas terceirizadas funcionam seguindo cuidadosamente os requisitos da empresa de Mark Zuckerberg sob rígidos contratos de confidencialidade.

Uma tarefa um pouco diferente, mas que também mostra a coexistência ou hibridização entre IA e pessoas, é a promoção de conteúdo no TikTok. Cada funcionário da área “Push” recebe 14 mil vídeos por semana que já têm alta classificação em visualizações. Sua tarefa é avaliá-los para definir se o TikTok vai “empurrar” aquele vídeo para que ele tenha mais visualizações, com o objetivo final de que os usuários passem mais tempo na plataforma. Um vídeo “push” é exibido com mais frequência nas telas de usuários automaticamente identificados como potencialmente interessados. Embora a IA pudesse fazer todo o processo sozinha, a ByteDance opta por incluir uma fase de controle humano em que se decide promover conteúdos que estejam em conformidade com os protocolos definidos pelos gestores da empresa, para garantir que o TikTok continua a ser visto como uma plataforma de vídeo doméstico adequada para todos os públicos. Como me disse a pessoa que entrevistei: “Eu trabalho na cozinha TikTok”[32].

Substituição

Embora a IA seja produzida por dezenas de milhares de pessoas, em empregos que vão desde os mais sofisticados e que expandem a fronteira do conhecimento até tarefas rotineiras e até traumáticas, ao mesmo tempo muitas tarefas que em outras indústrias eram anteriormente executadas por seres humanos são já foram ou estão sendo substituídos por algoritmos.

As análises da substituição do trabalho por máquinas geralmente se concentram em previsões sobre quantas e quais tarefas podem ser automatizadas[33]. Antes da disseminação do filme , as tarefas que cada IA ​​poderia substituir eram limitadas. O modelo de IA que define preços numa plataforma de e-commerce – como Amazon ou Mercado Livre – ou o algoritmo de IA que procura links quando pesquisamos no Google não são comparáveis ​​em termos de potenciais aplicações com o ChatGPT. Portanto, sua rápida adoção gera maiores preocupações.

Neste momento, observam-se graus muito variados de utilização desta tecnologia dependendo de como cada empresa percebe os riscos e custos associados, por exemplo, manutenção de servidores, migração para a nuvem e a própria utilização da IA; Embora existam LLMSs de acesso aberto ou de uso gratuito , esses não são os modelos mais avançados. Estes últimos são mantidos em segredo e seu uso é vendido – sem acesso ao código – como serviço em nuvem. Os modelos de acesso aberto também exigem manutenção e adaptação aos problemas específicos de cada negócio. Ou seja, eles exigem trabalho. Entre as empresas que entrevistei, embora algumas já utilizem filmes disponíveis em grandes nuvens tecnológicas para tarefas específicas, como otimizar apresentações, realizar traduções ou escrever conteúdos para redes sociais, outras são mais céticas. O gerente financeiro de uma multinacional produtora de hardware com sede nos Estados Unidos resumiu da seguinte forma:

"Estamos apenas no começo, embora a IA tenha se difundido, mas você também se pergunta por quê. Quando fiz toda a minha pesquisa no ChatGPT , me perguntei: quais são realmente as coisas que podemos implementar em um trabalho normal para nós? Sim, ele me ajudou a escrever alguns e-mails e relatórios, mas eu precisava dizer a ele "envie-me um relatório ou análise da situação competitiva de tal empresa ou uma análise financeira de tal e tal coisa" e ele respondeu que não estava pronto para isso ainda"[34].

Porém, mesmo os mais céticos estão interessados ​​em entender como funciona e o que pode ser feito com esta versão avançada da IA . Nas palavras de um gerente regional de uma multinacional que vende serviços Google, principalmente na Europa, e que na prática funciona como um departamento comercial terceirizado, “não é mais algo que precisamos ter, embora tenha sido percebida uma mudança e seja monumental o que está acontecendo com o ChatGPT"[35].

Sem dúvida, o que está a acontecer é monumental porque assistimos, à escala global, a um processo acelerado de substituição não só de tarefas, mas também de processos de aprendizagem humana. E esta transição, a menos que mude a forma como a IA é produzida , aprofunda-se à medida que a sua adoção avança. Uma investigação da Comissão Europeia, publicada vários anos antes do lançamento do ChatGPT , concluiu que onde a IA foi introduzida , a autonomia no local de trabalho foi reduzida, sentiu-se uma perda de controlo sobre o processo de produção, o ritmo aumentou e os trabalhadores sentem-se privados de usando sua inteligência no local de trabalho. Tudo isto também contribui para um enfraquecimento das capacidades de luta dos sindicatos, na medida em que há menos conhecimento sobre o local de trabalho e o processo produtivo[36].

Esta sensação de redução do espaço em que se promove o desenvolvimento da inteligência humana não é consequência da IA ​​em geral, mas do tipo de IA que é produzida. São caixas pretas, usamos quase sem ter ideia de como funcionam. Mesmo que pudéssemos ler parte do código, como é o caso dos modelos de código aberto, a esmagadora maioria das pessoas ainda não seria capaz de compreender o que esses algoritmos dizem e fazem. Que espaço resta para o aprendizado humano quando as condições de uso são predefinidas por algumas empresas que oferecem tecnologia de caixa fechada? Embora surja criatividade sobre que tipo de perguntas fazer um filme , em última análise, o tipo de resposta e os usos possíveis são limitados pela forma como foi treinado – com quais dados – e pelos parâmetros considerados no modelo. E tudo isto é decidido em segredo por um punhado de empresas.

A divisão do trabalho computacional nas grandes empresas de tecnologia contribui ainda mais para compartimentar o conhecimento e promover a hiperespecialização. As políticas impostas dentro destas empresas e em relação ao exterior limitam a troca de informação e conhecimento a tal ponto que provavelmente ninguém que conheça linhas fundamentais de código tenha uma visão global ou generalista da IA ​​de fronteira. Esta visão global é deixada nas mãos de gestores que não conhecem – provavelmente optam por não saber – os detalhes sobre como cada algoritmo funciona. Um pesquisador da IBM IA resumiu dizendo que “ensinam a não compartilhar os detalhes de cada projeto com quem não tem ‘necessidade de saber’; É um padrão básico da IBM[37].

Em certa medida, o que observamos é um novo ciclo, com as suas especificidades, de um processo de perda de competências no local de trabalho que se arrasta há mais de um século. Harry Braverman descreveu-o detalhadamente, dando conta de como se reconfigurava a relação entre o trabalhador, por um lado, e a máquina e o gestor, por outro. A máquina substituiu tarefas padronizadas, e essa padronização, o processo de conversão de conhecimento tácito em protocolos explícitos, reduziu o conhecimento local baseado na experiência e transformou trabalhos em sequências de tarefas simples. Os gestores dirigem exercendo um “monopólio do conhecimento para controlar cada etapa do processo de trabalho e seu modo de execução ”[38].

O ciclo atual é mais complexo. A reorganização descrita por Braverman ocorreu dentro de cada fábrica, enquanto hoje assistimos a uma reorganização do trabalho e da aprendizagem entre empresas. A máquina não só “aprende” à custa dos trabalhadores que interagem diretamente com ela, mas também à custa da capacidade de aprendizagem da maioria das organizações – dos seus trabalhadores – e, em última análise, das sociedades. Que paradoxo, já que supostamente vivemos na “sociedade do conhecimento”.

Para além dos efeitos econômicos, entre outros em termos de maiores desigualdades, este processo está a alargar o fosso entre aqueles que sabem e aqueles que não sabem. Mas esta não é a única forma possível de desenvolver e interagir com as tecnologias digitais. Esta é a forma privada e com fins lucrativos.

Progresso?

O debate político atual gira em torno da agência de IA. Os CEOs das grandes tecnologias e da IA ​​aberta estão no topo da lista daqueles que defendem a regulamentação de como esta tecnologia é usada[39]. Ao centrarem o debate na regulamentação da sua adoção, desviam a atenção de outra área que deveria ser regulamentada tanto ou mais: o processo de produção de IA , aquele que estas empresas controlam. Por outras palavras, um foco excessivo na agência de IA corre o risco de ignorar o papel dos agentes que controlam a IA .

As abordagens e discursos destes CEOs e os artigos acadêmicos de suas empresas também determinam a forma como pensamos sobre IA. Apresentam-na como uma tecnologia que substitui (e até supera) a inteligência humana, e não como uma forma diferente e complementar de resolver problemas que é sempre alimentada e fruto do trabalho humano. Por que não projetar e produzir IA como se fosse um guindaste de construção? Com um guindaste podemos levantar mais peso do que com a nossa própria força. A grua substituiu tarefas, mas não limitou a nossa capacidade de desenvolvimento e aprendizagem. Para isso, o conhecimento associado à IA precisa de se tornar público, o que requer educação digital para que possamos compreender como funcionam estes algoritmos.

A automatização de determinados trabalhos ou tarefas que exigem níveis de formação muito superiores aos exigidos para levantar uma grua – e com ela, a perda de capacidades de aprendizagem associadas – não é um resultado inevitável. É o produto de uma decisão econômica e política de privilegiar uma IA que substitua em vez de melhorar. É provavelmente uma estratégia de vendas mais bem sucedida do que impulsionar uma IA complementar, que em princípio poderia parecer mais cara, o que realça a necessidade de produzir soluções públicas e sem fins lucrativos, na medida em que cada empresa IA de fronteira procurará fazer rentabilizar o seu produto, desenvolvendo-o de forma a maximizar a sua acumulação.

É imperativo e necessário discutir que tipo de IA é codificada, quem a codifica e como os seus benefícios são distribuídos. É urgente debater democraticamente o que queremos como sociedade e porquê. Este debate é inseparável da questão sobre que dados devem ser recolhidos – e quais não devem – e como será decidido quem terá acesso às bases de dados resultantes e como.

A urgência em debater o presente do trabalho também oferece um cenário favorável para pressionar por melhores condições de trabalho, numa época em que o outro lado da tecnologia representa a potencial diluição do trabalho registada em figuras como a do empresário supostamente independente do plataformas; O que na verdade é uma pessoa regida por algoritmos e tão precária que deve até investir nos seus meios de produção (a bicicleta para entrega ao domicílio, o carro para transporte de passageiros, etc.). Por que não fazer do infortúnio uma virtude e aproveitar esta oportunidade para discutir o trabalho em geral, repensar a forma como trabalhamos e prenunciar alternativas?

Notas

[1] Krystal Hu: ChatGTP bate recorde de base de usuários de crescimento mais rápido: nota do analista na Reuters, 02/02/2023.

[2] Para uma análise detalhada de como esta e outras empresas de consultoria ganham dinheiro infantilizando e tornando seus clientes estruturalmente dependentes, consulte Mariana Mazzucato e Rosie Collington: The Big ConHow the Consulting Industry Weakens Our Businesses, Infantilizes Our Governments, and Warps Our Economies , Penguin, Londres, 2023.

[3] Kweilin Ellingrud, Saurabh Sanghvi, Gurneet Singh Dandona, Anu Madgavkar, Michael Chui, Olivia White e Paige Hasebe: "IA generativa e o futuro do trabalho na América", McKinsey Global Institute, 26/7/2023.

[4] Organização Mundial da Propriedade Intelectual (OMPI): Tendências Tecnológicas 2019 – Inteligência Artificial, 2019.

[5] Md Zahangir Alom et al.: "A história começou com Alexnet: uma pesquisa abrangente sobre abordagens de aprendizagem profunda" em ArXiv , 2018.

[6] Stefano Bianchini, Moritz Müller e Pierre Pelletier: "Inteligência Artificial na Ciência: Um Método Geral Emergente de Invenção" em Política de Pesquisa vol. 51 nº 10, 2022; C. Rikap e Bengt-Åke Lundvall: A corrida pela inovação digital: conceituando a nova ordem mundial emergente, Palgrave Macmillan , Londres, 2021; Iain M. Cockburn, Rebecca Henderson e Scott Stern: O Impacto da Inteligência Artificial na Inovação , National Bureau of Economic Research, 2018; Avi Goldfarb, Bledi Taska e Florenta Teodoridis: "O aprendizado de máquina poderia ser uma tecnologia de uso geral? Uma comparação de tecnologias emergentes usando dados de anúncios de empregos on-line" en Research Policy vol. 52 Nº 1, 2023.

[7] Eben Carle: "Ask a Techspert: What is Generative AI?" no blog de Google, 11/4/2023.

[8] Essa definição vem de entrevista realizada por mim (2/2023). Neste artigo faço referência a parte das entrevistas que estou realizando para meu novo livro. Este é um conjunto de, atualmente, mais de 50 entrevistas semiestruturadas em profundidade sobre a produção e uso de tecnologias digitais por 60 grandes empresas multinacionais, entre as quais incluí os gigantes digitais – big tech – dos EUA e da China .

[9] Eugene Kim: "Amazon alerta funcionários para não compartilharem informações confidenciais com ChatGTP após ver casos em que sua resposta 'corresponde estreitamente ao material existente' de dentro da empresa" em Insider, 24/01/2023.

[10] "Nosso índice de primeiros usuários examina como a América corporativa está implantando IA" em The Economist , 25/01/2023.

[11] "CEO da Microsoft na AI Race: 'Não é um dado' que Alphabet ou Microsoft são os únicos dois jogos da cidade" na CNBC , 16/5/2023.

[12] “Microsoft and OpenAI Extend Partnership” no blog da Microsoft, disponível aqui.

[13] John Roach: "Como a aposta da Microsoft no Azure desbloqueou uma revolução de IA" em Notícias Microsoft , 13/3/2023.

[14] Lauren Leffer: "Zuckerberg apresenta a resposta do Meta ao ChatGPT, lhama" no Gizmodo , 24/02/2023.

[15] Dina Bass: "Amazon entra na guerra de chatbots com parceria de startups de IA" no Los Angeles Times , 21/02/2023; Equipe da Amazon: "AWS anuncia Amazon Bedrock e vários serviços e recursos de IA generativa" em Amazon News, 13/4/2023.

[16] Marco Iansiti e Karim R. Lakhani: "Managing Our Hub Economy" em Harvard Business Review , 9-10/2017, p. 87.

[17] C. Rikap: "Mesmo fim por meios diferentes: estratégias do Google, Amazon, Microsoft e Facebook para dominar a inteligência artificial", série de documentos de trabalho Cityperc , 2023.

[18] V. evidência empírica desta apropriação em C. Rikap e B. Lundvall: ob. cit.

[19] V. estatísticas aqui.

[20] C. Rikap: Capitalismo, Poder e Inovação. Descoberto o capitalismo monopolista intelectual , Routledge, Londres, 2021.

[21] Tung-Hui Hu: Uma Pré-história da Nuvem , MIT Press, Cambridge, 2015, p. xii.

[22] Entrevista com o autor, 3/2023.

[23] Entrevista com o autor, 6/2022.

[24] Entrevista com o autor, 5/2023.

[25] R. Jurowetzki, Daniel Hain, Juan Mateos-Garcia e Konstantinos Stathoulopoulos: "A privatização da(s) pesquisa(s) em IA: causas e consequências potenciais – da interação universidade-indústria à fuga de cérebros da pesquisa pública?" em ArXiv , 2021.

[26] M. Gofman e Zhao Jin: "Inteligência Artificial, Educação e Empreendedorismo" em Journal of Finance , 7/2022.

[27] C. Rikap: "Mesmo fim por meios diferentes", cit.

[28] Kate Crawford: The Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence , Yale UP, New Haven, 2021. [Existe uma edição em espanhol: Atlas de inteligência artificial. Poder, política e custos planetários, FCE, Buenos Aires, 2022].

[29] Janine Berg, Marianne Furrer, Ellie Harmon, Uma Rani e M. Six Silberman: "Plataformas Digitais de Trabalho e o Futuro do Trabalho" em Rumo ao Trabalho Decente no Mundo Online , OIT, 2018.

[30] Ver Qayyah Moynihan e Laura Martínez: "Vídeos de execução, sexo no escritório, ptsd e isis Sing-Alongs: um dia na vida de um moderador de conteúdo online" em Insider , 3/6/2020; Casey Newton: "The Trauma Floor: As vidas secretas dos moderadores do Facebook na América" em The Verge , 25/02/2019.

[31] Entrevista com o autor, 9/2023.

[32] Entrevista com o autor, 4/2023.

[33] Um dos artigos mais citados sobre o assunto é Daron Acemoğlu e Pascual Restrepo: “Robots and Jobs: Evidence from us Labour Markets” no Journal of Political Economy vol. 128 Nº 6, 2020.

[34] Entrevista com o autor, 8/2023.

[35] Entrevista com o autor, 3/2023.

[36] Comissão Europeia, Agência Executiva para Pequenas e Médias Empresas (EASME): "Inteligência Artificial: Aplicações Industriais Críticas: Relatório sobre Análise de Mercado de Cadeias de Valor Priorizadas, as Aplicações de IA Mais Críticas e as Condições para a Implementação de IA", 2020, disponível aqui.

[37] Entrevista com o autor, 3/2023.

[38] H. Braverman: Trabalho e capital monopolista: a degradação do trabalho no século XX , NYU Press, Nueva York, 1998, p. 82.

[39] Prarthana Prakash: "Sam Altman da OpenAI e Sundar Pichai do Google agora estão implorando aos governos que regulem as forças de IA que desencadearam" na Fortune , 23/5/2023.

Leia mais