23 Abril 2025
Professor da UFRGS estuda como reduzir o custo energético da IA.
A reportagem é de Bettina Gehm, publicada por Sul21, 19-04-2025.
De tempos em tempos, a internet é invadida por uma nova trend envolvendo inteligência artificial. A última foi transformar fotos em desenhos no estilo Studio Ghibli através do ChatGPT. De um lado, havia pessoas compartilhando o resultado da transformação de suas próprias fotos; de outro, usuários das redes sociais alertavam para a grande quantidade de energia que demanda o uso das IA. Mas por que tantos recursos são necessários para que plataformas como o ChatGPT funcionem?
O Sul21 conversou com o professor da UFRGS Luigi Carro, um dos únicos pesquisadores – no mundo – focados em como reduzir a energia gasta pela inteligência artificial.
“Hoje em dia, todo mundo usa um ou outro tipo de CPU [Unidade Central de Processamento, ou Central Processing Unit, em inglês], não tem muita diversidade. É difícil inventar um novo hardware”, explica o professor. Hardware é a parte física do computador, enquanto os softwares são os programas nele instalados.
A pesquisa de Carro é justamente sobre como fazer otimizações de energia em softwares. “Como mudar de tal maneira o programa para o consumo de energia ser menor que o original”, resume. Atualmente, segundo o professor, o programa mais significativo em termos de consumo de energia é o da inteligência artificial.
“Um celular tem 4 CPUs dentro. Cada uma delas só é ligada quando precisa executar uma aplicação específica. É por isso que a bateria do celular dura o dia inteiro”, exemplifica Carro. “Com a IA é diferente. Eu faço uma pergunta, um grande conjunto de processadores tem que trabalhar ao mesmo tempo, o mais rápido possível, para responder”.
Para que a IA “aprenda” tudo que é necessário para responder perguntas e executar comandos, ela utiliza redes neurais, um modelo inspirado nas funções do cérebro humano. As conexões dentro dessa rede, para as aplicações em IA, são em grande número, e cada conexão possui um parâmetro, também conhecido como peso.
Os pesos representam a força da relação entre o que entra (a solicitação que o usuário faz à IA) e as previsões de saída (o que a IA responde). Estas ações podem ser representadas por operações em matrizes, com bilhões ou mesmo trilhões de elementos.
Carro explica que o ChatGPT, por exemplo, precisa de muitos pesos para fazer um raciocínio – 1,7 trilhão, aproximadamente. Na fase em que a IA é treinada, é repetido muitas vezes o processo de multiplicação dos pesos dentro da matriz.
Tudo isso é calculado pelo software. Como é de se imaginar, a memória para tantos cálculos não cabe num celular ou computador pessoal. Por isso, é preciso haver uma comunicação entre o dispositivo usado para acessar a IA e os data centers. Trata-se de instalações físicas que armazenam e processam dados. Todas as grandes empresas de tecnologia têm um ou mais.
É aí que entra o gasto de energia elétrica – nos data centers. De acordo com a Agência Internacional de Energia, a demanda por eletricidade de data centers aumentou nos últimos anos e espera-se que continue crescendo. Carro lembra que, em janeiro de 2023, o ChatGPT consumiu energia equivalente a uma cidade de 175 mil habitantes na Dinamarca.
Além disso, essas instalações precisam estar sempre refrigeradas, e o custo energético da refrigeração também é grande.
“Está todo mundo preocupado em fazer a IA funcionar, em como usá-la em todos os negócios possíveis. O consumo de energia não é uma preocupação agora, mas isso em breve vai nos incomodar”, alerta Carro.
Uma das alternativas para reduzir o impacto energético da inteligência artificial, segundo o professor Carro, é “reinventar os algoritmos”. Atualmente, o programa utiliza o modelo Large Language Model (“Grande Modelo de Linguagem”, ou LLM) para aprender a partir de enormes bases de dados. Para aplicações que usam programas como ChatGPT, por exemplo, é possível fazer algumas tarefas usando mais LLMs menores ao invés de uma LLM gigante e, com isso, reduzir a energia consumida na aplicação.
“A gente tem que inventar outras maneiras de fazer cálculos”, pontua o professor. “Se o Brasil crescer 3% ao ano durante vários anos, não vamos ter energia para alimentar o crescimento do país. Se colocar data center em tudo que é cidade, não vamos ter como alimentar esses data centers. É um problema de política pública”.
Deixar de usar a inteligência artificial não parece ser uma opção. Carro compara o uso dessa tecnologia com outras, bem mais ancestrais: “Não tem como parar de usar o fogo depois que se aprende. Você se acostuma ao calor, à comida cozida. É a mesma coisa com a IA: inventaram uma coisa tão potente, que vai facilitar a vida de tanta gente, que é impossível tirar. Ela não vai desaparecer. Temos que usar com mais inteligência, mas definitivamente iremos usar”.
Leia mais
- IA: a expressão estética do fascismo. Artigo de Erick Kayser
- Avanço da inteligência artificial esconde o segredo mais sujo da tecnologia. Artigo de Álvaro Machado Dias
- IA e crise climática: as grandes empresas de tecnologia escolhem o Sul do mundo para instalar os seus gigantescos centros de dados
- A inteligência artificial bebe quilômetros de milhões de litros de água
- O outro lado da IA: avanços recentes intensificaram consumo de energia e água de data centers
- Pausar desenvolvimento de IA não é suficiente. “Desliguem tudo”, alerta um dos fundadores da área
- O segredo sujo da inteligência artificial
- O insustentável crescimento do digital
- Inteligência artificial aumenta o caos climático. Artigo de Silvia Ribeiro
- Impactos invisíveis da era digital. Artigo de Silvia Ribeiro
- “Devemos impor limites ao digital”. Entrevista com Eric Vidalenc
- ChatGPT, tecnologia e programadores. E o bicho-papão da automação
- ChatGPT, o algoritmo que finge saber. Comentário de Bruno Cava
- GPT-4, o algoritmo inexplicável e fechado. Artigo de Paolo Benanti
- O homem tecnológico: protagonista ou vítima?
- O que Noam Chomsky pensa a respeito da Inteligência Artificial do ChatGPT
- As cinco perguntas sobre o sucesso do ChatGPT
- ChatGPT: nem monstro, nem tábua de salvação
- Biopolítica algorítmica. Como as humanidades são impactadas e podem impactar a Inteligência Artificial. Entrevista especial com Virgilio Almeida
- Inteligência Artificial e Saúde: para todos ou para quase ninguém?
- Inteligência artificial democrática: software em vez da política? Artigo de Paolo Benanti
- “A inteligência artificial está se tornando senciente”, avisa engenheiro do Google. E Big G o suspende
- Dar uma ética à inteligência artificial: um desafio contado em livro
- A inteligência artificial não precisa de inteligência: o pensamento de Luciano Floridi
- “Ética da inteligência artificial”, novo livro de Luciano Floridi
- A necessidade de uma algorética para enfrentar o desafio da inteligência artificial. Artigo de Paolo Benanti
- É possível confiar na inteligência artificial?
- A inteligência artificial pode nos ensinar a ser mais humanos?
- Machine Intelligence: a inteligência artificial e a espionagem. Artigo de Paolo Benanti
- Inteligência Artificial no Sul Global. Alguns comentários a Jack Qiu
- “A inteligência artificial já faz parte da nossa cotidianidade.” Entrevista com Luciano Floridi