O impacto ambiental da inteligência artificial: caminhos para um futuro sustentável
O desenvolvimento de modelos de IA trouxe consigo um efeito colateral significativo: o consumo excessivo de energia elétrica
A evolução da Inteligência Artificial (IA) é indiscutivelmente uma das forças mais transformadoras do nosso tempo. Desde o seu surgimento, impulsionada pelo uso das GPUs (unidades de processamento gráfico) no treinamento de redes neurais profundas, a IA tem moldado setores inteiros, abrindo portas para possibilidades que antes eram apenas ficção científica. Contudo, à medida que o entusiasmo pela IA cresce, devemos confrontar uma realidade menos discutida, mas não menos crítica: o impacto ambiental dessa revolução tecnológica.
Para entender o cerne dessa questão, é necessário revisitar as origens do uso de GPUs (Graphical Processing Unit) em IA. Originalmente desenvolvidas para aprimoramento da computação gráfica, no final dos anos 90, as GPUs servem para acelerar cálculos matemáticos sobre números reais, algo essencial na computação gráfica que utiliza geometria analítica, álgebra linear, cálculo diferencial dentre outros, para desenhar interfaces em 3D muito próximas do mundo real.
Leia também: Fei-Fei Li levanta US$ 230 milhões para lançar startup de IA
É importante ressaltar que qualquer computador efetua cálculos sem utilizar uma GPU. Sem ela, os computadores efetuam os cálculos pela CPU (Central Processing Unit), o componente responsável pela execução de todos os programas instalados. Além disto, as CPUs possuem diversos núcleos internos de processamento que permitem executar os programas e cálculos ao mesmo tempo.
Entretanto, a capacidade de paralelismo das CPUs é limitada, em geral, de 6 a 12 núcleos de processamento, dependendo do modelo. No caso das GPUs, o número de núcleos gira em torno de 4.000 a 10.000, embora sejam totalmente dedicados cálculos matemáticos. Deste modo, fica evidente o poder das GPUs para processamento massivo e paralelo de cálculos matemáticos.
Em meados de 2010, os cientistas perceberam que as GPUs também poderiam ser utilizadas para acelerar o treinamento de redes neurais profundas ou Deep Learning, que são algoritmos de IA baseados no funcionamento do cérebro humano. Do mesmo modo que a computação gráfica, o Deep Learning é uma enorme rede de cálculos matemáticos. Ou seja, utilizar GPUs também proporciona uma redução enorme no tempo de processamento, que de certo modo impulsionou o aprimoramento e a disseminação do Deep Learning nos últimos anos.
Esse avanço tecnológico acelerou exponencialmente o desenvolvimento de modelos de IA, mas trouxe consigo um efeito colateral significativo: o consumo excessivo de energia elétrica. As GPUs, apesar da sua eficiência em cálculos matemáticos, são os componentes que mais consomem energia em um computador. Na média, uma GPU consume cerca de 300 Watts de energia quando em funcionamento.
Além do mais, os modelos de IA generativa modernos, baseados no Deep Learning, requerem quantidades enormes de GPUs funcionando ao mesmo tempo. Por exemplo, o GPT4 utilizou cerca de 25.000 GPUs do modelo NVIDIA A100 durante aproximadamente 90 dias de treinamento. Se somar todos os demais requisitos para um sistema de IA funcionar adequadamente, como armazenamento de dados, redes de comunicação de fibra ótica, redundância e salas refrigeradas, os gastos de energia com o GPT4 chegam a cerca de 50 GWh. Esse consumo é 50 vezes maior que o utilizado no seu antecessor, o GPT3.
A magnitude do consumo de energia se torna ainda mais evidente quando olhamos para o maior supercomputador do mundo, o Frontier. Com uma capacidade de processamento de 1 exaflop (1 quintilhão de cálculos matemáticos por segundo), o Frontier tem poder de processamento equiparável ao cérebro humano, guardadas as grandes diferenças entre estes sistemas. Mas, para isto, o Frontier consome a mesma quantidade de energia que aproximadamente 12 mil residências, além de ocupar o espaço equivalente a duas quadras de tênis.
Fora o problema do gasto de energia, há o problema da pegada de carbono associado ao uso de IAs. Em 2022, as emissões de carbono provenientes do treinamento do GPT3 foram estimadas em 502 toneladas. Para efeito de comparação, um cidadão norte americano emite 20 toneladas de carbono por ano de vida, número que inclui emissões diretas como o uso de automóveis, e indiretos, como a energia usada para aquecimento, produção de alimentos e outros serviços.
Então, qual seria o remédio para esta situação? Bom, a solução não é tão simples.
Por um lado, as pesquisas avançam no desenvolvimento de fontes de energia mais limpas e renováveis. A disseminação das Smart Grids, redes de distribuição de energia elétrica de modo inteligente, possibilitará que a distribuição de energia elétrica seja oriunda prioritariamente de fontes renováveis. Além disto, tem a questão da reciclagem do lixo eletrônico gerado por componentes obsoletos. A pesquisa em hardware que consuma menos energia elétrica também tem avançado. Mas tudo isso ainda é pouco, considerando que o uso das IAs deve aumentar significativamente nos próximos anos.
Uma tecnologia emergente que pretende amenizar significativamente o gasto energético com IAs é a computação biológica. Segundo pesquisadores da Universidade Johns Hopkins, o hardware biológico possibilitaria a fabricação de núcleos de processamento a partir de material biológico sintético. Deste modo, os núcleos de processamento utilizariam material e arquitetura semelhante ao cérebro humano, inclusive no que tange ao tamanho, gasto energético e poder de processamento.
É claro que o futuro da IA é brilhante, mas ele deve ser construído com responsabilidade. Para evitar que a revolução tecnológica se transforme em uma crise ambiental, à medida que continuamos a expandir os limites do que a IA pode alcançar, devemos também expandir nosso compromisso com práticas que minimizem seu impacto no planeta. Somente assim poderemos garantir que a IA cumpra seu potencial sem comprometer o meio ambiente e as gerações futuras.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!