20.5 C
Nova Iorque
sexta-feira, junho 20, 2025

Pensando que os modelos de IA emitem 50x mais CO2 – e muitas vezes por nada


Não importa quais perguntas fizemos uma IA, o modelo apresentará uma resposta. Para produzir essas informações – independentemente de a resposta estar correta ou não – o modelo usa tokens. Os tokens são palavras ou partes de palavras que são convertidas em uma série de números que podem ser processados ​​pelo LLM.

Essa conversão, assim como outros processos de computação, produz Co2 emissões. Muitos usuários, no entanto, desconhecem a pegada substancial de carbono associada a essas tecnologias. Agora, pesquisadores na Alemanha mediram e compararam coes2 Emissões de LLMs diferentes, já treinados, usando um conjunto de perguntas padronizadas.

“O impacto ambiental do interrogatório LLMS treinado é fortemente determinado por sua abordagem de raciocínio, com processos explícitos de raciocínio aumentando significativamente o consumo de energia e as emissões de carbono”, disse o primeiro autor Maximilian Dauner, pesquisador da Universidade de Hochschule München de ciências aplicadas e primeiro autor do The the Fronteiras na comunicação estudar. “Descobrimos que os modelos habilitados para raciocínio produziam até 50 vezes mais emissões de CO2 do que modelos concisos de resposta”.

‘Pensando’ ai causa a maioria das emissões

Os pesquisadores avaliaram 14 LLMs, variando de sete a 72 bilhões de parâmetros em 1.000 questões de referência em diversas disciplinas. Os parâmetros determinam como os LLMs aprendem e processam informações.

Os modelos de raciocínio, em média, criaram 543,5 tokens de ‘pensamento’ por perguntas, enquanto modelos concisos exigiam apenas 37,7 tokens por pergunta. Os tokens de pensamento são tokens adicionais que os LLMs de raciocínio geram antes de produzir uma resposta. Uma pegada de token mais alta sempre significa emissões mais altas de CO2. No entanto, não significa necessariamente que as respostas resultantes sejam mais corretas, pois detalhes elaborados que nem sempre são essenciais para a correção.

O modelo mais preciso foi o modelo Cogito habilitado para raciocínio com 70 bilhões de parâmetros, atingindo 84,9% de precisão. O modelo produziu três vezes mais CO2 Emissões do que modelos de tamanho semelhante que geraram respostas concisas. “Atualmente, vemos uma clara trade-off de sustentabilidade de precisão inerente às tecnologias da LLM”, disse Dauner. “Nenhum dos modelos que manteve as emissões abaixo de 500 gramas de CO2 equivalente a atingir maior que 80% de precisão ao responder às 1.000 perguntas corretamente”. Co2 Equivalente é a unidade usada para medir o impacto climático de vários gases de efeito estufa.

O assunto também resultou em níveis significativamente diferentes de CO2 emissões. Perguntas que exigiam processos de raciocínio longos, por exemplo, álgebra ou filosofia abstrata, levaram a até seis vezes mais emissões mais altas do que os assuntos mais diretos, como a história do ensino médio.

Praticando uso pensativo

Os pesquisadores disseram que esperam que seu trabalho faça com que as pessoas tomem decisões mais informadas sobre seu próprio uso de IA. “Os usuários podem reduzir significativamente as emissões solicitando a IA a gerar respostas concisas ou limitar o uso de modelos de alta capacidade a tarefas que realmente exigem esse poder”, ressaltou Dauner.

A escolha do modelo, por exemplo, pode fazer uma diferença significativa no CO2 emissões. Por exemplo, ter Deepseek R1 (70 bilhões de parâmetros) responde 600.000 perguntas criaria CO2 Emissões iguais a um voo de ida e volta de Londres para Nova York. Enquanto isso, o QWEN 2,5 (72 bilhões de parâmetros) pode responder a mais de três vezes mais perguntas (cerca de 1,9 milhão) com taxas de precisão semelhantes e gerando as mesmas emissões.

Os pesquisadores disseram que seus resultados podem ser impactados pela escolha do {hardware} usado no estudo, um fator de emissão que pode variar regionalmente, dependendo das misturas de grade de energia native e dos modelos examinados. Esses fatores podem limitar a generalização dos resultados.

“Se os usuários souberem o custo exato de CO2 de suas saídas geradas pela IA, como se transformar casualmente em uma figura de ação, eles podem ser mais seletivos e atenciosos sobre quando e como eles usam essas tecnologias”, concluiu Dauner.

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles