Cada vez que un usuario realiza una consulta a una inteligencia artificial, esta produce una serie de tokens o términos claves a través de los cuales busca información y luego elabora una respuesta. El consumo de energía supone un equivalente en emisiones de dióxido de carbono. No necesariamente la emisión, porque un centro de datos puede estar alimentado con energía renovable. Pero dado que la energía disponible a nivel global es limitada, lo que se consume de una forma no estará disponible para otra.
Investigadores alemanes han considerado la posibilidad de que hubiera diferentes niveles de consumo según el modo en que actúan los modelos. En efecto, el trabajo realizado reveló ciertas diferencias.
Hay que pensar en el planeta, o no pensar tanto
Maximiliam Dauner, uno de los autores de la investigación, apunta: “El impacto ambiental de hacerle preguntas a un LLM entrenado está determinado fuertemente por como razona, con ciertos procesos aumentando notablemente el consumo de energía y las emisiones”. El estudio apunta que los modelos que tienen capacidad de raciocinio producen 50 veces más emisiones que los que que ofrecen respuestas directas.
Más tokens, más detalle, más emisiones
Unos 24 modelos fueron evaluados. Los modelos de razonamiento crearon unos 543,5 tokens por consulta, mientras que los modelos concisos produjeron 37,7 tokens. Cuanto más tokens se producen mayor es la huella de carbono.
Curiosamente una mayor cantidad de tokens no implica necesariamente una mayor calidad en las respuestas. Quizás si un mayor nivel de detalle. Por ejemplo, Qwen puede constestar 3 veces la cantidad de preguntas que DeepSeek, con un nivel de precisión similar y un consumo similar.
Costo por tema
Un detalle curioso es que los temas sobre los que se producían las preguntas son un factor. Pero esto es lógico dado que las preguntas que requieren un proceso más extenso de razonamiento deben por lógica exigir más tokens. Algrebra y Filosofía consumen 6 veces más que las preguntas sobre historia.