Un estudio reciente de la Universidad de Ciencias Aplicadas de Múnich ha puesto de manifiesto el impacto ambiental de los modelos de lenguaje generativo (LLMs) al interactuar con ellos en tareas de uso cotidiano, como responder preguntas de cultura general o matemáticas. Cada vez que una inteligencia artificial responde, se activa un proceso computacional complejo que no solo busca generar la información solicitada, sino que también consume energía, generando emisiones de CO₂.
El estudio, dirigido por el investigador Maximilian Dauner y publicado en Frontiers in Communication, examinó 14 modelos de lenguaje con un rango de parámetros que oscila entre 7.000 y 72.000 millones. Se les realizaron 100 preguntas categorizadas en cinco temáticas, desde historia hasta matemáticas a nivel de secundaria, en formatos de opción múltiple y texto libre. Los resultados revelan que el consumo energético y la precisión de las respuestas varían significativamente dependiendo del enfoque de razonamiento utilizado por el modelo.
Los investigadores hallaron que los modelos que aplican procesos de razonamiento elaborados generan muchas más emisiones que aquellos que ofrecen respuestas más concisas; mientras que los modelos complejos generaron en promedio 543,5 tokens por pregunta, los más directos produjeron solo 37,7. Según Dauner, esto significa que el impacto ambiental de interrogar un LLM depende en gran parte de cómo procesa la información.
El modelo Cogito, con 70.000 millones de parámetros, logró la mayor precisión al 84,9%, pero a costa de emitir tres veces más CO₂ que otros modelos de dimensiones comparables que daban respuestas más simples. Esta situación pone de relieve un conflicto entre precisión y sostenibilidad en la tecnología LLM.
Los datos también muestran que el área temática de la pregunta tiene un efecto importante en las emisiones generadas. Temas que requieren razonamientos complejos, como filosofía o álgebra abstracta, provocaron hasta seis veces más emisiones que preguntas de historia básica. Sin embargo, los investigadores sugieren que se podría reducir la huella de carbono al implementar medidas como la decodificación especulativa y el uso de hardware eficiente.
Dauner instó a los usuarios a ser más conscientes de las emisiones generadas por sus interacciones con la IA. Elegir modelos adecuados puede marcar una diferencia significativa: por ejemplo, un modelo como DeepSeek R1 podría generar las mismas emisiones que un vuelo de ida y vuelta entre Londres y Nueva York al responder 600.000 preguntas, mientras que Qwen 2.5 puede responder más de tres veces esa cantidad con tasas de precisión similares.
El estudio también destaca la importancia de la transparencia hacia los usuarios, sugiriendo que conocer el costo ambiental de cada solicitud podría motivar decisiones más responsables en la utilización de estas tecnologías. A pesar de los desafíos en la regulación del uso energético de los modelos de lenguaje, los investigadores consideran que fomentar la conciencia pública puede ser un primer paso valioso.
Además, el equipo está en proceso de investigar cómo diferentes tipos de solicitudes influyen en la calidad de las respuestas y el consumo energético, abriendo la puerta a futuras evaluaciones que podrían abarcar un rango más amplio de tareas y aplicaciones multimodales.
Fuente: Agencia Sinc