"El consumo energético de una IA se reparte en dos grandes momentos: el entrenamiento del modelo y su uso o explotación", explica Antonio Pita, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya. En este primer estadio, el entrenamiento es lo más costoso. "Requiere semanas o meses de cálculo intensivo en centros de datos donde miles de unidades de procesamiento gráfico (GPU) trabajan en paralelo para analizar y aprender de billones de palabras y datos. Este proceso se hace una sola vez (o pocas veces, si se reentrena), pero su huella energética es enorme y tiene lugar en los centros de datos y procesado", detalla.
La segunda parte es lo que hacemos los humanos con esta herramienta: las preguntas y consultas que le enviamos una vez que el modelo ya está entrenado y disponible para ser usado. "Es mucho menos costoso, aunque sigue siendo considerable si lo comparamos con servicios más simples, como el correo electrónico. Incluso en esta fase de explotación, cada petición activa millones de cálculos para generar una respuesta nueva desde cero", añade Pita.
¿Qué supone para el planeta una conversación? ¿Y una imagen?
"Si solo chateamos o me pides texto, soy relativamente eficiente; si me pides imágenes artísticas, gráficos pesados o vídeos generados con IA, esto sube mucho la potencia necesaria", me explica ChatGPT sobre cuáles son las peticiones que más energía le suponen. Y me advierte: "Si alguna vez tienes acceso a entrenar modelos desde cero (como los investigadores), estás entrando en el terreno más energívoro de todos".