El consumo de energía de cada consulta en ChatGPT depende de varios factores, incluyendo el modelo utilizado (por ejemplo, GPT-3.5, GPT-4 o GPT-4o), la longitud del mensaje y la infraestructura específica donde se ejecuta.
Según estudios independientes y datos publicados sobre modelos grandes de lenguaje, una consulta promedio en ChatGPT (modelo GPT-4) consume entre 0.02 y 0.3 Wh, lo cual equivale aproximadamente a:
- 0.01 a 0.15 gramos de CO₂ emitido por consulta, si la electricidad proviene de fuentes mixtas (como ocurre en la mayoría de los centros de datos globales).
- Energía similar a dejar una bombilla LED de 10W encendida por unos pocos segundos.
La huella de carbono de la inteligencia artificial (IA) es significativa y depende de dos factores principales: el entrenamiento de modelos y el uso diario o inferencia, pues cada vez que usas un modelo (como ChatGPT), se activa un proceso llamado "inferencia", que también consume energía, pero en menor escala que el entrenamiento. Lo que se está haciendo para reducir la huella de carbono de la IA se resume en:
- Microsoft y Google invierten en energías renovables para sus centros de datos.
- Nuevos modelos como GPT-4o están diseñados para ser más eficientes.
Fuente: ChatGPT