Síguenos

Más preguntas

​¿Por qué se refrigeran los CPDs y qué ocurre cuando el frío falla?

Publicado

el

porque refrigerar los cpds

Por qué refrigerar los CPDs: rangos seguros, pasillo frío-caliente, free cooling y líquido, coste de luz y agua, y qué pasa si el frío falla.

Un CPD, un centro de procesamiento de datos, se refrigera por la misma razón por la que un motor necesita radiador: porque convierte energía en trabajo y una parte de esa energía se transforma en calor. No es un detalle secundario ni una “comodidad” de la informática moderna. En cuanto un servidor calcula, el calor aparece; en cuanto el calor se acumula, llegan los problemas: rendimiento que cae, equipos que se protegen bajando frecuencia, errores intermitentes, reinicios, apagados de emergencia. Y cuando un CPD tropieza, el tropiezo se nota fuera: aplicaciones lentas, pagos que no pasan, videollamadas que se congelan, servicios públicos que se atascan. El frío, en un CPD, es continuidad.

La idea clave es sencilla y nada romántica: un CPD se diseña para mantener estable la temperatura del aire que entra en los servidores y para sacar con eficiencia el aire caliente que expulsan. No basta con “tener aire acondicionado”. Se trata de controlar un circuito de energía: electricidad que entra, computación que ocurre, calor que sale. Si el circuito se descompensa, la sala puede seguir pareciendo normal a simple vista, incluso fresca en la puerta… mientras dentro, en un rack concreto, una esquina concreta, un grupo de máquinas se está asando. La refrigeración de CPDs es eso: evitar que el calor haga de saboteador silencioso.

Dentro de un CPD: el calor no es uniforme, y ahí empieza el lío

Quien no ha pisado un CPD suele imaginar una gran nevera llena de luces. La realidad es más física: pasillos, armarios, ventiladores, placas, cables, y corrientes de aire que se comportan como agua, buscando atajos, arremolinándose donde no deben, mezclándose cuando se deja un hueco. El enemigo más habitual no es “la temperatura media” de la sala, sino los puntos calientes. Un pasillo puede estar aceptable y, a dos metros, una recirculación maldita hace que el aire caliente vuelva a la parte frontal del servidor. Ese retorno caliente es gasolina para la avería.

Por eso el sector lleva años obsesionado con una arquitectura casi de sentido común: pasillo frío y pasillo caliente. Los servidores toman aire por delante y lo expulsan por detrás; si separas bien esas dos caras, el CPD respira. Si no las separas, el CPD se intoxica con su propio calor. La palabra “contención” aparece mucho: contención del pasillo frío, contención del pasillo caliente, puertas, paneles ciegos, sellados que parecen detalles menores hasta que se ve cómo cambia el mapa térmico.

En medio de todo, una cifra se repite como mantra, con matices según equipos y políticas operativas: mantener el aire de entrada a los servidores en un rango de seguridad, a menudo situado de forma aproximada entre la zona de los 18 y 27 grados. Ese rango no es una superstición, es un compromiso entre fiabilidad y eficiencia energética. Enfriar más de la cuenta puede ser un derroche; enfriar menos de la cuenta puede ser una ruleta rusa. Y, en un CPD, el azar no es amigo.

Cuando la temperatura sube, el rendimiento baja… y el consumo sube

Aquí hay una paradoja que se cuenta poco fuera del sector: un CPD mal refrigerado no solo corre más riesgo, también consume más. Cuando un servidor se calienta, sus ventiladores aceleran. Ventiladores al máximo significan más vatios, más ruido, más vibración, más desgaste. A la vez, los procesadores aplican limitación térmica: bajan la frecuencia para no freírse. Resultado: se gasta más para hacer menos. El servicio puede seguir “en pie”, sí, pero con una sensación de barro: todo funciona, pero cuesta.

Si el calentón es serio, los sistemas de protección entran a lo bruto: alarmas, migraciones de carga a otros nodos, reinicios, apagados selectivos. En grandes plataformas cloud, ese movimiento puede amortiguarse repartiendo trabajo entre centros; en infraestructuras más contenidas, el golpe se siente como un portazo. Y luego llega lo peor: el fallo que no deja huella limpia, el que aparece y desaparece. Los problemas térmicos son especialistas en la intermitencia, y la intermitencia es cara.

Temperatura y humedad: el dúo que manda en silencio

La refrigeración en un CPD no es solo “bajar grados”. La humedad es otra perilla crucial. Un ambiente demasiado seco eleva el riesgo de electricidad estática, descargas pequeñas pero capaces de provocar errores y sustos. Un ambiente demasiado húmedo se acerca al terreno de la condensación, y ahí el agua se vuelve una amenaza directa: corrosión, contactos, fallos. Por eso se habla de control ambiental, de mantener un equilibrio razonable que no convierta el CPD en desierto ni en invernadero.

En un CPD bien operado, estas variables no se tratan como caprichos: se miden con sensores, se comparan con umbrales, se registran tendencias. Lo importante no es solo el valor puntual, es la estabilidad. La estabilidad es salud.

La mecánica del frío: aire, agua y el arte de mover calor

Hay muchas formas de refrigerar CPDs, pero todas comparten una idea: mover calor de un sitio a otro. El servidor genera calor; ese calor debe irse sin quedarse atrapado en la sala. El aire es el mensajero clásico: entra frío, sale caliente, y una infraestructura de climatización de precisión se encarga de volver a enfriarlo. Durante años, ese fue el corazón del CPD típico.

Lo que ha cambiado —y se nota— es la densidad. Donde antes un rack tenía una potencia moderada, hoy puede albergar equipos que disipan muchísimo más, especialmente con cargas intensivas como analítica masiva o inteligencia artificial. En ese contexto, el aire sigue funcionando… hasta que deja de ser suficiente sin un diseño muy fino. Y cuando el aire se acerca al límite, entra el líquido.

Refrigeración por aire: la vieja confiable, con trampas modernas

El aire tiene ventajas claras: es familiar, flexible, relativamente sencillo de mantener, y permite crecer por módulos. Pero también tiene límites físicos: el aire transporta menos calor que el agua, así que para disipar mucho necesitas mucho flujo. Mucho flujo implica ventiladores y, de nuevo, consumo.

La batalla cotidiana de un CPD por aire se juega en la distribución: que el aire frío llegue donde debe, que el caliente salga por donde toca, que no haya fugas. Un panel vacío en un rack puede parecer poca cosa, pero puede generar un atajo para el aire, y un atajo es una mezcla, y una mezcla es un punto caliente. De ahí el nivel de detalle que a veces sorprende: tapas, juntas, cables ordenados, perforaciones medidas. Es ingeniería con mentalidad de fontanero fino: si hay una fuga, el sistema pierde presión.

Free cooling: cuando el clima trabaja y la factura respira

“Free cooling” suena a regalo, pero es un uso inteligente del entorno. La idea es aprovechar condiciones exteriores favorables —aire más frío, noches frescas, estaciones templadas— para reducir el trabajo de los compresores. En lugar de fabricar frío siempre con el mismo esfuerzo, se usa el exterior para enfriar un circuito mediante intercambiadores. No es apretar un botón y listo: depende del clima, de la calidad del aire, del diseño, del control.

En lugares con inviernos marcados o noches con amplitud térmica, el free cooling puede ser una bendición operativa: más horas de enfriamiento barato. En zonas con veranos duros y noches pegajosas, su efecto se reduce. En España, el mapa manda. Y ese mapa no es solo meteorología: también es disponibilidad eléctrica, conectividad, suelo, permisos. Por eso se ven estrategias mixtas: aprovechar free cooling cuando se puede, y tener sistemas tradicionales robustos para cuando el termómetro aprieta.

Refrigeración líquida: el paso lógico cuando sube la densidad

Cuando se habla de GPU, IA y racks de alta densidad, la refrigeración líquida deja de ser exótica. El agua transporta calor mucho mejor que el aire, así que permite sacar más calor con menos volumen de flujo. Hay varias aproximaciones, y el sector las combina según necesidades: intercambiadores en la parte trasera del rack, circuitos de agua fría que “capturan” el calor del aire expulsado; o placas frías que llevan el líquido directamente a componentes críticos, casi pegadas al chip.

La idea, en términos sencillos, es quitarle trabajo a los ventiladores del servidor y trasladar el problema al circuito hidráulico, que suele ser más eficiente para mover calor. ¿Desventaja? Complejidad. Un CPD no puede improvisar con agua sin plan de mantenimiento, detección, redundancia, protocolos. Un pequeño fallo en un sistema líquido no es una anécdota, es un incidente serio. Por eso, cuando se adopta, se hace con disciplina: materiales, presiones, conexiones, sensores, válvulas, y personal formado. El frío líquido exige orden.

Inmersión: el CPD como laboratorio, con promesa industrial

La refrigeración por inmersión es la imagen que se queda pegada: servidores sumergidos en un fluido dieléctrico que no conduce electricidad. El calor se transfiere al fluido y luego se evacua con intercambiadores. Ventajas potenciales: gran capacidad de enfriamiento, menos ventilación interna, posibilidad de trabajar con temperaturas del circuito más altas —lo que facilita, en ciertos escenarios, aprovechar más horas de enfriamiento “barato” y reducir la necesidad de compresión agresiva—.

Pero la inmersión también trae preguntas prácticas: compatibilidad con hardware estándar, procedimientos de mantenimiento, cadena de suministro del fluido, reciclaje, seguridad, costes. En algunos entornos encaja como guante; en otros, se mira con cautela. No es una solución universal, pero sí una señal de hacia dónde va el sector cuando la densidad se dispara.

Energía, agua y eficiencia: la refrigeración ya es un debate público

Durante años, la refrigeración de CPDs fue un tema interno, de técnicos. Hoy asoma fuera porque toca tres nervios: electricidad, agua y huella ambiental. El centro de datos es infraestructura crítica, sí, pero también es un consumidor relevante. La pregunta inevitable es cuánto cuesta sostener la nube… y quién paga ese coste, en euros y en recursos.

Una métrica se usa mucho para hablar de eficiencia global: PUE. Sin entrar en jerga pesada, es una forma de comparar cuánta energía total necesita un CPD para entregar una cantidad de energía útil a la informática. Un PUE cercano a 1 significa que casi todo va a los equipos; cuanto más sube, más energía “extra” se está gastando en soporte, sobre todo refrigeración. En la práctica, un PUE “bueno” depende del tipo de CPD, su carga, el clima, el diseño y la operación, pero la idea de fondo es clara: enfriar mal no solo es inseguro, también es caro.

El agua añade una capa sensible. Hay sistemas que usan enfriamiento evaporativo, muy eficiente en ciertos climas, pero con consumo hídrico asociado. En un país con episodios recurrentes de sequía y tensiones por el uso del agua, el debate se vuelve inevitable cuando se anuncian nuevas instalaciones. Aquí la discusión no debería quedarse en titulares de trazo gordo, sino en detalles: qué tecnología exacta, qué consumo estimado, qué recirculación, qué uso de agua regenerada, qué plan de contingencia en episodios de restricción. La refrigeración no es solo termodinámica; es gobernanza.

Recuperar calor: el giro que convierte un problema en recurso

Un CPD genera calor de manera relativamente estable. En teoría, ese calor puede aprovecharse para calefacción urbana, agua caliente sanitaria o procesos industriales. En la práctica, el aprovechamiento depende de la proximidad a una red o a consumidores térmicos, del nivel de temperatura útil, de la inversión, de contratos y de que el CPD y el entorno estén pensados para conectarse. No siempre ocurre, pero cuando ocurre cambia la narrativa: el CPD deja de ser solo un “consumidor” y pasa a ser una pieza energética del barrio o del polígono. Aun así, conviene bajar el entusiasmo: hay casos en los que la distancia o la falta de infraestructura lo hace inviable, y el calor se queda en lo de siempre, disipado al aire.

España y la nueva ola de CPDs: el termómetro también decide

España se ha convertido en terreno atractivo para centros de datos por una combinación conocida: buena conectividad internacional, crecimiento de demanda digital, proyectos de energía renovable, disponibilidad de suelo en ciertas zonas y, en algunos casos, marcos administrativos que buscan captar inversión. Pero el país tiene una realidad meteorológica evidente: veranos exigentes en amplias áreas, olas de calor cada vez más frecuentes, y noches que, en algunos episodios, ya no ofrecen ese respiro térmico que tanto ayuda al free cooling.

Eso obliga a decisiones de ingeniería y de negocio. Donde se construye un CPD importa por latencia, sí, pero también por clima, por acceso a potencia eléctrica y por estabilidad de suministro. En la conversación pública aparecen nombres que no son “protagonistas” de portada, pero mueven el tablero: operadores de red, grandes eléctricas, administraciones autonómicas, ayuntamientos, gestores de suelo industrial, compañías tecnológicas y operadores especializados en centros de datos como Equinix o Digital Realty, además de los gigantes de la nube como Amazon Web Services, Microsoft Azure y Google Cloud, y plataformas intensivas en computación como Meta. Cada uno tiene su interés: capacidad, coste, reputación, cumplimiento, rapidez de despliegue.

La refrigeración, aquí, se convierte en una variable de primer nivel. Un CPD en una zona templada puede operar con más horas de enfriamiento eficiente; uno en una zona muy cálida necesitará sistemas más potentes, más redundancia, más consumo. La tecnología puede compensar parte de esa desventaja, pero no borra el hecho físico: enfriar en caliente cuesta más.

En este escenario, la palabra “actualización” no es solo de software: es de diseño. Se ven instalaciones que nacen ya pensando en circuitos de agua para densidades futuras, en salas preparadas para refrigeración líquida, en arquitectura modular que permite adaptar sin reventar el CPD. También se ve una tendencia operativa: ajustar temperaturas de consigna con más inteligencia, sin obsesión por el frío extremo, siempre que el diseño del flujo de aire sea sólido. La idea no es “subir la temperatura y listo”, sino operar en un punto razonable donde la eficiencia no sacrifique la fiabilidad.

Cuando el frío se convierte en riesgo: incidentes típicos y señales que nadie debería ignorar

En un CPD, los problemas térmicos suelen avisar antes de explotar. El aviso puede ser sutil: ventiladores más ruidosos, sensores que marcan picos en determinados racks, alarmas de temperatura de entrada que aparecen y desaparecen, un pasillo con diferencias de varios grados entre puntos cercanos. A veces el síntoma llega por el servicio: latencias extrañas, rendimiento irregular, servidores que “se caen” sin patrón claro.

Uno de los fallos más comunes es la recirculación: el aire caliente encuentra un camino de vuelta al frontal del servidor. Otro es la falta de equilibrio: se enfría mucho una zona y otra queda corta, no por falta de potencia total, sino por distribución. También se dan errores humanos, inevitables en cualquier infraestructura viva: una puerta abierta donde debía estar cerrada, un panel que se quita “un momento” y se olvida, un cambio de cableado que bloquea flujo, una reorganización de equipos que altera el mapa térmico.

Hay un punto especialmente delicado: la redundancia. Los CPDs serios no dependen de una sola máquina de frío. Tienen configuraciones redundantes para que un fallo no cause caída. Pero la redundancia no es magia si no se prueba, si no se mantiene, si no se entiende. Un sistema de refrigeración con redundancia mal gestionada puede dar una sensación de seguridad falsa: parece que aguanta… hasta que coincide una avería con una ola de calor y una carga alta. Entonces la historia cambia de tono.

En ese contexto, también importa el tipo de equipamiento. Los servidores modernos están diseñados para tolerar rangos amplios, pero la tolerancia no significa gratuidad. Operar cerca del límite puede ser viable y, aun así, acelerar desgaste o aumentar tasas de error. El CPD no se mide solo por aguantar, sino por aguantar bien.

El frío que sostiene la nube

Refrigerar los CPDs es mantener a raya una realidad básica: la computación genera calor y el calor, si se queda, rompe cosas. La refrigeración es el sistema circulatorio del centro de datos: permite que la energía se convierta en servicio sin convertirse en incendio lento. En un momento en el que suben las densidades, crecen las cargas de IA y se exige disponibilidad permanente, el frío deja de ser un capítulo técnico para convertirse en una condición de estabilidad digital.

El sector se está moviendo con varias palancas a la vez: diseños de pasillos mejor contenidos, control fino de temperatura y humedad, más uso de condiciones exteriores cuando el clima lo permite, y un avance decidido hacia la refrigeración líquida en entornos de alta densidad. En paralelo, la conversación pública incorpora lo que antes quedaba en la sala de máquinas: el coste eléctrico, el agua, la eficiencia real, la integración con redes y, cuando se puede, el aprovechamiento del calor residual. Nada de esto es accesorio. Un CPD bien refrigerado no es un lujo tecnológico: es la diferencia entre una nube que funciona como un reloj y una nube que, en cuanto el termómetro aprieta, empieza a perder el paso. Y cuando pierde el paso, se nota en todas partes, aunque el edificio del CPD esté a kilómetros, silencioso, sin ventanas, con su frío trabajando a puerta cerrada.

Gracias por leerme y por pasarte por Don Porqué. Si te apetece seguir curioseando, arriba tienes la lupa para buscar más temas. Y si esto te ha gustado, compártelo: así la historia llegará un poco más lejos.