El recalentamiento del hardware dedicado a intensos procesos de computo es uno de los grandes problemas de nuestro tiempo. Exige potentes sistemas de enfriamiento que consumen grandes cantidades de energía. Como consecuencia de esto hemos visto una variedad de soluciones, desde el traslado de los centros de datos a localidades con un buen suministro de agua hasta la instalación de los centros en lugares cada vez más fríos o incluso bajo el mar.
Sin embargo un trabajo de la Universidad de la Universidad Técnica de Aquisgrán, la Escuela Politécnica Federal de Lausana, La Universidad Nacional Yang Ming Chiao Tung y TSMC ha presentado una perspectiva diferente. En vez de enfriar los equipos simplemente para combatir el calor excesivo, habría que enfriarlos para mejorar su rendimiento y ahorrar en energía.
Más frío, más barato, más rápido
La idea es llevar a los equipos a condiciones de muy baja temperatura. A esta opción se la conoce como computación criogenia. En teoría al operar en temperatura cercanas al cero absoluto los transistores necesitarían una fracción del voltaje que necesitan para operar a temperatura ambiente. Se ha calculado que operando de esta manera se podría conseguir un ahorro del 80% (contando los gastos de enfriamiento). Pero además, los equipos deberían también funcionar a mayor velocidad.
Problemas y soluciones a la vista
Sin embargo, a bajas temperaturas ciertos problemas de los materiales que no aparecen en altas temperaturas comienzan a ser relevantes. Pequeños defectos en los materiales pueden producir distorsiones. Y hay otros inconvenientes más, aunque de menor impacto.
Varias soluciones han sido propuestas. Entre ellas destacamos la aplicación de nuevos materiales o el ajuste dinámico de los márgenes de voltaje.
Nada de esto llegará a nuestras casas. No vamos a terminar con la PC en la heladera. Pero en los grandes centros de datos podría ser la norma, también para la computación cuántica si acaso llega a superar el ámbito de los experimentos.