Los centros de datos siguen consumiendo demasiada energía

A pesar de la adoptar tecnologías de virtualización y otras que permiten gestionar el uso de energía y por tanto su consumo, los centros de datos siguen gastando demasiado. Esta es, al menos, una de las conclusiones a las que se llegó durante el Uptime Symposium 2010, celebrado la semana pasada en Nueva York.

Rob Bernard, responsable de estrategias medioambientales de Microsoft comentó durante su comparecencia que la mayoría de la gente no se da cuenta de que se agotará la energía y no se podrá mantener el centro de datos lo suficientemente frío.

El consumo de energía de los centros de datos es un problema público desde que en 1996 el departamento de energía de Estados Unidos predijo que el consumo de energía de los datacenters se duplicará para 2011 hasta los 120.000 millones de kWh, una predicción que se ha cumplido. A esta hay que añadir otras, como que las empresas gastarían más en mantener los centros de datos, por la energía que consumen, que en el propio hardware.

Hace pocos años que despegó con fuerza la conciencia ecológica en el sector TIC, generándose el movimiento de Green IT al que muchas empresas se han apuntado con más o menos acierto. Pero para Bernard, a pesar de que se ha adelantado mucho a nivel de infraestructura y a nivel de tecnología, “pero no hemos cambiado en conducta”.

Muchos de los asistentes estuvieron de acuerdo en que parte del problema es la manera en que están desarrolladas las aplicaciones, ya que los desarrolladores crean aplicaciones que requieren mucha memoria y mantienen el procesador activo durante mucho tiempo. Conque haya un solo programa que no esté escrito para ponerse en reposo cuando no esté en uso se incrementa el consumo de energía de todo el servidor.

La Ley de Moore, que afirma que cada nueva generación de procesadores duplica el rendimiento de sus predecesores porque el número de transistores en cada nuevo chip se duplica cada dos años, también es culpable de que los centros de datos sigan consumiendo demasiado. Es cierto que cada nueva generación funciona mejor consumiendo lo mismo, pero hay que tener en cuenta que incluso los núcleos no utilizados consumen gran cantidad de energía, a lo que hay que añadir que los asistentes a la conferencia estimaron que la utilización media de la CPU es de entre un 5% y un 25%.

Las organizaciones no piensan en la consolidación de las cargas de trabajo, de forma que cada nueva aplicación añadida por una empresa tiende a funcionar por sí misma, de manera independiente, y se hace poco trabajo compartiendo recursos.

Poniendo como ejemplo a su compañía, Rob Bernard, comentó durante el Uptime Symposium 2010 que los servicios online de Microsoft como Hotmail y Bing tienen ratios de utilización de la CPU altos, pero que otros proyectos, tanto internos como externos, utilizan una pequeña capacidad de los servidores consagrados a los mismos. Cada nuevo proyecto utiliza demasiados servidores y cuando el hardware se actualiza el ratio de utilización de la CPU cae aún más.

Por lo tanto, aunque los fabricantes de servidores y otros componentes tienden a incorporar tecnologías que limitan el consumo, el bajo nivel de utilización de la CPU y los hábitos de las organizaciones hacen que esos ahorros de energía sean mínimos.

La empresa de investigación The 451 Group ha realizado una encuesta sobre los usos de la energía entre los miembros de Uptime y ha llegado a la conclusión de que las fluctuaciones en el tráfico de los servidores no se corresponden con las fluctuaciones en la cantidad de energía que consumen los mismos.

Es decir que aunque los servidores incorporen opciones de ahorro de energía, la manera en la que se generan las cargas de trabajo hace que no se consigan grandes reducciones en la cantidad de energía consumida.

Incluso cuando está en reposo, un servidor puede utilizar cientos de vatios y la clave, según algunos de los asistentes, es encontrar una manera más dinámica para que el centro de datos escale su consumo de energía dependiendo de la cantidad de trabajo que necesite hacer.

Fue Dean Nelson, director de centro de datos de eBay, quien planteó la idea de que son necesarias aplicaciones que trabajen con la frecuencia con la que la CPU del servidor pueda aumentar o reducir de forma dinámica la demanda, y que además estas aplicaciones puedan incluso gestionar el grado de refrigeración.

Este tipo de informática escalable es, por cierto, lo que Intel está intentando conseguir con sus nuevas generaciones de procesadores. El objetivo de Intel es desarrollar chips que utilicen “sólo la cantidad de energía necesaria para escalar la carga de trabajo”.

ITespresso Redacción

La redacción de ITespresso está compuesta por periodistas especializados en Tecnologías de la Información y Comunicaciones.

Recent Posts

Google paga 5.000 millones de dólares para resolver una demanda colectiva

Los usuarios denunciaban que la compañía los había rastreado incluso cuando usaban el modo privado…

11 meses ago

Las pymes valencianas pueden optar a ayudas de 5,5 millones de euros por proyectos de I+D

El Instituto Valenciano de Competitividad Empresarial financiará aquellas iniciativas que puedan solucionar incertidumbres científicas o…

11 meses ago

La guerra entre Israel y Gaza no acobarda a los inversores extranjeros de startups

Solo en el cuarto trimestre las empresas emergentes del país han levantado 1.500 millones de…

11 meses ago

Navarra ya cuenta con más de 80 startups

La región tiene 13 scaleups y destaca por sus empresas emergentes de salud y agrotech.

11 meses ago

Las startups valencianas progresaron adecuadamente en 2023

Valencia ha atraído en el primer semestre del año 30 millones de euros de inversión…

11 meses ago

El New York Times acusa a Open AI y Microsoft de infringir sus derechos de autor

El diario estadounidense demanda a las dos compañías tecnológicas por haber usado sus contenidos para…

11 meses ago