
















Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity
Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium
Prepara tus exámenes
Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity
Prepara tus exámenes con los documentos que comparten otros estudiantes como tú en Docsity
Los mejores documentos en venta realizados por estudiantes que han terminado sus estudios
Estudia con lecciones y exámenes resueltos basados en los programas académicos de las mejores universidades
Responde a preguntas de exámenes reales y pon a prueba tu preparación
Consigue puntos base para descargar
Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium
Comunidad
Pide ayuda a la comunidad y resuelve tus dudas de estudio
Descubre las mejores universidades de tu país según los usuarios de Docsity
Ebooks gratuitos
Descarga nuestras guías gratuitas sobre técnicas de estudio, métodos para controlar la ansiedad y consejos para la tesis preparadas por los tutores de Docsity
Este documento proporciona una visión general de los sistemas de refrigeración utilizados en los centros de datos, incluyendo sistemas pasivos, circulación forzada de aire exterior, sistemas de automatización y sensores, y refrigeración líquida. Se discuten los beneficios de la refrigeración líquida, como la eficiencia energética, la reducción de ruido y la mejora de la fiabilidad de los servidores. También se explican las características de un centro de datos de tier iv, como la disponibilidad garantizada del 99,995% anual y el uso de un sistema de refrigeración free-cooling. El documento destaca la importancia de un diseño eficiente del sistema de refrigeración para mantener las condiciones ambientales adecuadas y evitar el sobrecalentamiento de los equipos, lo que puede afectar negativamente su rendimiento y vida útil.
Tipo: Monografías, Ensayos
1 / 24
Esta página no es visible en la vista previa
¡No te pierdas las partes importantes!
Disponibilidad de 99,741%. Componentes redundantes (N+1) Una falla en un componente de capacidad pudiera tener un impacto en los equipos de cómputos. Una falla en la distribución de energía o de Data causa la parada del sistema. Tiene suelos elevados, generadores auxiliares o UPS. Es menor susceptible a la interrupción por actividades planeadas o no. Conectados a una única línea de distribución eléctrica y de refrigeración. Incluye un piso elevado UPS y generador. Toma de 3 a 6 meses para implementar. El tiempo de inactividad anual es de 22,0 horas. El mantenimiento requiere una interrupción del servicio. Aplicaciones: Aplicable a negocios pequeños. Uso de TI limitado a las horas normales de trabajo. Compañías de software que no ofrecen servicios “online” o “real-time”. Compañías que basan su negocio en Internet pero no requieren calidad en sus servicios.
Características: Brinda los requerimientos y lineamientos necesarios para el diseño e instalación de DataCenters. La intención es que sea utilizado por los diseñadores que necesitan un conocimiento acabado del facility planning (servicios de planificación), el sistema de cableado y el diseño de redes. Este estándar está aprobado por TIA (Telecomunications Industry Association) y ANSI (American National Standards Institute). El estándar TIA 942 y la categorización de Tiers en Latinoamérica llevan al replanteamiento de las necesidades de infraestructura para la instalación de un DataCenter. Creado por miembros de la industria, consultores y usuarios, que intentan estandarizar el proceso de diseño de los centros de datos. Historia: En abril de 2005, la Telecomunication Industry Association publica su estándar TIA-942 con la intención de unificar criterios en el diseño de áreas de tecnología y comunicaciones. Este estándar que en sus orígenes se basa en una serie de especificaciones para comunicaciones y cableado estructurado, avanza sobre los subsistemas de infraestructura generando los lineamientos que se deben seguir para clasificar estos subsistemas en función de los distintos grados de disponibilidad que se pretende alcanzar. En su anexo G (informativo) y basado en recomendaciones del Uptime Institute, establece cuatro niveles (tiers) en función de la redundancia necesaria para alcanzar niveles de disponibilidad de hasta el 99.995%. Infraestructura de Soporte: Según el estándar TIA-942, la infraestructura de soporte de un Data Center debe estar compuesto por cuatro subsistemas como lo son: Telecomunicaciones Arquitectura Sistema eléctrico Sistema mecánico Ventajas: La nomenclatura estándar
Condiciones ambientales Temperatura Las recomendaciones de temperatura de trabajo suelen estar entre los 20°C y 25°C (norma TIA- 942). Los fabricantes de servidores suelen recomendar temperaturas de 22-23°C (IBM, Dell, HP). Datacenters de grandes empresas suelen trabajar a temperaturas como: Google 26°C, Sun 27°C, Cisco 25°C, Facebook 22°C (fuente: DataCenterKnowledge) Todo esto también depende de la tecnología utilizada y del ritmo de renovación de equipos. Hay quien trabaja a temperaturas altas con renovación de equipos cada pocos años, o bien con temperaturas bajas con máquinas más longevas Humedad.- Lo ideal es mantener un rango óptimo para evitar electricidad estática (ambiente seco) y degradación de los componentes eléctricos por condensación del aire (ambiente húmedo). En un datacenter se recomienda una humedad relativa alrededor de 45% ± 5% (norma TIA-942). No es recomendable climatizar un datacenter con un sistema de aire acondicionado de confort para las personas: la gente añade humedad al ambiente de una habitación por la respiración o la transpiración, los equipos no. El 60-70% del trabajo que hace un sistema de confort es remover calor y el otro 30-40% es remover humedad. Un sistema de confort extraerá la humedad por debajo de los límites aceptables para la operación eficiente de los equipos. O bien se les expone a posibles problemas por un ambiente muy seco (electricidad estática), o se deberá adquirir sistemas de humidificación adicionales. Partículas en suspensión El polvo puede dañar las cabezas lectoras de los discos duros. Las partículas pueden acumularse rápidamente en los componentes electrónicamente cargados y reducir la capacidad de disipación de calor, causando que las partes afectadas trabajen a una temperatura superior a los límites de eficiencia, causando su deterioro. La aplicación de filtros del aire minimiza estos efectos de deterioro. También se utiliza el sistema de mantener una presión atmosférica más alta que en el exterior para evitar la entrada de polvo. Esta presión más alta se puede conseguir inyectando un poco más de aire del que se evacua. Sistemas de refrigeración Sistemas pasivos.- Pueden ser una serie de intervenciones en los elementos constructivos del espacio para que no entre el calor ni salga el frío, como aislamiento de paredes, refuerzo de los cerramientos, persianas para evitar la luz solar, salas en sótanos con temperatura de las paredes estable a lo largo del año, etc... Circulación forzada de aire exterior.- En lugares o épocas del año fríos, se puede aprovechar el aire frío del exterior para refrigerar los equipos, a través de circulación de renovación de aire, siempre con filtros para evitar el polvo.
placa y enviar datos vía USB o WiFi a un ordenador que puede monitorizarlos, procesarlos y tomar decisiones sobre la climatización, y las salidas de la placa pueden activar actuadores de refrigeración. Domótica Para datacenters pequeños se puede valorar la utilización de sistemas domóticos como los basados en bus KNX o en X10. La importancia de la refrigeración La producción de calor de los equipos que conforman un centro de datos es uno de los problemas principales y que más preocupan a sus administradores. El exceso de calor en una sala de servidores afecta negativamente el rendimiento del equipo y acorta su vida útil, además de suponer un peligro en el caso de alcanzar niveles elevados. Por eso es de vital importancia el diseño de un buen sistema de refrigeración. En este diseño es fundamental el dimensionamiento del sistema, que exige comprender la cantidad de calor producida por los equipos TI junto con el que producen otras fuentes de calor que habitualmente están presentes como los SAI, la distribución de alimentación, unidades de aire acondicionado, iluminación y personas…Fijarse en todo ello es básico para calcular la carga térmica. En una instalación típica las cargas que más peso tienen son: el 70% que suele corresponder a la carga de los equipos TI, el 9% a la iluminación, el 6% a la distribución de la alimentación y el 2% a las personas. Además de eliminar el calor, un sistema de aire acondicionado para un centro de datos está diseñado para controlar la humedad. En la mayoría de sistemas de aire acondicionado la función de refrigeración por aire del sistema causa una importante condensación de vapor de agua y la consiguiente pérdida de humedad. Por tanto, es necesaria una humidificación suplementaria para mantener el nivel de humedad deseado. Esta humidificación suplementaria crea una carga de calor adicional en la unidad de aire acondicionado de la sala de ordenadores (CRAC), disminuyendo de forma clara la capacidad de refrigeración de la unidad y haciendo necesario un sobredimensionamiento. Es importante hablar también del diseño de la red de conductos del aire o el falso suelo, ya que tiene un efecto importante en el rendimiento global del sistema y, además, afecta en gran medida a la uniformidad de la temperatura dentro del centro de datos. La elección de un sistema de distribución de aire modular, unido a una correcta estimación de la carga térmica, puede reducir significativamente los requisitos de configuración del diseño del centro de datos.
Desde Powernet advertimos a nuestros clientes algo que a pesar de su obviedad, no siempre es tenido en cuenta a la hora de un diseño eficiente de los Data Center; la temperatura en los servidores dentro de un Data Center es algo primordial para cualquier operación de TI. La nueva generación de sistemas de refrigeración líquida podría introducir un gran cambio en el diseño de los centros de datos, con una mayor reducción en los ingresos de los fabricantes de aire acondicionado, proveedores de energía e incluso responsables del mercado inmobiliario. Los beneficios de las técnicas de refrigeración mediante agua, incluyendo enfriamiento líquido directo, indirecto y total, pueden generar un alto grado mejoras en los costes; garantizando también un menor ruido y evitando grandes fallos en los servidores. También esta tendencia podría generar la caída drástica en los costes a medida que el equipamiento del data center se vuelve más simple. De esta forma, a medida que la demanda de computación de alto rendimiento crece, las técnicas para refrigerar estas máquinas serán cada vez más críticas. Hay un interés latente por optar la refrigeración líquida por parte de operadores web y compañías de hosting como Google, Facebook y eBay, ellos han reescrito las normas del data center y han legitimado un enfoque menos conservador para el diseño y operación de las instalaciones. Gracias a la adopción de estos sistemas se evitará el ruido alterando la infraestructura. Sin los ventiladores se puede ubicar el data center en cualquier lugar. En el futuro es posible que desaparezca la necesidad de salas TI especializadas y nadie necesitará pagar miles de dólares por metro cuadrado por un espacio de almacenamiento. Los data centers del futuro podrían estar en cualquier sitio. Presente de la tecnología. Powernet está al día en la evolución tecnológica del sector, y su departamento de ingeniería ya conoce y evalúa tecnologías punteras como esta. Aunque no está en España sirva como ejemplo de
pequeña bomba. La velocidad de bombeo es modulada para mantener una temperatura constante en el tanque”, explican desde la NSA. El interior del tanque ha sido diseñado de tal forma que el aceite frío procedente del intercambiador de calor es dirigido para que pase a través de los servidores antes de volver al intercambiador. La combinación de la variación de velocidad y los conductos de aceite supone que se utiliza de forma muy eficiente el fluido de refrigeración. El sistema solo bombea la cantidad necesaria para satisfacer la carga. Servidores de red sumergidos en un tanque de aceite mineral. En base a esta experiencia desde Powernet destacamos que además de la eficiencia, hay tres beneficios añadidos de la refrigeración por inmersión: El primero es debido al hecho de que el sistema está diseñado para mantener una temperatura constante dentro del tanque, lo que hace que los servidores estén en un ambiente isotérmico –y, por tanto, evita fallos mecánicos derivados de los cambios de temperatura. El segundo beneficio es la limpieza del servidor. Si bien los centros de datos son entornos relativamente limpios, sigue habiendo polvo y suciedad. En los servidores refrigerados por aire, cualquier partícula de polvo o suciedad en el aire tiende a acumularse en el chasis de los servidores. Finalmente, el tercer beneficio añadido de la refrigeración por inmersión es el silencio. Los sistemas de refrigeración por inmersión no hacen prácticamente ruido. Conclusiones. A raíz de la implementación de estos sistemas, se ha concluido que la eficiencia energética en el data center puede ser mejorada tanto haciendo la computación más eficiente energéticamente como haciendo la eliminación del calor más eficiente. En este sentido, la refrigeración por inmersión es un modo de mejorar significativamente la eficiencia en el proceso de eliminación de calor. La energía requerida para la refrigeración por inmersión puede ser más de un 15% menor que la utilizada en el enfriamiento por aire. La refrigeración por inmersión puede eliminar la necesidad de infraestructura que representa la mitad del coste de construcción de un data center. Además, este tipo de enfriamiento puede reducir los fallos en los servidores, y es más limpio y menos ruidoso que la refrigeración por aire.
En resumidas cuentas, permite más computación utilizando menos energía e infraestructura. SISTEMA DE ALIMENTACION ELECTRICA Reseña histórica.- Nuestra primera aproximación al mundo del data center, allá hacia mediados de los 90, fue precisamente por esta vía, y a lo largo de estos casi 20 años esa relación entre el servicio TI y su alimentación eléctrica es cada día más intensa, fruto de la creciente necesidad de que el servicio no se detenga de ninguna de las maneras. A la hora de considerar la instalación eléctrica, conviene siempre no olvidar el verdadero objetivo de la misma, que no es otro que el ya citado y, para ello, la visión más acertada es aquella que otorga prioridad al entorno más próximo al equipo TI, lo que hemos dado en llamar “óptica del equipo”. Se trata de comenzar los diseños, las revisiones, los análisis, etc., con la idea clara de llevar hasta ese punto la mayor garantía de continuidad, mediante la adopción de las mejores prácticas al uso. Procurar que la energía discurra desde la fuente hasta el receptor de la forma más segura y eficiente. Sistema UPS estático de Socomec
necesidad y, por ello, suelen presentar menos anomalías en las condiciones de funcionamiento de esa parte de la instalación. Modelo de UPS rotativo diésel de la marca Hitec
Disponibilidad garantizada del 99,995 % anual. Es decir, que durante todo un año el único período de actividad que no está garantizado es de 26 minutos. Un peldaño por debajo está la certificación TIER III, con una disponibilidad asegurada del 99,982 % (95 minutos anuales no asegurados). Refrigeración a través del suelo técnico. En cada una de las salas del Alcalá Data Center encontramos este tipo de suelo, donde está instalado el cableado pero a través del cual también pasa el aire que se ha reciclado del exterior y que sirve para mantener frescas estas salas pese al calor que desprende cada uno de los equipos, a una temperatura siempre monitorizada de entre 18 y 24ºC. Sistema de refrigeración Free-Cooling El free-cooling es un sistema de refrigeración de locales que aprovecha la baja entalpía del aire exterior, cuando las condiciones son favorables, para disminuir el uso de los equipos de aire acondicionado. Pueden darse tres condiciones de operación de free-cooling:
Eficiencia energética medida como la relación entre energía recibida y energía empleada en las salas IT. La relación óptima sería de 1. En un centro de datos TIER IV está entre 1,2 y 1,4. En el Alcalá Data Center está entre 1,2 y 1,3. Escalabilidad viable pensada desde su construcción. El factor más importante es la posibilidad de que el centro de datos pueda ampliar su capacidad eléctrica de forma modular, sin precisar de obras completas que pudiesen requerir parar la actividad de los equipos. "como un LEGO" es determinado la escalabilidad de un tier IV. Es fácil y rápido agregar nuevas cajas eléctricas.