Inicio Tecnología. Actualidad. La importancia del cableado en el Data Center del futuro

La importancia del cableado en el Data Center del futuro

Uno de los principales elementos de la construcción de un Data Center es la infraestructura pasiva, sin embargo, ésta suele ser una de las áreas más desatendidas. Vista por muchos como ‘sólo cables’, en realidad se trata de una parte de la infraestructura que no puede ser ignorada; es absolutamente crítica para que todo esté conectado y trabaje bien en conjunto.

 

Virtualización

La virtualización es una tendencia significativa que requiere un enfoque claro en el diseño de la infraestructura pasiva. La llegada de la virtualización ha significado el envío de más y más datos a través de las redes y sobre conexiones individuales de cableado, a velocidades mucho más altas.

En el pasado, no había tanta propagación de datos a través de sistemas independientes y medios en el Data Center, pero ahora cada enlace de cableado necesita estar listo para responder a la gran demanda de ancho de banda que tendría que soportar en un ambiente altamente virtualizado.

La ventaja de la virtualización para el propietario del Data Center es que tiene una red única fácil de mantener y operar, con interoperabilidad mejorada y una relación costo-eficiencia incrementado.

Sin embargo, la virtualización aumenta el riesgo de cuellos de botella si la infraestructura de cableado no ha sido diseñada adecuadamente desde un principio. Esto significa que los propietarios del Data Center necesitan evitar los cuellos de botella en su infraestructura en la etapa inicial de diseño con el fin de asegurar una eficiencia sostenida durante el ciclo de vida del Data Center.

Desarrollos como la virtualización, la Nube y Big Data generalmente impulsan el crecimiento de la transmisión de datos y a su vez generan una enorme presión sobre la capa física. Se estima que todos los productos de la capa física planeados (diseñados) en la actualidad puedan soportar muchas generaciones de redes en el futuro. Como mínimo, existe una necesidad de planear una infraestructura de cableado del Data Center para perdurar por 10 años o más, soportando diversas generaciones de cambios en la tecnología activa.

 

Switches Spine y Leaf

Un buen ejemplo de esto es el reciente movimiento desde las arquitecturas tradicionales de Data Center ‘Tier 3’ a los diseños más horizontales, Tier 2 tipo ‘Fat Tree’, habilitados por switches Leaf y Spine.

Los usuarios son cada vez más menos tolerantes a la latencia, la cual puede darse en arquitecturas que tienen muchos switches y por lo tanto deben tomar ‘muchas decisiones’ sobre los enrutamientos que los datos deben tomar a través del Data Center. Para combatir esto, los fabricantes están lanzando nuevos switches y promocionando arquitecturas que bajan la latencia a través de, por ejemplo, estos diseños Fat Tree. El resultado de moverse de Tier 3 a Tier 2 es que todo el cableado usado para interconectar los switches tendrá que manejar enormes cantidades de datos, y que la agregación de datos será mucho más cerca al servidor, disminuyendo la jerarquía de switching. Esto contrasta con el diseño Tier 3 donde sólo los enlaces son conectados a los switches de nivel más alto, previamente aquellos con el nivel más agregado de datos, tenían que ser capaces de manejar grandes cantidades de datos.

 

¿Cuál es la definición de grande?

Data CenterLos switches tipo Leaf y Spine que se encuentran en el mercado actualmente están siendo vendidos con un mínimo de puertos Ethernet de 10 Gigabits para la conexión a los servidores, mientras que la interconexión entre los mismos switches tipo Leaf y Spine probablemente correrán a Ethernet de 40 Gigabits, con proveedores que ya ofrecen plataformas de Ethernet de 100 Gigabits.

Esto ofrece ventajas, ya que la velocidad de I/O (Entrada/Salida) del servidor también se está incrementando a un índice más rápido. Las investigaciones más recientes de IDC, Dell’Oro, Crehan e Intel revelan que un gran porcentaje de servidores se comunicarán a Ethernet de 40 Gigabits en los próximos cinco años, y que dentro de los siguientes tres años los puertos de Ethernet de 100 Gigabits serán una realidad dominante dentro del Data Center.

 

El futuro de la fibra

Para lograr estos tipos de velocidades de transmisión, la fibra será el medio de transporte a elegir. En la actualidad, existe una opción de interfaz primaria para conectar plataformas de Ethernet de 40 y 100 Gigabits habilitadas sobre la fibra Multimodo en el Data Center: el conector MPO. Ya que las señales ópticas multimodo son transmitidas a través de VCSELs (Láseres de Emisión Superficial de Cavidad Vertical) producidos en forma masiva fácilmente, esta tecnología permite la transmisión óptica paralela de bajo costo a través de la capa física y es la clave para conectar arquitecturas Fat Tree de baja latencia.

Mientras que en 40 Gigabits Ethernet una interfaz multimodo MPO de 12 fibras se encuentra disponible en muchas plataformas activas, en 100 Gigabits Ethernet la única opción multimodo disponible en la actualidad es MPO de 24 fibras. Implementar una solución de cableado MPO de 24 fibras en el Data Center es extremadamente importante porque no sólo es una interfaz directa de la actual plataforma de 100 Gigabit Ethernet, sino que una única troncal de cableado de MPO 24 fibras puede ser usada para agregar canales de 3×40 Gigabits Ethernet o 12×10 Gigabits Ethernet.

Esto trae dos ventajas principales a una red cuando se piensa en el espacio, funcionamiento y migración de red:

  • Una única troncal de 24 fibras usa menos volumen que tres troncales de cableado de 12 fibras MPO, cada una con canales de 40 Gigabits Ethernet. Esto significa que se requiere una menor cantidad de cable en el Data Center, ahorrando capital, ya que los paquetes pequeños de cables producen un impacto positivo en el flujo de aire, permitiendo que los sistemas de aire acondicionado funcionen a un nivel óptimo. Esto permite ahorros en gastos operativos, ya que en la planta de enfriamiento solo se implementan las cargas necesarias.
  • Algunos sistemas de 24 fibras utilizan cassettes en ambos extremos del troncal. Los cassettes son realmente una simple manera de terminar la fibra paralela instalada en el backbone de una red, y al mismo tiempo presentan exactamente la interfaz correcta al switch o servidor en el gabinete. Mediante la implementación de este sistema, el administrador del Data Center puede dejar la troncal de cableado de 24 fibras en lugares “difíciles de acceder” –entre los racks–  cambiando simplemente el cassette en cada extremo del enlace y presentando una interfaz lista para 10 Gigabits Ethernet, 40 Gigabits Ethernet o 100 Gigabits Ethernet.

En general, se puede lograr un ahorro hasta de un 52% de espacio en las trayectorias de cableado al seleccionar un sistema de troncal de MPO de 24 fibras, sobre su equivalente de MPO de 12 fibras.

Del mismo modo, en términos de eficiencia energética, el cuidadoso diseño e implementación de la infraestructura física pueden tener un impacto positivo, particularmente debido a la consideración de cómo el flujo de aire es gestionado alrededor del centro de datos.

 

El espacio Premium

data_center_2La mala práctica dentro del Data Center es a menudo impulsada por el valor ‘Premium’ que se le da al ‘espacio en blanco’ –donde la tendencia ha sido empaquetar más y más conexiones en espacios más pequeños, aumentando el perfil de un concepto denominado Densidad Administrada. En pocas palabras, este es un enfoque de diseño e instalación que no sólo entrega densidad por el bien de la misma, sino que implementa soluciones para administrar la capa física con un balance óptimo entre la densidad y la capacidad de administrar eficientemente los  inevitables movimientos, adiciones y cambios una vez que el Data Center esté funcionando.

Un Data Center bien diseñado incorporará este concepto, con lo que el operador tendrá la agilidad de responder a las demandas de nuevas aplicaciones y las necesidades cambiantes de la empresa y sus clientes. Mientras que el espacio está en un nivel ‘Premium’ dentro de los centros de datos, aún se debe recordar que una capa física mal diseñada puede tener un enorme impacto al flujo de aire. Esto significa que las partes más importantes de la infraestructura del Data Center pueden ser los productos de administración de cables, racks y gabinetes que conforman la plataforma de cableado.

 

Pérdida óptica

Otro aspecto importante de la capa física que impacta la eficiencia de red dentro del Data Center es la pérdida óptica. En redes heredadas corriendo a velocidades inferiores a 10 Gigabits Ethernet, el presupuesto óptico (la cantidad de luz para soportar la transmisión entre dos puertos) es extremadamente generoso. Esto permite que componentes ópticos de muy pobre calidad puedan ser usados en una red, y el propietario/usuario no reconoce la degradación en el desempeño de la red.

Hoy, con Data Centers ya implementando 40 Gigabits Ethernet y considerando los enlaces de 100 Gigabits Ethernet, las apuestas son mucho más altas, lo que hace que el presupuesto de pérdida óptica haya disminuido dramáticamente. La cantidad de presupuesto óptico ahora permitida por el IEEE en un canal de 40 o 100 Gigabits Ethernet es hasta un 42% menos que el que era permitido a 10 Gigabits Ethernet, y hasta un 57% menos que a 1 Gigabit Ethernet.

Usar conectividad de fibra en un Data Center pobremente elaborada o fabricada, podría causar el reenvío inoportuno de paquetes a través de la red cuando se instalen tarjetas más rápidas. Esto a su vez trae consigo el temido factor de latencia que todos los usuarios y operadores tratan de evitar.

 

Conclusión

La capa física es a veces el basamento olvidado de la red del Data Center y, en muchos casos en el pasado, las penalidades ópticas han sido benevolentes para permitir que la conectividad de baja calidad, pase por debajo del radar.

Sin embargo, la siguiente generación de Data Centers utilizará niveles de virtualización aún más altos y requerirá manejar cargas de datos muy por encima de lo que está manejando en la actualidad. Todo esto significa que el Data Center del mañana dependerá de cada aspecto de la red, incluyendo aquellas olvidadas bases de cableado, para funcionar a un nivel óptimo, mientras ocupan la mínima cantidad del valioso espacio.

Las Capas 2 y superior ya han alcanzado enormes eficiencias, pero los administradores y propietarios de los Data Centers necesitan dar una mirada más de cerca a cómo pueden usar la capa física para soportar el crecimiento en el futuro, o inversamente, ver cómo la capa física de cableado puede impedir dicho crecimiento.

El reto que enfrenta ahora la industria del Data Center es mantener los altos niveles de disponibilidad, mientras ofrece respuestas más agiles a los cambios rápidos en empresas, aplicaciones y demandas de usuarios. Los principales generadores de la agilidad, disponibilidad y eficiencia del Data Center sólo se pueden lograr utilizando soluciones de infraestructura de la capa física que están diseñadas desde el principio con estos tres objetivos en mente.

Por Alastair Waite, Líder en Centros de Datos en Europa para TE Connectivity

Opinión