5 elementos para crear un Data Center ‘ideal’

5 elementos para crear un Data Center ‘ideal’

Los centros de datos son de todas formas y tamaños, y sus diseños motivados por una multitud de factores.  Éstos pueden ser muy variables, como el propósito para el cual se utilizan, hasta el ambiente físico en el que se ubican, los materiales de los que se construyen o incluso quien lo diseña: compañías globales de colocación, operadores de telecomunicaciones, especialistas de cloud computing, etc.

A pesar de la diversidad de factores, si un nuevo centro de datos quiere alcanzar el estatus de ‘ideal’, hay un grupo de características que siempre deben estar presentes en el proyecto.

 

1. Costo bajo

Mantener el CAPEX lo más bajo posible es siempre un factor importante en el proceso de toma de decisiones.  De hecho, las restricciones de CAPEX provocan que no se lleguen a construir los centros de datos, ya que el costo inicial es considerado demasiado alto.  Así que para los operadores que tienen un presupuesto limitado disponible para expandir un centro de datos existente o construir uno nuevo, considerar un centro de datos prefabricado es normalmente la mejor opción.

Los centros de datos modulares (no confundir modulares con contenedores) permiten un CAPEX más bajo desde el día uno, lo que puede ser crítico para un caso de negocio positivo y para conseguir que el proyecto se lleve a cabo.

Sin embargo, el éxito financiero no es impulsado simplemente por lograr un gasto bajo de capital. Reducir los costos operativos recurrentes también es crítico en lograr el mejor caso de negocio para un operador de centros de datos.

Aquí es donde se requiere un equilibrio para asegurar que el capital invertido sea justificado a través de los ahorros adquiridos con la eficiencia. Por ejemplo, un cálculo de costo total de propiedad (TCO, por sus siglas en inglés) que compare sistemas de enfriamiento con precios y eficiencias variables entregará resultados muy diferentes, conforme la línea de tiempo aumente. Así que el CAPEX y el OPEX no pueden analizarse por separado, ya que el realizar una inversión óptima en CAPEX podrá ofrecer niveles consolidados y manejables de OPEX.

 

2. A prueba de futuro

Mientras que los operadores regularmente tratan de minimizar la inversión inicial lo más posible, siempre querrán que su centro de datos esté listo para el futuro, de forma que la instalación pueda aumentar al ritmo de las crecientes demandas de los clientes y del mercado, pero sin interrumpir las operaciones existentes.

Los negocios rara vez crecen de una manera totalmente predecible y lineal, así que un elemento clave para que un centro de datos sea a prueba de futuro no es únicamente su capacidad para crecer, sino también contar con una flexibilidad integrada que pueda adaptarse a las necesidades cambiantes del mercado.

Este tipo de flexibilidad se puede conseguir con elementos como techos altos (hasta 5m), piso blanco libre y sin columnas; y la capacidad de reconfigurar o expandir el edificio para acomodar cambios operativos o de servicios.

Estas características se asocian principalmente con los edificios de centros de datos prefabricados, como el eCentre de Flexenclosure, en contraposición con las instalaciones tradicionales. Además, las soluciones prefabricadas reducen la presión del operador por conseguir estimaciones correctas a largo plazo, permitiéndole estar seguro de que podrá adaptarse a los nuevos cambios tecnológicos y requerimientos de los clientes conforme ocurran.

 

3. Tiempo corto para estar operando

En la mayoría de los casos, en el momento en que un operador asigna un presupuesto y coloca una orden para un nuevo centro de datos, la instalación ya va tarde. ‘Para ayer’ es la respuesta típica cuando se pregunta para cuándo se requiere que la instalación esté en marcha, así que el tiempo desde que se concibe el diseño hasta que pueda estar en funcionamiento es siempre un factor crítico.

Normalmente es imposible alcanzar tiempos cortos en proyectos de construcciones tradicionales, así que la solución es nuevamente las instalaciones prefabricadas que pueden completarse mucho más rápido. Un tiempo corto para estar operando asegura que el operador se mantenga delante de la competencia y asegura un mejor retorno de inversión, ya que el capital invertido comienza a generar ganancias mucho más rápido.

 

4. Alta calidad

Una de las demandas clave de los usuarios finales para considerar el servicio de hospedaje en un centro de datos es el tiempo de funcionamiento con disponibilidad garantizada de casi el 100%, 24/7.

Con tantos casos de compañías que ya valoran los datos e infraestructura de red como sistemas de misión crítica, las fallas e interrupciones de los centros de datos son ahora titulares de las noticias. Ni los operadores ni los clientes quieren ser parte de estos sucesos, así que la calidad de cualquier instalación nueva debe ser siempre predecible.

La industria de centros de datos es relativamente joven, con normas y certificaciones que aún están evolucionando, pero la TIA-942 junto con el Uptime Institute están asegurándose que el diseño y la calidad de construcción se muevan en la dirección correcta.

La confiabilidad de un centro de datos no sólo se ve afectada por interrupciones de energía en los equipos. Los entornos desfavorables en los que las instalaciones deben ser construidas pueden también tener un impacto serio en su disponibilidad.

Así que para estar totalmente tranquilos, los operadores deben asegurarse que la compañía que esté diseñando y construyendo su centro de datos tiene la suficiente experiencia para construir instalaciones que hayan sido certificadas para soportar cualquier evento como ciclones, terremotos, inundaciones, etc.

 

5. Seguridad

Desafortunadamente vivimos en un mundo donde la seguridad es una de nuestras mayores preocupaciones, y para muchas compañías la seguridad de sus datos es un asunto crítico; así que garantizar la seguridad física de sus servidores es vital para cualquier operador.

Esto puede conseguirse a través del uso de jaulas o confinamientos con acceso restringido utilizando sensores biométricos y monitoreo de CCTV. El plan de seguridad del sitio incluirá diversas zonas y caminos de acceso para clientes, recepción de materiales, servicio y mantenimiento a equipos, etc., ya que en ocasiones la amenaza puede no ser dirigida únicamente a un cliente en particular, sino a toda la instalación.

La implantación de múltiples protocolos de seguridad para gestionar amenazas potenciales de seguridad es de suma importancia para cualquier operador de centros de datos.

Existen otros factores que los operadores pueden tomar en consideración al especificar sus requerimientos para actualizar o construir un nuevo centro de datos, pero estos cinco elementos: costo bajo, a prueba de futuro, tiempo corto para operar, alta calidad y seguridad deben ser parte central del plan para un proyecto ideal que pueda cubrir sus necesidades.

Por Srikanth Murugan, Director Global de Ingeniería Comercial para Flexenclosure

Leer más

Facebook construye su tercer data center en Europa

Facebook construye su tercer data center en Europa

Facebook anunció hoy que construirá su tercer centro de datos en Europa en la ciudad de Odense, Dinamarca, para el cual la compañía espera arrancar operaciones en 2020.

El nuevo centro incluye dos grandes naves que estarán situadas en una zona industrial de 55,000 metros cuadrados, según el director de centros de datos de Facebook, Niall McEntegart, quien además dijo que cuenta con un presupuesto de ‘varios cientos de millones de dólares’.

McEntegart aseguró que será una de las instalaciones de ese tipo más eficientes del mundo desde el punto de vista energético, gracias entre otros factores a que el clima nórdico ayudará a mantener fríos los servidores.

El de Odense es el tercer data center creado en Europa de la compañía, después de los de Luleå (Suecia) y de Clonee (Irlanda).

El Gobierno danés destacó en un comunicado que el anuncio de Facebook sigue al del gigante tecnológico Apple, que hace dos años presentó un proyecto similar para Viborg (oeste de Dinamarca), y se mostró confiado en que reforzará su posición como país atractivo para acoger centros de datos globales.

EFE

Leer más

10 tendencias de TI, Data Centers e IoT para 2017

10 tendencias de TI, Data Centers e IoT para 2017

El paso hacia la transformación digital tendrá un impacto evidente durante 2017. En este contexto, las tendencias que Hu Yoshida, CTO de Hitachi Data Systems, prevé para este año se agrupan en tres categorías principales.

La primera es Tendencias de centros de datos, seguida de Tendencias tecnológicas y Tendencias de TI, OT y IoT.

 

Tendencias de centros de datos

1. Las ganancias se verán reflejadas en la productividad, y esto dependerá más de la gente, el proceso y el negocio.

A pesar de la explosión de nuevas tecnologías en los últimos 10 años, la productividad ha disminuido en comparación con los 10 años anteriores, incluso en los países que se consideran los más expertos en tecnología. Esto según la OCDE (Organización para la Cooperación y el Desarrollo Económico).

La productividad del trabajo, o producción por hora, se calcula dividiendo un índice del producto real por un índice de horas trabajadas. Aunque las TI se han vuelto más rentables en términos de gestión de infraestructura, esto no se ha traducido en incrementos en bienes y servicios empresariales. Las TI comenzarán a medirse en resultados empresariales en lugar de cuántos Terabytes pueden ser administrados por FTE = Empleado de Tiempo Completo (Full Time Employee). La esperanza de la transformación digital es revertir esta tendencia en productividad.

2. La transformación ágil de las TI

El mantra para las TI es hacer más con menos y hacer más, mucho más rápido. Las empresas están bajo una tremenda presión para transformarse y eso significa implementar nuevas aplicaciones y plataformas innovadoras para todos los aspectos de su negocio. Más ejecutivos de TI están adoptando metodologías ágiles. Las TI deben repensar sus procesos y los CIO deben convertirse en un CIO “de negocios” en lugar de un gerente de centro de costos.

3. Los modelos de compra están cambiando

El mercado está alejándose de la compra de activos tecnológicos. Las empresas se encuentran repensando el modelo para sus compras de TI tanto en infraestructura como en servicios. Esto se ve influenciado por las ventajas de reducir los costos, aumentar la agilidad y mejorar el tiempo de valor de la nube y los servicios alojados.

4. Acelerar la transición a la nube

Según Ed Anderson, vicepresidente de investigación de Gartner, los responsables de TI desarrollarán habilidades en la supervisión de la nube, el rendimiento de la carga de trabajo en la nube y la gestión de la seguridad. La administración de la capacidad en la nube ya no es una cuestión de “si” sino “cuándo”. Los portales de virtualización, convergencia, almacenamiento de objetos y gestión de nubes facilitarán el movimiento hacia la nube.

 

Tendencias tecnológicas

5. TI bimodal

Las empresas que no nacen en la nube tienen sistemas de registro que deben mantener y modernizar mientras se transforman en nuevos sistemas de innovación. Bimodal IT se refiere a tener dos modos de TI, cada uno diseñado para desarrollar y entregar servicios de información y tecnología intensiva a su manera:

  • Modo 1: Tradicional – enfatiza la seguridad y la precisión.
  • Modo 2: No lineal – enfatiza la agilidad y la velocidad.

Las TI deben ser capaces de gestionar ambos modos e implementar sistemas que tienden un puente entre estos dos modos. Mientras que algunos pueden considerar esto como una tendencia de centro de datos, esto requiere tecnología para integrar ambos mundos.

6. Flash primero

El argumento del precio contra el almacenamiento flash se elimina, ya no se tiene que definir con un usuario si sus datos son Nivel 1 o 2. Como resultado, el analista está proyectando que los ingresos para el almacenamiento flash será mayor que para los discos duros en 2017, así, la transición a Flash se acelera.

7. Un centro de datos centralizado

Los datos están explotando y son cada vez más valiosos a medida que encontramos formas de correlacionar los datos de diferentes fuentes para obtener más información o reutilizamos para usos diferentes. Los datos son nuestras joyas de la corona, y las IT estarán creando un centro de datos centralizado para una mejor administración, protección, gobernabilidad y búsqueda de sus datos. Este concentrado centralizado de datos necesitará ser un almacén de objetos que pueda escalar más allá de las limitaciones de los sistemas de archivos, ingerir datos de diferentes fuentes y proporcionar búsqueda y gobernabilidad a través de nubes públicas, privadas y dispositivos móviles.

8. Análisis en tiempo real, Hadoop, visualización y análisis predictivo

La analítica predictiva es cada vez más frecuente a medida que las empresas tratan de anticipar los eventos que afectan a su negocio. Esta tendencia verá el uso ampliado de bases de datos en memoria y las plataformas de análisis de flujo continuo para proporcionar análisis en tiempo real de tendencias en desarrollo. La analítica en tiempo real se conectará con los analíticos de Hadoop para un análisis más profundo y los resultados se almacenarán en una tienda de objetos con la posibilidad de análisis futuros. Herramientas analíticas como Pentaho combinarán datos estructurados y no estructurados de diferentes fuentes para proporcionar una vista 360 para el análisis.

 

Tendencias IT / OT / IoT

9. TI inteligente: la integración de TI y OT

Los datos de la tecnología operativa (OT) pueden ser datos de sensores o registros que se unen a los datos de TI para proporcionar una comprensión más completa de un evento o proceso. Los minoristas ya están a la vanguardia combinando los datos operativos de los sensores en las tiendas y los medios sociales para optimizar los sistemas de compras y de cadena de suministro. Más empresas estarán buscando herramientas de integración de datos como Pentaho para integrar sus datos de TI y OT.

10. Creación de conciencia sobre el IoT en el Data Center

El Internet de las cosas (IoT) es la conexión en red de dispositivos físicos, vehículos, edificios y otros elementos, integrados con electrónica, software, sensores y conectividad de red que permiten a estos objetos recopilar, intercambiar e incluso procesar datos a la vanguardia. La conexión en red de las cosas afectará a todos los aspectos de nuestras vidas. Esto va más allá de la integración de TI y OT, y salvo algunas aplicaciones como la seguridad pública, no será una importante tendencia de TI en 2017. Sin embargo, las decisiones que tomamos en TI en 2017 debe hacerse con un ojo al IoT. La integración de TI y OT con análisis es el primer paso. Para abordar el IoT se requiere más que la integración vertical de los silos de la industria, sino una plataforma horizontal de componentes reutilizables para que la parte delantera esté integrada con los sistemas empresariales backend.

Por Hu Yoshida, CTO de Hitachi Data Systems

Leer más

Telefónica amplía operaciones en su Data Center en Estados Unidos

Telefónica amplía operaciones en su Data Center en Estados Unidos

Telefónica ampliará sus operaciones en Miami-Dade, Florida, con inversiones de capital por 9 millones de dólares, informó hoy el Miami Beacon Council.

Según la institución, esta inversión servirá para crear nuevos puestos de trabajo para profesionales tecnológicos altamente cualificados en el centro de datos que Telefónica tiene en Miami-Dade, el cual es el único del sur de Florida con una certificación de tercer nivel emitida por el Uptime Institute.

El KeyCenter está pensado para empresas multinacionales que necesitan que su infraestructura tecnológica esté alojada en una dependencia segura y conectada que cumpla con los estrictos estándares del Uptime Institute, una organización independiente.

El centro de datos, interconectado a otras instalaciones de Telefónica, es un punto importante para compañías que hacen negocios entre Estados Unidos, América Latina, Europa y Asia Pacífico, señala un comunicado del Miami Beacon Council.

EFE

Leer más

SAP abre nuevo Data Center en Brasil

SAP abre nuevo Data Center en Brasil

SAP anunció la apertura de un centro de datos ubicado en Sao Paulo, Brasil, que arrancará operaciones en el tercer trimestre de 2016.

El nuevo recinto, en el cual la compañía invirtió 6.5 millones de dólares, dará soporte a la creciente demanda regional de soluciones basadas en la nube.

Este data center se suma a los otros 17 que la compañía tiene en Europa, Oriente Medio y África, Norteamérica, China y Australia.

Leer más

7 tendencias de almacenamiento en Data Centers

7 tendencias de almacenamiento en Data Centers

Conocemos algunas posibilidades de almacenamiento en Data Centers que posibilitan nuevas formas de archivar datos de forma segura y práctica. No obstante, nuevas tecnologías se desarrollan en busca de la reducción de costos.

Algunas de esas tendencias incluyen desde la configuración diferenciada de las redes hasta la utilización de nuevos equipos que puedan soportar y guardar una mayor cantidad de datos.

 

1.- NAND 3D

Hace mucho tiempo que los SSD son opciones de almacenaje en el mercado. Sin embargo, la presión para que sean más accesibles financieramente, y también en el aumento de su capacidad, han hecho que las empresas de tecnología especialistas en este chip desarrollaran una nueva tecnología: NAND 3D.

Este tipo de memoria usa una tecnología capaz de colocar en el chip, capas de células de almacenaje verticalmente, y no de forma horizontal (2D) como tradicionalmente se hace. En este momento, ya es posible encontrar dispositivos con hasta 48 capas, pero ingenieros ya están desarrollando tecnologías para una con 64 capas.

Según el formato estándar de 2.5 pulgadas, los nuevos SSD están en el mercado con una capacidad de hasta 16 Terabytes. El costo de estos dispositivos aún es elevado. En Brasil, por ejemplo, SSD de 1TB son encontrados en el valor de hasta unos 936 dólares.

 

2.- Compresión de datos

Reducir el espacio ocupado por datos en determinado dispositivo, eliminar redundancias y aumentar el desempeño en transmisiones, son los principales beneficios traídos por la tecnología de compresión de datos. Con el desarrollo de nuevas matrices AFA (All-flash Arrays) es posible disminuir 80% el espacio utilizado por un objeto.

 

3.- NVDIMM: Non-Volatile Dual In-line Memory Module

NVDIMM es una memoria RAM DIMM del computador que guarda datos eléctricos inclusive cuando se remueve la fuente de energía o cuando hay una inesperada pérdida de potencia, falla en el sistema o cuando se apaga el CPU, lo que cambia la forma en la que los computadores funcionan desde hace ya algunos años.

La idea es que la memoria principal ahora sea persistente y muy grande. Este es un cambio radical para las operaciones del banco de datos. Las NVDIMM pueden ser usadas para mejorar el desempeño del aumento de una aplicación, la seguridad de datos y el tiempo de recuperación de fallas en el sistema.

 

4.- RoCE

RDMA over Converged Ethernet (RoCE) es un protocolo de red que permite que se acceda directamente a la memoria remota (RDMA) a través de una red de Ethernet. La ganancia está en poder reducir la sobrecarga y la latencia en el sistema.

 

5.- Infraestructura definida por software

SDI (Software-Defined Infrastructure) es un abordaje de Nube que llegó al mercado para transformar los Data Centers en instalaciones consolidadas y con un consumo optimizado de energía, con sistemas ágiles, de bajo consumo y basados en estándares abiertos. Algunos de sus beneficios son reducir las inversiones en hardware y software y automatizar la provisión manual para mejorar la eficiencia de la administración y calidad de los servicios.

 

6.- Nube Híbrida

El costo del almacenamiento en la Nube cayó a lo largo de los años. La Nube Híbrida es un lugar que permite el almacenamiento de hardware y software a un bajo costo y que inclusive es accesible para computadoras domésticas.

 

7.- Almacenamiento WhiteBox

La posibilidad de montar el propio sistema de almacenamiento, buscando en el mercado soluciones específicas para las necesidades de cada empresa, sugiere que exista la participación de COTS (Commercial off-the-shelf), ya que los proveedores tradicionales están desarrollando equipos que se conectan entre sí, aunque de marcas diferentes.

Este nuevo enfoque permite el acceso a las mismas tecnologías de grandes proveedores de Nube con precios más bajos.

Fuente: Comstor

Leer más

Data Centers, el sistema nervioso de las empresas

Data Centers, el sistema nervioso de las empresas

El crecimiento exponencial del tráfico de datos está estresando seriamente a los centros de procesamiento, que además enfrentan la amenaza siempre presente de ataques cibernéticos que atentan contra su continuidad y desempeño.

La misión crítica de los Centros de Datos demanda y exige más y mejores soluciones que no sólo atiendan los requerimientos de seguridad, sino que además les permitan asimilar y crecer a la par de la evolución tecnológica, con una plataforma de última generación y de manera consistente.

Las soluciones de seguridad cibernética son múltiples y se ajustan a las necesidades y posibilidades particulares de las empresas.

Las organizaciones requieren contar con una estrategia y arquitectura completas e integradas que den protección uniforme e inteligente en toda la red distribuida, desde el perímetro hacia el centro de datos y la nube.

Leer más

Empresas almacenan 85% de información obsoleta

Empresas almacenan 85% de información obsoleta

Una de las prioridades de la sociedad es el orden y limpieza de su entorno; sabemos que la toma de decisiones es el primer paso para lograrlo, por lo tanto, es necesario entenderlo, qué es lo que está generando el mal funcionamiento del mismo.

Para la sociedad, el entorno atmosférico ha tomado gran importancia en los últimos años; el aire que se respira y los elementos que lo conforman –sean contaminantes o no– han despertado gran interés y preocupación debido a las contingencias ambientales que se han sufrido en la Ciudad de México.

En cuanto a las empresas, el entorno que tiene una similar importancia es el ‘ambiente informático’, que es el espacio en donde se deposita toda aquella información de la empresa, ya sea en espacios físicos o en la nube.

Atendiendo a la preocupación de las empresas acerca del entorno de almacenamiento, Veritas desarrolló una investigación en la cual concluyó que el 85% de toda la información almacenada y procesada es considerada ‘oscura’ o ROT (redundante, obsoleta y trivial), y que el 41% de toda la información almacenada está desactualizada (es decir, no se tocó durante tres años).

Estos resultados permitirán que las organizaciones recuerden lo importante que es tener un entorno limpio, en otras palabras, libre de datos ROT y organizada de acuerdo a sus características.

En México, el 52% de las compañías desconocen los datos que generan y almacenan, lo cual demuestra que tienen un descontrol sobre la propia información y un deterioro en su entorno.

 

Un efecto negativo en el entorno

Dentro de las organizaciones se ha adoptado una mentalidad de ‘guardar todo’, lo que ha dado como resultado que el número de archivos es tan grande como los agentes contaminantes atmosféricos. Lo que para el aire es el monóxido de carbono, dióxido de nitrógeno, ozono o partículas suspendidas, para las empresas estos agentes negativos son categorizados en aquellos que son redundantes, obsoletos o triviales (ROT) y los datos obscuros que son aquellos que no han sido identificados ni clasificados, según el estudio Databerg.

Al tener esta gran saturación de información de bajo valor, que puede alcanzar los petabytes, el encontrar la información cuando se necesita y proteger de manera eficaz los datos sensibles se ha vuelto una tarea difícil. Por estos motivos, y al enfrentar un entorno normativo increíblemente complejo y que cambia constantemente, la gestión de riesgos es el motivo número uno por el cual las organizaciones están invirtiendo en programas de gestión de la información.

La importancia de una buena gestión de la información obliga a actuar y comenzar a controlar el almacenamiento de nuestros entornos. Es prioridad para las empresas quitar cualquier información innecesaria y poner orden en su organización. La finalidad es, como se citó anteriormente, que la información sea encontrada en el momento y lugar donde se espera y poder tener así un mayor control y seguridad a través de una gestión correcta, la cual debe ser planificada y estructurada por grupos de expertos.

Como podemos ver, estos dos entornos tienen muchas similitudes y un funcionamiento parecido. Está en nuestras manos controlar esos agentes negativos y hacer una limpieza profunda y funcional, ya que esto permitirá a nuestras organizaciones y ciudades funcionar con limpieza, rapidez y seguridad.

No debemos olvidar que estos procesos no son inmediatos y deben estar en funcionamiento continuo para que no vuelvan a contar con estos elementos que afecten el rendimiento de la organización o sociedad, según sea el caso.

Por Erik Linner, Director General, Veritas México y Latinoamérica

 

Leer más

5 pasos para implementar un Data Center seguro

5 pasos para implementar un Data Center seguro

En  2016 el tráfico de datos a nivel mundial alcanzará los 10.4 Zettabytes, por lo que el gran desafío que enfrentan las organizaciones es la modernización de su infraestructura para analizar la información, procesarla, entenderla y de esta manera crear negocios de nueva generación.

En este entorno, los Centros de Datos son una pieza clave para el funcionamiento óptimo de las empresas; sin embargo, hoy en día los desafíos que se presentan demandan nuevas y mejores soluciones que, además de adaptarse a la evolución tecnológica, ofrezcan las herramientas y beneficios primordiales que cada negocio necesita de ellos.

Cisco pronostica que para el próximo año el 76% del tráfico de información permanecerá dentro del centro de datos y se generará en gran medida por almacenamiento, producción y desarrollo en un entorno virtualizado y de última generación, como: SDN y ACI.

Actualmente, el tráfico del centro de datos ya muestra un crecimiento exponencial, impulsado principalmente por una mayor utilización de la nube y del entorno de Internet de las cosas (IoT).

Los centros modernos ya ofrecen alojamiento de aplicaciones, servicios y soluciones para el negocio. Sin embargo, las empresas dependen de servicios que se implementan en centros de datos dispersos geográficamente, para respaldar sus crecientes necesidades de tráfico y computación en la nube, lo que hace que la seguridad de la información cobre relevancia en la estructura de la empresa.

Las organizaciones han empezado a asumir una propuesta en la que la seguridad esté por encima de todo. Esto les lleva a desplegar contenedores de datos fuera de la red para información altamente confidencial, en algunos casos con equipamiento de refrigeración, suministro eléctrico separado y exclusivo.

La industria tiene un crecimiento de 30% año con año, sin embargo, en México las organizaciones todavía enfrentan un sin número de problemas para asegurar la continuidad de sus data centers, mejorar su eficiencia energética y capacitar a sus responsables, a pesar de que existen diversas opciones de certificación.

El arribo del Internet de las Cosas no sólo repercutirá sobre las arquitecturas de los futuros data centers, al aumentar el volumen de datos que deban procesarse; también cambiará la gestión.

Actualmente, los centros de datos incluyen miles de dispositivos que hablan multitud de lenguajes, como el IPMI, SNMP y Mod Bus. Esto crea ‘lagunas’ entre sistemas, pero con el estándar abierto de la industria Redfish se creará interconectividad, a través de sistemas de centros de datos, permitiendo nuevos niveles de visibilidad, control y automatización.

Respecto al mundo de la nube, sin duda éste se ha vuelto más complejo. La evolución desde modelos de Software como Servicio (SaaS) a ambientes verdaderamente híbridos –en los que los servicios en la nube se utilizan para aportar mayor agilidad a instalaciones antiguas– sigue avanzando a medida que más organizaciones se pasan a una arquitectura bimodal (nube privada/pública).

En la actualidad, existen soluciones funcionales que se adaptan a cada negocio, crecen con él y cuya inversión es una opción para quienes no cuentan con el tiempo o el espacio necesario para poner en operación un Data Center convencional: los Centros de Datos Prefabricados o modulares (DCoD) o bajo demanda (Data Center on Demand).

Los centros Modulares representan una solución que  brindan  grandes beneficios, ya que reducen tiempo para construir e instalar el centro de datos; su construcción implica menos gasto de operación, mantenimiento y se brinda la posibilidad de crecerlos según las necesidades específicas de cada cliente. Además de que incorporan un sistema de enfriamiento con tecnología propietaria, que evita un ‘gasto’ innecesario de energía para hacerlo funcionar.

 

Cinco pasos para que el centro de datos sea seguro

La seguridad integral del centro de datos requiere un enfoque de defensa en profundidad que pueda ofrecerse en cinco áreas principales:

 

1.-Brindar visibilidad y control sobre aplicaciones personalizadas del centro de datos, no solo sobre aplicaciones web como Facebook y Twitter y micro aplicaciones relacionadas que los dispositivos de seguridad del perímetro de Internet inspeccionan. La mayoría de los firewalls de última generación están diseñados para inspeccionar el tipo de tráfico que atraviesa el perímetro de Internet y no brindan seguridad a estas aplicaciones personalizadas del centro de datos.

 

2.-Manejar flujos de tráfico asimétricos y transacciones de aplicaciones entre dispositivos y centros de datos. La seguridad debe estar integrada en la estructura del centro de datos y no quedarse en el perímetro. Las soluciones perimetrales no pueden inspeccionar ni el tráfico de entrada y salida, ni los flujos de tráfico entre aplicaciones. Este último representa la mayor parte del tráfico del centro de datos de la actualidad. Si el tráfico de aplicaciones se debe enviar del perímetro del centro de datos al firewall de última generación para su inspección y, luego, se le debe redirigir a la capa de cómputo (en un bucle cerrado), la solución perjudica el flujo de tráfico dinámico que los centros de datos modernos requieren.

Las soluciones de seguridad de los centros de datos también deben poder manejar transacciones de aplicaciones entre centros de datos o dispositivos, incluidos los dispositivos virtuales. Los dispositivos virtuales son tan vulnerables como los físicos.

 

3.-Adaptarse a medida que los centros de datos evolucionan. A medida que los entornos del centro de datos migran de los modelos SDN, ACI y NFV físicos a virtuales y de última generación, las soluciones de seguridad deben poder escalar dinámicamente y brindar protección consistente que pueda funcionar sin problemas en entornos de centros de datos híbridos y en evolución. En estos nuevos modelos del centro de datos donde los dispositivos virtuales y físicos están siendo aprovisionados en forma veloz, las reglas de seguridad pueden salirse de control rápidamente.

Se necesita aplicación automática cuando se aprovisionan nuevos dispositivos para que se pueda reducir el tiempo de implementación de días a minutos sin tener que preocuparse por las consecuencias en términos de seguridad. Asimismo, la capacidad para implementar una única solución de seguridad en centros de datos híbridos, muchos de ellos con diversos hipervisores (monitores de máquinas de virtualización), permite que los equipos de TI se concentren en la funcionalidad del centro de datos sin tener que preocuparse por los gastos generales de la seguridad administrativa.

 

4.-Abordar toda la secuencia del ataque: antes, durante y después de este. Los enfoques tradicionales de seguridad tienen limitaciones en cuanto a la visibilidad y el reconocimiento de amenazas en un entorno de centro de datos, además de enfocarse principalmente en bloquear el perímetro. Se necesita un enfoque integral centrado en amenazas para lograr que el centro de datos sea seguro, que incluya protección antes, durante y después de un ataque a efectos de proteger el centro de datos moderno y su tráfico especializado.

Los firewalls tradicionales de última generación prácticamente no ofrecen soluciones para identificar y mitigar ataques sigilosos diseñados para eludir las defensas, no pueden brindar solución de problemas ni análisis una vez que se detiene un ataque, y tampoco pueden rastrear ni asegurar el tipo de tráfico asimétrico que el centro de datos genera. Son casi exclusivamente herramientas de defensa, aunque tampoco son eficaces ante amenazas emergentes y desconocidas que se dirigen a servidores vulnerables, aplicaciones únicas y datos valiosos.

 

5.-Proteger la totalidad de la red. Cualquier solución de seguridad del centro de datos debe reconocer que el usuario remoto necesita conectarse directamente a recursos críticos del centro de datos. Debe ofrecer transparencia entre el usuario remoto y el recurso del centro de datos, pero también es parte de un entorno de red complejo que se extiende a través de sucursales, a través del núcleo, al centro de datos y fuera de la nube. La solución de seguridad debe formar parte de la arquitectura del centro de datos, además de ser parte de una solución más amplia que pueda ver amenazas basadas en Internet y ataques dirigidos al centro de datos, y a la vez debe ofrecer protección integral a lo largo del recorrido completo de los datos.

La seguridad del centro de datos es diferente. Para proteger verdaderamente el centro de datos moderno y los modelos nuevos del centro de datos que surgen en la actualidad, las organizaciones no pueden depender de un único firewall de última generación. Necesitan una estrategia y una arquitectura completas e integradas que brinden protección uniforme e inteligente en toda la red distribuida, desde el perímetro hacia el centro de datos y la nube, sin perjudicar el rendimiento.

Leer más

Digital Power lanza UPS trifásico, modular y escalable

Digital Power lanza UPS trifásico, modular y escalable

UPOXR33Chicago Digital Power (CDP) lanza al mercado mexicano su nueva y robusta solución en UPS´s trifásicos modulares, el UPO-XR33 suministra energía AC a los equipos que requieren que sean críticos y sensibles a los cambios en la red eléctrica, tales como: equipos de cómputo, de comunicaciones, servidores, redes de datos, sistemas de automatización, etc.

El UPO-XR 33 cuenta con tecnología True Online de doble conversión, con lo cual se provee al sistema de energía libre de los principales problemas de la red eléctrica común, tales como cambios bruscos de voltaje y frecuencia, apagones, sobretensiones, caídas de tensión, ruidos transitorios, distorsiones armónicas, etc. CDP conoce la importancia de la labor de los dispositivos de misión crítica, por lo que ofrece al mercado diferentes UPS’s, como el UPS online UPO-XR 33 que cuenta con una capacidad de 20 a 600kVA.

Características Principales:

  • Redundancia
  • Autodiagnóstico inteligente
  • Cero tiempo de transferencia.

Ventajas Competitivas:

  • Bajo costo de operación hasta 99% de eficiencia en modo ECO y hasta 95 de eficiencia en modo normal AC-AC.
  • Aprovechamiento óptimo de espacio, capacidad de poner mayor número de kVA en espacio reducido.
  • Posibilidad de incrementar potencia y/o confiabilidad mediante la incorporación de módulos o de UPS paralelos.
  • Monitoreo inalámbrico vía GPRS, Wi-Fi, SNMP, BLUETOOTH.
  • Contactos Secos incluidos.
  • Puertos de comunicación USB,RS-232,RS-485
  • Registro fotográfico.
  • Contraseñas de protección para la manipulación de apagado.
  • Factor de potencia a la entrada >0.99

Módulos

Tecnología Hot Swap, esta función nos permite incorporar o retirar módulos de manera segura e inmediata sin necesidad de cortar la energía del equipo.  Los módulos del UPS extraíbles hacen que el equipo sea más eficiente y menos susceptible de fallas; ya que con la tecnología Hot Swap permite reemplazar los módulos con el UPS funcionando.

Cuenta con la capacidad de expansión, según las necesidades de cada usuario desde 20Kva hasta 600Kva. Los módulos son compatibles con voltajes de 208/380/400/415Vca

El display táctil de 7″ con sistema operativo de Android viene directamente instalado en el panel frontal del UPS. Esto le proporciona la facilidad de interactuar en el lugar donde la UPS esté instalada, lo cual asegura la veracidad de los datos recogidos.  Esta interfaz permite acceder a todos los datos enviados desde el UPS.

Sistema Inteligente de Monitoreo Energético.

El sistema de monitoreo recopila más de 230,000 datos por segundo; los cuales son procesados matemáticamente para calcular valores de tipo TRUE RMS y para calcular valores promedio para medir: Picos instantáneos máximos o mínimos, intervalos de tiempo, frecuencias, analizar derivadas o integrales, entre otros.

En caso de que se necesite algún tipo de soporte y ventas, el equipo de CDP siempre está a disposición de todos sus clientes para apoyarles. Para el interior cuenta con un número gratuito 01 800 514 86 11 y para la Ciudad de México y Área Metropolitana llamar al: 5359 5057 o bien a los correos: serviciomex@cdpups.com y ventas@cdpups.com

Leer más
Página 1 de 1212345...10...»»