¿Cómo administrar un Data Center definido por Software?

¿Cómo administrar un Data Center definido por Software?

Un Data Center definido por Software (SDDC) virtualiza toda la infraestructura de un sistema, es decir, ofrece como servicio la computación, la red y el almacenamiento.

El objetivo es hacer a la base de TI más ágil y flexible, ya que se convierte en programable de la misma forma como sucedería con diferentes sistemas individuales.

La infraestructura entonces es controlada por software y las cargas de trabajo son redistribuidas entre los sistemas, las cuales son atendidas por los recursos más apropiados de forma automática.

La flexibilidad del SDDC permite que el usuario construya sus propios centros de datos virtuales utilizando los recursos más adecuados para el negocio entre innumerables herramientas ofertadas por diferentes abastecedores y que el equipo esté más acostumbrado con su utilización.

Para el control de toda esa red, los especialistas indican que la gestión debe ser hecha de la misma forma de otras herramientas en ambientes virtuales tradicionales.

Siendo así, el primer paso es establecer un patrón para mantener la integridad del desempeño y evitar los riesgos del nuevo ambiente. Conociendo y dominando este espacio es posible administrar los cambios que suceden en lo local, además de poder trabajar la conexión de las aplicaciones y otros servicios.

Otro punto, es personalizar alertas para que el sistema pueda automáticamente avisar al administrador del Data Center sobre información importante que necesite de intervención. Todas las aplicaciones y sistemas deben estar funcionando en buenas condiciones y con respuestas rápidas a los usuarios. Las Inactividades en componentes de SDDC deben ser normalizadas con agilidad.

La gestión debe contemplar también cuestiones de seguridad. Es necesario aplicar todo el conocimiento adquirido en el trabajo de Data Centers tradicionales y complementar con las funciones de un ambiente virtual.

Si la red es inmune a los ataques, no se debe a que los recursos estén trabajando como sistemas individuales; por el contrario, cada capa debe ser protegida con especificaciones propias.

Apostar en herramientas de automatización es una ventaja para la gestión de los centros de datos virtualizados, especialmente para que puedan ser aprovechados todos los beneficios de escalabilidad que el nuevo formato propone. Lo ideal es automatizar parte del Data Center y monitorear sus actuaciones.

Después, poco a poco, avanzar en otros recursos para probar la eficiencia de la herramienta y crear confianza para que las acciones sean hechas con menor intervención humana.

De esta forma, el Data Center definido por Software ofrece nuevas posibilidades para los administradores en TI pero los desafía a probar nuevas formas de coordinar los datos de una empresa una vez que la información estará almacenada en ambientes virtuales. Es posible crear un centro de datos personalizado, pero debe ser llevada en consideración la agilidad y funcionamiento de los sistemas, cuyos elementos necesiten conversar e interactuar.

Como siempre, las cuestiones de seguridad continúan siendo primordiales.

Fuente: Comstor

Leer más

Las 6 rutas de Oracle hacia la nube

Las 6 rutas de Oracle hacia la nube

SAN FRANCISCO.- Ninguna industria es inmune al cambio que la innovación tecnológica impone, y las nuevas tecnologías, como la inteligencia artificial o machine learning, están creando nuevas oportunidades.

Desde coches autónomos que alcanzarán velocidades de 0 a 1,000 millas por hora en 55 segundos, hasta sensores que cuidarán nuestra salud y plataformas que simplificarán las transacciones de dinero.

‘La competencia está a la vuelta de la esquina’ y no solo en el mundo físico sino también en línea, asevera Dave Donatelli, Vicepresidente Ejecutivo del negocio de Cloud en Oracle, en el marco del evento OpenWorld 2017 que la compañía realiza esta semana en la ciudad de San Francisco.

 

Entonces, ¿cómo transformar a la empresa?

En este sentido, Donatelli expone tres factores esenciales que las organizaciones deben tomar en cuenta en su camino hacia la transformación digital.

En primer lugar, las empresas deben reconsiderar el uso de data centers legados, en vista de que las tendencias indican que cada vez más las organizaciones están migrando sus datos a la nube a través de proveedores que ofrecen soluciones más robustas y seguras.

Segundo, tratar de reproducir en la nube la complejidad de las herramientas on premise tampoco será de gran ayuda, agrega Donatelli.

Finalmente, la solución que Oracle propone es la nube, que habilita los cuatro pilares esenciales: IaaS, SaaS, PaaS y DaaS.

 

6 diferentes alternativas para llegar a la nube

Ante un entorno empresarial con múltiples variables y condicionantes, Oracle propone seis diferentes caminos para que las organizaciones puedan migrar hacia la nube:

1. Data Center – Optimización on premise – Oracle Public Cloud

2. Data Center – Cloud at Customer – Oracle Public Cloud

3. Data Center – Mover y mejorar las cargas de trabajo

4. Data Center – Crear uno nuevo con PaaS y IaaS

5. On premises – Transformación con SaaS

6. Compañía nueva – Nacer desde la nube

oracle-seis-caminos-nube

 

Estimaciones

La visión actual de Oracle para la Infraestructura señala 1,000 millones de computadoras conectadas a internet, terabytes de datos y 3.2 kilobits al segundo por persona. La transición indica 3.3 mil millones de dispositivos móviles conectados a internet, Petabytes de datos y 3.2GB al segundo por persona. Para 2020 se espera alcanzar los 10 mil millones de dispositivos, Zettabyes de datos y 3.2 TB al segundo por persona.

En cuanto a la visión de Oracle sobre Plataformas, en los años 2000 las configuraciones de las computadoras han sido de forma manual, así como monitoreo, administración y escalamiento manuales. Para 2020 se espera que el software sea el encargado de configurar y escalar las plataformas; que las administre de forma automática, aprenda y haga ajustes y pueda predecir y evitar problemas de manera autónoma.

Finalmente, para las Aplicaciones de Negocio, entre 2000 y 2020 se estima una transición de usuarios profesionales a usuarios de autoservicio; una cambio del uso de formularios y flujos de trabajo a móviles, voz, cámaras y mensajería; de esquemas basados en reglas a inteligencia artificial y sensores; de un sistema centralizado a redes empresariales descentralizadas.

Leer más

La seguridad, el máximo punto de presión para las empresas

La seguridad, el máximo punto de presión para las empresas

SAN FRANCISCO.- Los datos macroeconómicos en Tecnologías de la Información muestran que la industria de Customer IT está creciendo un 20%, más rápidamente que el Business to Business (B2B), el cual se mantiene en 1.0% desde hace 5 años, de acuerdo con Mark Hurd, CEO de Oracle.

En cuanto al desempeño de las compañías, estas muestran muy poco crecimiento en sus ingresos. Según Hurd, algunas de ellas están limitando sus ganancias al recortar gastos y otras están saliendo del negocio por completo. Incluso se ha acelerado la desaparición de diversas empresas de la lista Fortune 500 que alguna vez fueron líderes en sus segmentos.

Ante este panorama, los fundamentos empresariales, de acuerdo con Hurd, deben ser: aumentar los ingresos, reducir los gastos, mejorar el flujo de caja y administrar el riesgo.

Al mismo tiempo, es imprescindible traer la innovación a la organización a través de nuevos modelos de negocio, productos, servicios y experiencias del cliente.

 

Predicciones acertadas

mark-hurd-oracle-open-world-2017Durante la conferencia magistral de Mark Hurd en el Oracle OpenWorld 2017 que se celebra en San Francisco, el directivo mostró los resultados de algunas predicciones hechas previamente y la evolución de estas.

Por ejemplo, se calcula que para 2025 en número de data centers corporativos se reduzca en un 80%. El 2016 el número de unidades era de 2,575 y para este año se reportan 3,873, lo que representa una baja del 15.3%.

También, para 2025 se predice que el 100% del desarrollo y pruebas de aplicaciones se lleven a cabo en la nube. En 2016, este porcentaje era del 45% y para el presente año se ha alcanzado el 52%, es decir, una incremento  del 20% en la tasa de crecimiento anual compuesta (CAGR).

Según cifras de Cisco, para 2025 todos los datos corporativos estarán almacenados en la nube. En este sentido, el crecimiento entre 2015 (65%) se espera que alcance el 88% para 2020.

Adicionalmente, las predicciones anteriores indican que en 2025, el 80% de las aplicaciones de producción estarán en la nube. Al día de hoy el porcentaje es de 14%, en dos años se espera que llegue a 23% y al 87% en 2025.

 

Crece la presión

La innovación tecnológica y la adopción de los consumidores aumentan a un ritmo más rápido de lo que las empresas pueden mantener, en parte debido a que muchas de ellas aún operan con sistemas y aplicaciones con más de 20 años de antigüedad.

Adicionalmente, el entorno cada vez más amenazante en términos de ciberseguridad provoca que las organizaciones reduzcan sus presupuestos de innovación debido al aumento en gastos relacionados con la seguridad.

‘El más reciente punto de presión es la seguridad’, dice Hurd, y ‘el próximo evento que afecte la ciberseguridad sería más grande de lo que imaginamos’.

Hurd insiste en que la respuesta está en la nube, debido a que esta aporta un menor TCO (Costo Total de Operación), es innovadora, más segura, y aporta tecnologías emergentes diseñadas en aplicaciones.

Por ello, según el directivo, la pregunta no es si se debe migrar a la nube, sino cuándo.

Lee también: Datos, el catalizador de la transformación digital

 

Un claro enfoque en la nube e inteligencia artificial

La estrategia de Oracle es desarrollar las aplicaciones, la plataforma y la infraestructura necesarias para apoyar a las compañías, ya sea para moverse a la nube o bien para arrancar su negocio en la nube.

La recientemente presentada solución Oracle 18c Autonomous Database ofrece a las organizaciones la posibilidad de administrar sus bases de datos de manera 100% automatizada y sin la necesidad de intervención humana, por la mitad de precio de su rival Amazon.

En términos de inteligencia artificial, Hurd asegura que Oracle la está integrando directamente a sus aplicaciones de ventas o de interacción con los clientes. ‘¿Por qué dejar la atención de un cliente en manos de un humano cuando una máquina puede ser capaz de resolverlo?’

‘Estamos apenas en los inicios de una era de verdadera automatización’, asegura Hurd, algo que sin duda optimizará y transformará la forma en que las personas llevarán a cabo sus actividades diarias en un futuro cercano que aún no somos capaces de concebir.

Leer más

Apple construirá nuevo data center de 1,300 millones de dólares

Apple construirá nuevo data center de 1,300 millones de dólares

Apple anunció hoy que invertirá unos 1,300 millones de dólares para construir un nuevo centro de datos de última generación en Iowa, EU.

‘Al igual que todos los centros de datos de Apple, la nueva instalación funcionará totalmente con energía renovable desde el primer día’, dijo la compañía en un comunicado.

El nuevo centro tendrá una extensión de unos 37,200 metros cuadrados y generará unos 550 puestos de trabajos durante su construcción.

‘Nuestro nuevo centro de datos en Iowa ayudará a millones de personas en Norteamérica que usan Siri, iMessage, Apple Music y otros servicios de Apple, y todo impulsado por energía renovable’, señaló su CEO Tim Cook.

Apple emplea actualmente a 2 millones de personas en Estados Unidos, y la compañía estima que la inversión de este centro de datos cree otros 10,000 más.

La firma californiana se ha comprometido a impulsar todas sus operaciones globales con un 100% de energía renovable, y ya ha alcanzado ese objetivo en Estados Unidos y otros 23 países.

Se prevé que la construcción de nuevo data center comience a principios del próximo año y que comience a operar en 2020.

EFE

Leer más

Cómo maximizar el desempeño del data center con PUE

Cómo maximizar el desempeño del data center con PUE

El PUE ha sido una métrica importante en el mundo de los centros de datos desde hace tiempo. Las compañías que operan centros de datos normalmente tratan de conseguir el PUE más bajo con el fin de reducir sus costos operativos y promover acciones sustentables hacia el medio ambiente.

En este artículo me enfocaré en los aspectos económicos del PUE y cómo los proveedores y operadores de centros de datos pueden maximizar el desempeño de sus instalaciones.

Eligiendo la ubicación ideal

Con el fin de alcanzar valores PUE extremadamente bajos, varias compañías grandes de internet eligieron construir centros de datos en los países nórdicos debido a redes estables y precios bajos de energía eléctrica, y acceso a free cooling todo el año. Google en Finlandia y Facebook en el Node Pole en Suecia son dos ejemplos. Sin embargo, rangos de temperatura y humedad más amplios (definidos por ASHRAE) para centros de datos, han hecho posible que se implementen instalaciones con PUE bajo en otras ubicaciones geográficas.

Desarrollos en enfriamiento

Un área clave en desarrollo técnico son los sistemas de enfriamiento free cooling indirecto evaporativo, disponibles por parte de un gran número de proveedores de tecnologías de refrigeración. Al usar un enfriador evaporativo el aire seco exterior de 32°C puede ser utilizado para enfriar el aire en el centro de datos hasta 22°C, permitiendo ahorros importantes al requerir menos electricidad.

Aún más emocionante desde una perspectiva económica es que, para algunas ubicaciones, esto permite usar el aire exterior para enfriar durante todo el año; permitiendo un PUE máximo más bajo y ofreciendo ahorros significativos en CAPEX. Primero, debido a que el air free cooling puede usarse los 12 meses del año y los sistemas mecánicos de enfriamiento DX requeridos para los días cálidos pueden reducirse. En algunos casos es posible reducir el tamaño de un sistema de respaldo DX de un total del 100% en enfriamiento a sólo contar con un 25% adicional del total de enfriamiento requerido.  Además, un PUE máximo más bajo implica que la potencia máxima consumida por el centro de datos es menor, permitiendo disminuir el sistema de potencia eléctrica y reduciendo aún más el CAPEX.

Mercados emergentes

Otro aspecto relacionado con el PUE es el costo de la electricidad. Los precios varían significativamente entre países y pueden lograr o destruir el caso de negocio para invertir en un centro de datos con bajo PUE.  Por otra parte, en muchos mercados emergentes la disponibilidad de la red eléctrica y su estabilidad es limitada, lo que provoca que se tengan que utilizar generadores a diésel por largos períodos. Estos pueden variar entre unas pocas horas al día, hasta centros de datos que se energizan 24/7 con generadores.  Además de los costos del combustible, los generadores provocan gastos en servicios y refacciones.  La tabla que se encuentra a continuación muestra como varían los costos de electricidad anualmente dependiendo del costo de la electricidad ($/kWh) y el valor PUE del centro de datos para uno con carga IT de 1 MW.

tabla PUE.jpg

Podemos ver que la reducción en PUE de 1.5 a 1.2 en un ambiente con una red estable (0.1 $/kWh) ofrece ahorros en OPEX en más de $260K.  Para un centro de datos operado con diésel (0.3 $/kWh), el mismo nivel de ahorro en OPEX se obtiene a partir de una menor reducción en PUE (de 1.5 a 1.4 por ejemplo), mostrando que los aspectos económicos del PUE son aún más relevantes en países emergentes.

Es aquí donde tiene más sentido considerar diferentes formas para lograr un PUE más bajo, incluyendo contención de pasillos calientes/fríos, temperaturas de centros de datos más elevadas y equipo de potencia modular de mayor eficiencia.  En áreas donde el costo de electricidad es elevado, los sistemas de air free cooling deben considerarse aún si sólo son efectivos en ciertas partes del año o durante las noches cuando las temperaturas exteriores son más bajas.

Entre PUE y redundancia

Una mayor redundancia en el centro de datos (lo que conlleva una clasificación Tier más alta) puede impactar en un PUE más alto debido a que las pérdidas de energía en cada pieza de equipo se incrementan por una utilización más baja. Con una distribución de potencia completamente redundante, la utilización máxima del equipo considerando una capacidad total es de tan sólo 50%. Considerando esto, la tecnología de potencia modular puede ofrecer una mayor eficiencia aún con una utilización baja con sistemas modernos de UPS que permitan mantener una alta eficiencia con utilizaciones tan bajas de hasta 25%. Al comenzar con menos módulos de UPS conectados, el sistema puede mantener una alta eficiencia desde el primer día y de esta forma la tecnología modular de potencia puede contribuir a mejorar los números al reduciendo el CAPEX desde el primer día, así como costos operativos.

El haber construido un gran número de centros de datos en Latinoamérica, Europa, África y Asia, nos ha permitido aprender que los casos de negocio para inversión con base en el PUE y las mejores soluciones técnicas deben ser adaptados a cada ubicación geográfica y tipo de centro de datos. Un edificio de centros de datos prefabricado con flujos de aire controlados, como el eCentre, siempre es un buen punto de partida.

Por Tomas Rahkonen, CTO y vicepresidente de eCentre para Flexenclosure

Leer más

Comstor aumenta 10% sus ventas en Data Center

Comstor aumenta 10% sus ventas en Data Center

Ciudad de México a 3 de julio de 2017.— Comstor unidad de negocio de Westcon-Comstor y uno de los principales mayoristas de tecnología Cisco, informa que debido a su estrategia de trabajo con el canal mexicano, sus ventas en Data Center tendrán un crecimiento de 10% contra el año anterior fiscal de Cisco.

Sergio Bringas, Product Manager de Data Center y Meraki en Comstor, señala que esta estimación de aumento en las ventas se debe principalmente a que Comstor puede cubrir cualquier requerimiento de los clientes, tanto para adoptar tecnología como para implementación nueva, sin importar qué tipo de empresa sea, corporativos, PyME o públicas.

La arquitectura de Data Center ayuda a integrar en una sola plataforma, cómputo, red, almacenamiento o administración como elementos unificados para acelerar negocios ofreciendo integridad, disponibilidad y confidencialidad de los datos que se generan día con día.

Comstor ofrece al mercado soluciones armadas en:

  • Unified Computing System
  • Data Center Security
  • Data Center Switching
  • Data Center Management and Automation
  • Storage Networking
  • Virtual Networking

Bringas explica: “Comstor no sólo comercializa cómputo y red sino también soluciones armadas enfocadas a varios temas, por ejemplo, seguridad. Cada dato que ingresa el cliente viaja de una manera segura porque convergen las diferentes capas del Data Center. Otra arista fundamental para el cliente es el de almacenamiento de gran densidad, mismo que proporcionamos con NetApp bajo un ambiente de protección de datos.”

El portafolio del mayorista es muy rico. La solución de Data Center de Comstor contempla aplicaciones principales como:

  • Commercial / Public Sector / Enterprise / Service Providers
  • Aplicaciones: Microsoft (Exchange, SharePoint, SQL Server,
  • System Center / Oracle (Oracle RAC en FlexPod) /SAP (HANA)
  • BigData (Cloudera, Hadoop, Splunk)

Bringas como encargado de desarrollar la estrategia de negocios de la arquitectura de DataCenter de Cisco en Comstor, desarrolla y ejecuta planes de negocio dirigido a sus canales de venta para lograr un mejor posicionamiento de la arquitectura dentro del mercado en México. Como SmartPlay Select –agrega el vocero–, que consiste en la configuración de bundles preconfigurados de cómputo, redes, LAN, WAN, backup, restauración de información para ambientes virtualizados, etc. “El propósito es que el cliente se sienta respaldado por todo el portafolio Cisco-Comstor ante cualquier necesidad. Esto es nuestro diferencial, que día a día desarrollamos para los usuarios y logramos la confianza para que se acerquen a nosotros”, concluyó Bringas.

Las soluciones que incorpora productos de Data Center es tanto para entornos tradicionales como de Cloud, e incluye la consolidación de servidor, red y almacenamiento, la virtualización del escritorio y soluciones de Unified Communications virtualizadas para avanzar en la gestión de información en una escala global.

Leer más

La transformación digital, en el ‘core’ de Intel

La transformación digital, en el ‘core’ de Intel

La transformación digital es un desafío y un cambio fundamental en cómo diseñar, producir y mercadear nuestros productos y servicios; sin embargo, muchas empresas no tienen claro este concepto, según Mario Villalta, director del programa de TI en Intel.

En este sentido, los CIO son los que muestran más nerviosismo al no saber cómo enfrentar los principales desafíos.

La transformación digital se puede lograr a través de la innovación en TI. El reto es cómo implementarla en los tiempos y presupuestos de TI.

Según Villalta, el 50% de las empresas líderes de Fortune dejarán de existir debido a la obsolescencia, a pesar de que un 70% de CIOs de dichas empresas ya piensan en transformación digital.

Estos datos fueron revelados en el marco de la presentación del Informe Anual de TI de Intel, el cual tiene como misión compartir las mejores prácticas, lecciones y experiencias en la implementación de TI.

Intel ha generado 110 millones de dólares en valor de negocio gracias a la innovación en TI, de acuerdo con Villalta. Dicha transformación les ha permitido optimizar su cadena de suministro y hacer más eficaces sus esfuerzos de marketing y ventas.

La compañía tiene casi 221,000 dispositivos administrados en su infraestructura, de los cuales 151,900 son PC móviles, 53,780 smartphones, 14,900 desktops y 500 tablets. En 2014 contaban con 84,000 servidores, una cifra que se elevó a 144,000 en 2015 y para 2016 llegó a los 185,000.

 

¿Cómo hacer más con menos?

Según Villalta, las organizaciones que logren encontrar la respuesta a esta interrogante lograrán mantenerse vigentes.

El ROI (Retorno de Inversión) lo han encontrado en:

  1. Advanced Analytics: Big Data, Inteligencia Artificial, Machine Learning, Analítica predictiva y Analítica prescriptiva.
  2. Data Centers: la innovación en diseño, enfriamiento, electrificación, diseño de racks y blades, ha sido fundamental. De contar con 152 centros de datos en 2003, se han reducido a 56 únicamente en 2017.
  3. Cloud: El futuro está en la nube híbrida.

 

Según el informe, en 2014 cada empleado le costaba a la empresa 13,560 dólares al año, mientras que en 2016 la cifra se ha reducido a 12,200 dólares, gracias a la optimización de TI. De 106 mil empleados que tiene Intel actualmente, 5,775 pertenecen al área de TI.

En opinión de Villalta, los data centers pueden bajar hasta un 44% en costos de refresh, y se puede llegar hasta un 65% con servidores desagregados; es decir, se pueden lograr ahorros en gastos operativos de hasta un millón de dólares al año.

La compañía también ha conseguido una mejora de 39 semanas en comercializar sus productos a través de una plataforma de aprendizaje automático que descubre posibles errores durante la fase de diseño de un producto antes de que entre en la fase de manufactura.

El informe completo puede descargarse en este enlace.

Leer más

Apple invierte 1,000 mdd para crecer su Data Center en Nevada

Apple invierte 1,000 mdd para crecer su Data Center en Nevada

La ciudad del Reno, Nevada, aprobó los planes en un lote disponible en el centro de la ciudad para la expansión del Data Center de Apple.

‘Estamos muy contentos de aumentar nuestra contribución a la economía local con una inversión adicional de 1,000 millones de dólares para expandir nuestro Centro de Datos y las instalaciones de apoyo. Como parte de nuestro crecimiento, planeamos contratar a 100 empleados y esperamos que la construcción apoye otros 300 puestos de trabajo’, comentó el portavoz de Apple, John Rosenstock en un correo a The Associated Press.

Apple cuenta ya con más de 700 trabajadores en Nevada, que es el espacio con la mayor inversión en energía solar, agregó Rosenstock.

Con información de Bloomberg

Leer más

3 tendencias clave para la infraestructura del Centro de Datos

3 tendencias clave para la infraestructura del Centro de Datos

Las necesidades de los centros de datos siempre están cambiando, sin embargo, hoy en día satisfacer todas esas exigencias se ha vuelto indispensable, toda vez que actualmente los centros de datos para las empresas son fundamentales.

Pero gracias a las nuevas redes de información, los grandes avances tecnológicos, el desarrollo de nuevos dispositivos que exigen mayores velocidades de transmisión y conectividad prácticamente en cualquier sitio, esta época se ha volcado hacia el mundo digital, lo que ha ocasionado aún más cambios para los data centers, que no todos están preparados para enfrentar.

Hoy resulta fundamental para los operadores y las empresas tener muy claro qué aspectos deben considerar al elegir la infraestructura de red de su data center. Además deben analizar que ésta deberá estar asociada a la capacidad del propio centro de datos para brindar soporte tanto en la actualidad, como en un futuro, donde todo apunta hacia lo digital y presenta nuevos retos que afrontar.

Estas transformaciones en los centros de datos, tienen origen en tres tendencias crecientes:

1. La explosión del ancho de banda. Las tendencias en los centros de datos muestran que los requisitos del ancho de banda crecen del 25% al 35% por año, por lo que contar con una infraestructura capaz de soportar mayores velocidades, y que proporcione escalabilidad para el continuo crecimiento a futuro, es una de las mayores exigencias.

2. El Internet de las Cosas (IoT). La incorporación de dispositivos a la IoT, que se espera sea 30 mil millones más fuerte para 20201, impulsará un aumento en el tráfico de datos de los centros de datos de hasta tres veces en los próximos 5 años, con lo que el ancho de banda corre el riesgo de sobrecargarse sino se implementa una infraestructura de red adecuada, que permita la migración simplificada a velocidades más altas.

3. La migración hacia la nube (cloud computing). Se trate de una nube pública o privada, la tendencia principal de las empresas parece ser el aumento del uso de la nube, pues dependiendo de la operación, los costos de operación pueden ser menores. Sin embargo, la infraestructura del centro de datos también debe prepararse para este aspecto.

Para poner en contexto estas tendencias podemos dar algunas cifras, por ejemplo, se espera que el big data crezca un 800% en los próximos tres años, y que el tráfico anual de datos globales pase de 3.1 a 8.6 ZB en los próximos 5 años.

 

¿Qué necesita mi centro de datos para prepararse a la transformación digital?

Aunque la decisión respecto al tipo de infraestructura que se debe implementar en un Centro de Datos depende de los servicios y aplicativos que se soporten (cantidad de datos, velocidades y latencias involucrado), en la actualidad, con todas la innovaciones que se ven día con día y el constante impulso de la vida digital, conviene la implementación de fibra óptica monomodo, con lo que se puede reducir el impacto de la migración de velocidades al mínimo, disminuyendo también gastos de operación e implementación a futuro.

En la búsqueda de erradicar latencias y aumentar la virtualización de contenidos y recursos compartidos, en la última década la tendencia de los grandes centros de datos Hyperscale –como los de Facebook o Google– han migrado sus arquitecturas tradicionales al tipo Leaf-Spine,.

Este nuevo tipo de arquitecturas hacen que se necesite fibra de alta densidad que soporte aplicaciones y velocidades exorbitantes, además de la necesidad de contar con una infraestructura preparada para el futuro la fibra multimodo, como la OM5, por lo que se presenta como la mejor opción para afrontar la nueva era digital.

Por Edwin Martínez, RCDD, Manager FAE’s México de CommScope

Leer más

Vodafone crea dos centros de datos en España

Vodafone crea dos centros de datos en España

El grupo Vodafone anunció en el Móvil World Congress de Barcelona, la puesta en marcha de dos centros de datos en Madrid y Valladolid.

El objetivo de estas inversiones consiste en impulsar los servicios en la nube en el país, conscientes de que todas las conexiones y redes de telecomunicaciones estarán cada vez más virtualizadas.

Actualmente, el grupo dispone de centros de datos en 15 grandes mercados de cuatro continentes, entre los que destacan los situados en el Reino Unido, Irlanda, Alemania, Italia, Sudáfrica, Hong Kong, Singapur y Estados Unidos. A esta lista se agrega ahora España con los centros de Madrid y su réplica en Valladolid.

Carlos Becker, director de marketing de productos de grupo, explica que existen dos grandes motivos para que un operador de telecomunicaciones apueste por la nube: las aplicaciones móviles y el Internet de las Cosas.

En su opinión el 50% de las aplicaciones alojadas en la nube utilizarán funciones críticas en el 2018. Un año después, en el 2019, el 50% del valor percibido de los productos será digital, mientras que en 2020 se entenderá que ‘una Telco sin cloud será un sinsentido, como ahora lo sería una empresa sin Internet’.

Leer más
Página 1 de 1312345...10...»»