Cómo maximizar el desempeño del data center con PUE

Cómo maximizar el desempeño del data center con PUE

El PUE ha sido una métrica importante en el mundo de los centros de datos desde hace tiempo. Las compañías que operan centros de datos normalmente tratan de conseguir el PUE más bajo con el fin de reducir sus costos operativos y promover acciones sustentables hacia el medio ambiente.

En este artículo me enfocaré en los aspectos económicos del PUE y cómo los proveedores y operadores de centros de datos pueden maximizar el desempeño de sus instalaciones.

Eligiendo la ubicación ideal

Con el fin de alcanzar valores PUE extremadamente bajos, varias compañías grandes de internet eligieron construir centros de datos en los países nórdicos debido a redes estables y precios bajos de energía eléctrica, y acceso a free cooling todo el año. Google en Finlandia y Facebook en el Node Pole en Suecia son dos ejemplos. Sin embargo, rangos de temperatura y humedad más amplios (definidos por ASHRAE) para centros de datos, han hecho posible que se implementen instalaciones con PUE bajo en otras ubicaciones geográficas.

Desarrollos en enfriamiento

Un área clave en desarrollo técnico son los sistemas de enfriamiento free cooling indirecto evaporativo, disponibles por parte de un gran número de proveedores de tecnologías de refrigeración. Al usar un enfriador evaporativo el aire seco exterior de 32°C puede ser utilizado para enfriar el aire en el centro de datos hasta 22°C, permitiendo ahorros importantes al requerir menos electricidad.

Aún más emocionante desde una perspectiva económica es que, para algunas ubicaciones, esto permite usar el aire exterior para enfriar durante todo el año; permitiendo un PUE máximo más bajo y ofreciendo ahorros significativos en CAPEX. Primero, debido a que el air free cooling puede usarse los 12 meses del año y los sistemas mecánicos de enfriamiento DX requeridos para los días cálidos pueden reducirse. En algunos casos es posible reducir el tamaño de un sistema de respaldo DX de un total del 100% en enfriamiento a sólo contar con un 25% adicional del total de enfriamiento requerido.  Además, un PUE máximo más bajo implica que la potencia máxima consumida por el centro de datos es menor, permitiendo disminuir el sistema de potencia eléctrica y reduciendo aún más el CAPEX.

Mercados emergentes

Otro aspecto relacionado con el PUE es el costo de la electricidad. Los precios varían significativamente entre países y pueden lograr o destruir el caso de negocio para invertir en un centro de datos con bajo PUE.  Por otra parte, en muchos mercados emergentes la disponibilidad de la red eléctrica y su estabilidad es limitada, lo que provoca que se tengan que utilizar generadores a diésel por largos períodos. Estos pueden variar entre unas pocas horas al día, hasta centros de datos que se energizan 24/7 con generadores.  Además de los costos del combustible, los generadores provocan gastos en servicios y refacciones.  La tabla que se encuentra a continuación muestra como varían los costos de electricidad anualmente dependiendo del costo de la electricidad ($/kWh) y el valor PUE del centro de datos para uno con carga IT de 1 MW.

tabla PUE.jpg

Podemos ver que la reducción en PUE de 1.5 a 1.2 en un ambiente con una red estable (0.1 $/kWh) ofrece ahorros en OPEX en más de $260K.  Para un centro de datos operado con diésel (0.3 $/kWh), el mismo nivel de ahorro en OPEX se obtiene a partir de una menor reducción en PUE (de 1.5 a 1.4 por ejemplo), mostrando que los aspectos económicos del PUE son aún más relevantes en países emergentes.

Es aquí donde tiene más sentido considerar diferentes formas para lograr un PUE más bajo, incluyendo contención de pasillos calientes/fríos, temperaturas de centros de datos más elevadas y equipo de potencia modular de mayor eficiencia.  En áreas donde el costo de electricidad es elevado, los sistemas de air free cooling deben considerarse aún si sólo son efectivos en ciertas partes del año o durante las noches cuando las temperaturas exteriores son más bajas.

Entre PUE y redundancia

Una mayor redundancia en el centro de datos (lo que conlleva una clasificación Tier más alta) puede impactar en un PUE más alto debido a que las pérdidas de energía en cada pieza de equipo se incrementan por una utilización más baja. Con una distribución de potencia completamente redundante, la utilización máxima del equipo considerando una capacidad total es de tan sólo 50%. Considerando esto, la tecnología de potencia modular puede ofrecer una mayor eficiencia aún con una utilización baja con sistemas modernos de UPS que permitan mantener una alta eficiencia con utilizaciones tan bajas de hasta 25%. Al comenzar con menos módulos de UPS conectados, el sistema puede mantener una alta eficiencia desde el primer día y de esta forma la tecnología modular de potencia puede contribuir a mejorar los números al reduciendo el CAPEX desde el primer día, así como costos operativos.

El haber construido un gran número de centros de datos en Latinoamérica, Europa, África y Asia, nos ha permitido aprender que los casos de negocio para inversión con base en el PUE y las mejores soluciones técnicas deben ser adaptados a cada ubicación geográfica y tipo de centro de datos. Un edificio de centros de datos prefabricado con flujos de aire controlados, como el eCentre, siempre es un buen punto de partida.

Por Tomas Rahkonen, CTO y vicepresidente de eCentre para Flexenclosure

Leer más

Comstor aumenta 10% sus ventas en Data Center

Comstor aumenta 10% sus ventas en Data Center

Ciudad de México a 3 de julio de 2017.— Comstor unidad de negocio de Westcon-Comstor y uno de los principales mayoristas de tecnología Cisco, informa que debido a su estrategia de trabajo con el canal mexicano, sus ventas en Data Center tendrán un crecimiento de 10% contra el año anterior fiscal de Cisco.

Sergio Bringas, Product Manager de Data Center y Meraki en Comstor, señala que esta estimación de aumento en las ventas se debe principalmente a que Comstor puede cubrir cualquier requerimiento de los clientes, tanto para adoptar tecnología como para implementación nueva, sin importar qué tipo de empresa sea, corporativos, PyME o públicas.

La arquitectura de Data Center ayuda a integrar en una sola plataforma, cómputo, red, almacenamiento o administración como elementos unificados para acelerar negocios ofreciendo integridad, disponibilidad y confidencialidad de los datos que se generan día con día.

Comstor ofrece al mercado soluciones armadas en:

  • Unified Computing System
  • Data Center Security
  • Data Center Switching
  • Data Center Management and Automation
  • Storage Networking
  • Virtual Networking

Bringas explica: “Comstor no sólo comercializa cómputo y red sino también soluciones armadas enfocadas a varios temas, por ejemplo, seguridad. Cada dato que ingresa el cliente viaja de una manera segura porque convergen las diferentes capas del Data Center. Otra arista fundamental para el cliente es el de almacenamiento de gran densidad, mismo que proporcionamos con NetApp bajo un ambiente de protección de datos.”

El portafolio del mayorista es muy rico. La solución de Data Center de Comstor contempla aplicaciones principales como:

  • Commercial / Public Sector / Enterprise / Service Providers
  • Aplicaciones: Microsoft (Exchange, SharePoint, SQL Server,
  • System Center / Oracle (Oracle RAC en FlexPod) /SAP (HANA)
  • BigData (Cloudera, Hadoop, Splunk)

Bringas como encargado de desarrollar la estrategia de negocios de la arquitectura de DataCenter de Cisco en Comstor, desarrolla y ejecuta planes de negocio dirigido a sus canales de venta para lograr un mejor posicionamiento de la arquitectura dentro del mercado en México. Como SmartPlay Select –agrega el vocero–, que consiste en la configuración de bundles preconfigurados de cómputo, redes, LAN, WAN, backup, restauración de información para ambientes virtualizados, etc. “El propósito es que el cliente se sienta respaldado por todo el portafolio Cisco-Comstor ante cualquier necesidad. Esto es nuestro diferencial, que día a día desarrollamos para los usuarios y logramos la confianza para que se acerquen a nosotros”, concluyó Bringas.

Las soluciones que incorpora productos de Data Center es tanto para entornos tradicionales como de Cloud, e incluye la consolidación de servidor, red y almacenamiento, la virtualización del escritorio y soluciones de Unified Communications virtualizadas para avanzar en la gestión de información en una escala global.

Leer más

La transformación digital, en el ‘core’ de Intel

La transformación digital, en el ‘core’ de Intel

La transformación digital es un desafío y un cambio fundamental en cómo diseñar, producir y mercadear nuestros productos y servicios; sin embargo, muchas empresas no tienen claro este concepto, según Mario Villalta, director del programa de TI en Intel.

En este sentido, los CIO son los que muestran más nerviosismo al no saber cómo enfrentar los principales desafíos.

La transformación digital se puede lograr a través de la innovación en TI. El reto es cómo implementarla en los tiempos y presupuestos de TI.

Según Villalta, el 50% de las empresas líderes de Fortune dejarán de existir debido a la obsolescencia, a pesar de que un 70% de CIOs de dichas empresas ya piensan en transformación digital.

Estos datos fueron revelados en el marco de la presentación del Informe Anual de TI de Intel, el cual tiene como misión compartir las mejores prácticas, lecciones y experiencias en la implementación de TI.

Intel ha generado 110 millones de dólares en valor de negocio gracias a la innovación en TI, de acuerdo con Villalta. Dicha transformación les ha permitido optimizar su cadena de suministro y hacer más eficaces sus esfuerzos de marketing y ventas.

La compañía tiene casi 221,000 dispositivos administrados en su infraestructura, de los cuales 151,900 son PC móviles, 53,780 smartphones, 14,900 desktops y 500 tablets. En 2014 contaban con 84,000 servidores, una cifra que se elevó a 144,000 en 2015 y para 2016 llegó a los 185,000.

 

¿Cómo hacer más con menos?

Según Villalta, las organizaciones que logren encontrar la respuesta a esta interrogante lograrán mantenerse vigentes.

El ROI (Retorno de Inversión) lo han encontrado en:

  1. Advanced Analytics: Big Data, Inteligencia Artificial, Machine Learning, Analítica predictiva y Analítica prescriptiva.
  2. Data Centers: la innovación en diseño, enfriamiento, electrificación, diseño de racks y blades, ha sido fundamental. De contar con 152 centros de datos en 2003, se han reducido a 56 únicamente en 2017.
  3. Cloud: El futuro está en la nube híbrida.

 

Según el informe, en 2014 cada empleado le costaba a la empresa 13,560 dólares al año, mientras que en 2016 la cifra se ha reducido a 12,200 dólares, gracias a la optimización de TI. De 106 mil empleados que tiene Intel actualmente, 5,775 pertenecen al área de TI.

En opinión de Villalta, los data centers pueden bajar hasta un 44% en costos de refresh, y se puede llegar hasta un 65% con servidores desagregados; es decir, se pueden lograr ahorros en gastos operativos de hasta un millón de dólares al año.

La compañía también ha conseguido una mejora de 39 semanas en comercializar sus productos a través de una plataforma de aprendizaje automático que descubre posibles errores durante la fase de diseño de un producto antes de que entre en la fase de manufactura.

El informe completo puede descargarse en este enlace.

Leer más

Apple invierte 1,000 mdd para crecer su Data Center en Nevada

Apple invierte 1,000 mdd para crecer su Data Center en Nevada

La ciudad del Reno, Nevada, aprobó los planes en un lote disponible en el centro de la ciudad para la expansión del Data Center de Apple.

‘Estamos muy contentos de aumentar nuestra contribución a la economía local con una inversión adicional de 1,000 millones de dólares para expandir nuestro Centro de Datos y las instalaciones de apoyo. Como parte de nuestro crecimiento, planeamos contratar a 100 empleados y esperamos que la construcción apoye otros 300 puestos de trabajo’, comentó el portavoz de Apple, John Rosenstock en un correo a The Associated Press.

Apple cuenta ya con más de 700 trabajadores en Nevada, que es el espacio con la mayor inversión en energía solar, agregó Rosenstock.

Con información de Bloomberg

Leer más

3 tendencias clave para la infraestructura del Centro de Datos

3 tendencias clave para la infraestructura del Centro de Datos

Las necesidades de los centros de datos siempre están cambiando, sin embargo, hoy en día satisfacer todas esas exigencias se ha vuelto indispensable, toda vez que actualmente los centros de datos para las empresas son fundamentales.

Pero gracias a las nuevas redes de información, los grandes avances tecnológicos, el desarrollo de nuevos dispositivos que exigen mayores velocidades de transmisión y conectividad prácticamente en cualquier sitio, esta época se ha volcado hacia el mundo digital, lo que ha ocasionado aún más cambios para los data centers, que no todos están preparados para enfrentar.

Hoy resulta fundamental para los operadores y las empresas tener muy claro qué aspectos deben considerar al elegir la infraestructura de red de su data center. Además deben analizar que ésta deberá estar asociada a la capacidad del propio centro de datos para brindar soporte tanto en la actualidad, como en un futuro, donde todo apunta hacia lo digital y presenta nuevos retos que afrontar.

Estas transformaciones en los centros de datos, tienen origen en tres tendencias crecientes:

1. La explosión del ancho de banda. Las tendencias en los centros de datos muestran que los requisitos del ancho de banda crecen del 25% al 35% por año, por lo que contar con una infraestructura capaz de soportar mayores velocidades, y que proporcione escalabilidad para el continuo crecimiento a futuro, es una de las mayores exigencias.

2. El Internet de las Cosas (IoT). La incorporación de dispositivos a la IoT, que se espera sea 30 mil millones más fuerte para 20201, impulsará un aumento en el tráfico de datos de los centros de datos de hasta tres veces en los próximos 5 años, con lo que el ancho de banda corre el riesgo de sobrecargarse sino se implementa una infraestructura de red adecuada, que permita la migración simplificada a velocidades más altas.

3. La migración hacia la nube (cloud computing). Se trate de una nube pública o privada, la tendencia principal de las empresas parece ser el aumento del uso de la nube, pues dependiendo de la operación, los costos de operación pueden ser menores. Sin embargo, la infraestructura del centro de datos también debe prepararse para este aspecto.

Para poner en contexto estas tendencias podemos dar algunas cifras, por ejemplo, se espera que el big data crezca un 800% en los próximos tres años, y que el tráfico anual de datos globales pase de 3.1 a 8.6 ZB en los próximos 5 años.

 

¿Qué necesita mi centro de datos para prepararse a la transformación digital?

Aunque la decisión respecto al tipo de infraestructura que se debe implementar en un Centro de Datos depende de los servicios y aplicativos que se soporten (cantidad de datos, velocidades y latencias involucrado), en la actualidad, con todas la innovaciones que se ven día con día y el constante impulso de la vida digital, conviene la implementación de fibra óptica monomodo, con lo que se puede reducir el impacto de la migración de velocidades al mínimo, disminuyendo también gastos de operación e implementación a futuro.

En la búsqueda de erradicar latencias y aumentar la virtualización de contenidos y recursos compartidos, en la última década la tendencia de los grandes centros de datos Hyperscale –como los de Facebook o Google– han migrado sus arquitecturas tradicionales al tipo Leaf-Spine,.

Este nuevo tipo de arquitecturas hacen que se necesite fibra de alta densidad que soporte aplicaciones y velocidades exorbitantes, además de la necesidad de contar con una infraestructura preparada para el futuro la fibra multimodo, como la OM5, por lo que se presenta como la mejor opción para afrontar la nueva era digital.

Por Edwin Martínez, RCDD, Manager FAE’s México de CommScope

Leer más

Vodafone crea dos centros de datos en España

Vodafone crea dos centros de datos en España

El grupo Vodafone anunció en el Móvil World Congress de Barcelona, la puesta en marcha de dos centros de datos en Madrid y Valladolid.

El objetivo de estas inversiones consiste en impulsar los servicios en la nube en el país, conscientes de que todas las conexiones y redes de telecomunicaciones estarán cada vez más virtualizadas.

Actualmente, el grupo dispone de centros de datos en 15 grandes mercados de cuatro continentes, entre los que destacan los situados en el Reino Unido, Irlanda, Alemania, Italia, Sudáfrica, Hong Kong, Singapur y Estados Unidos. A esta lista se agrega ahora España con los centros de Madrid y su réplica en Valladolid.

Carlos Becker, director de marketing de productos de grupo, explica que existen dos grandes motivos para que un operador de telecomunicaciones apueste por la nube: las aplicaciones móviles y el Internet de las Cosas.

En su opinión el 50% de las aplicaciones alojadas en la nube utilizarán funciones críticas en el 2018. Un año después, en el 2019, el 50% del valor percibido de los productos será digital, mientras que en 2020 se entenderá que ‘una Telco sin cloud será un sinsentido, como ahora lo sería una empresa sin Internet’.

Leer más

5 elementos para crear un Data Center ‘ideal’

5 elementos para crear un Data Center ‘ideal’

Los centros de datos son de todas formas y tamaños, y sus diseños motivados por una multitud de factores.  Éstos pueden ser muy variables, como el propósito para el cual se utilizan, hasta el ambiente físico en el que se ubican, los materiales de los que se construyen o incluso quien lo diseña: compañías globales de colocación, operadores de telecomunicaciones, especialistas de cloud computing, etc.

A pesar de la diversidad de factores, si un nuevo centro de datos quiere alcanzar el estatus de ‘ideal’, hay un grupo de características que siempre deben estar presentes en el proyecto.

 

1. Costo bajo

Mantener el CAPEX lo más bajo posible es siempre un factor importante en el proceso de toma de decisiones.  De hecho, las restricciones de CAPEX provocan que no se lleguen a construir los centros de datos, ya que el costo inicial es considerado demasiado alto.  Así que para los operadores que tienen un presupuesto limitado disponible para expandir un centro de datos existente o construir uno nuevo, considerar un centro de datos prefabricado es normalmente la mejor opción.

Los centros de datos modulares (no confundir modulares con contenedores) permiten un CAPEX más bajo desde el día uno, lo que puede ser crítico para un caso de negocio positivo y para conseguir que el proyecto se lleve a cabo.

Sin embargo, el éxito financiero no es impulsado simplemente por lograr un gasto bajo de capital. Reducir los costos operativos recurrentes también es crítico en lograr el mejor caso de negocio para un operador de centros de datos.

Aquí es donde se requiere un equilibrio para asegurar que el capital invertido sea justificado a través de los ahorros adquiridos con la eficiencia. Por ejemplo, un cálculo de costo total de propiedad (TCO, por sus siglas en inglés) que compare sistemas de enfriamiento con precios y eficiencias variables entregará resultados muy diferentes, conforme la línea de tiempo aumente. Así que el CAPEX y el OPEX no pueden analizarse por separado, ya que el realizar una inversión óptima en CAPEX podrá ofrecer niveles consolidados y manejables de OPEX.

 

2. A prueba de futuro

Mientras que los operadores regularmente tratan de minimizar la inversión inicial lo más posible, siempre querrán que su centro de datos esté listo para el futuro, de forma que la instalación pueda aumentar al ritmo de las crecientes demandas de los clientes y del mercado, pero sin interrumpir las operaciones existentes.

Los negocios rara vez crecen de una manera totalmente predecible y lineal, así que un elemento clave para que un centro de datos sea a prueba de futuro no es únicamente su capacidad para crecer, sino también contar con una flexibilidad integrada que pueda adaptarse a las necesidades cambiantes del mercado.

Este tipo de flexibilidad se puede conseguir con elementos como techos altos (hasta 5m), piso blanco libre y sin columnas; y la capacidad de reconfigurar o expandir el edificio para acomodar cambios operativos o de servicios.

Estas características se asocian principalmente con los edificios de centros de datos prefabricados, como el eCentre de Flexenclosure, en contraposición con las instalaciones tradicionales. Además, las soluciones prefabricadas reducen la presión del operador por conseguir estimaciones correctas a largo plazo, permitiéndole estar seguro de que podrá adaptarse a los nuevos cambios tecnológicos y requerimientos de los clientes conforme ocurran.

 

3. Tiempo corto para estar operando

En la mayoría de los casos, en el momento en que un operador asigna un presupuesto y coloca una orden para un nuevo centro de datos, la instalación ya va tarde. ‘Para ayer’ es la respuesta típica cuando se pregunta para cuándo se requiere que la instalación esté en marcha, así que el tiempo desde que se concibe el diseño hasta que pueda estar en funcionamiento es siempre un factor crítico.

Normalmente es imposible alcanzar tiempos cortos en proyectos de construcciones tradicionales, así que la solución es nuevamente las instalaciones prefabricadas que pueden completarse mucho más rápido. Un tiempo corto para estar operando asegura que el operador se mantenga delante de la competencia y asegura un mejor retorno de inversión, ya que el capital invertido comienza a generar ganancias mucho más rápido.

 

4. Alta calidad

Una de las demandas clave de los usuarios finales para considerar el servicio de hospedaje en un centro de datos es el tiempo de funcionamiento con disponibilidad garantizada de casi el 100%, 24/7.

Con tantos casos de compañías que ya valoran los datos e infraestructura de red como sistemas de misión crítica, las fallas e interrupciones de los centros de datos son ahora titulares de las noticias. Ni los operadores ni los clientes quieren ser parte de estos sucesos, así que la calidad de cualquier instalación nueva debe ser siempre predecible.

La industria de centros de datos es relativamente joven, con normas y certificaciones que aún están evolucionando, pero la TIA-942 junto con el Uptime Institute están asegurándose que el diseño y la calidad de construcción se muevan en la dirección correcta.

La confiabilidad de un centro de datos no sólo se ve afectada por interrupciones de energía en los equipos. Los entornos desfavorables en los que las instalaciones deben ser construidas pueden también tener un impacto serio en su disponibilidad.

Así que para estar totalmente tranquilos, los operadores deben asegurarse que la compañía que esté diseñando y construyendo su centro de datos tiene la suficiente experiencia para construir instalaciones que hayan sido certificadas para soportar cualquier evento como ciclones, terremotos, inundaciones, etc.

 

5. Seguridad

Desafortunadamente vivimos en un mundo donde la seguridad es una de nuestras mayores preocupaciones, y para muchas compañías la seguridad de sus datos es un asunto crítico; así que garantizar la seguridad física de sus servidores es vital para cualquier operador.

Esto puede conseguirse a través del uso de jaulas o confinamientos con acceso restringido utilizando sensores biométricos y monitoreo de CCTV. El plan de seguridad del sitio incluirá diversas zonas y caminos de acceso para clientes, recepción de materiales, servicio y mantenimiento a equipos, etc., ya que en ocasiones la amenaza puede no ser dirigida únicamente a un cliente en particular, sino a toda la instalación.

La implantación de múltiples protocolos de seguridad para gestionar amenazas potenciales de seguridad es de suma importancia para cualquier operador de centros de datos.

Existen otros factores que los operadores pueden tomar en consideración al especificar sus requerimientos para actualizar o construir un nuevo centro de datos, pero estos cinco elementos: costo bajo, a prueba de futuro, tiempo corto para operar, alta calidad y seguridad deben ser parte central del plan para un proyecto ideal que pueda cubrir sus necesidades.

Por Srikanth Murugan, Director Global de Ingeniería Comercial para Flexenclosure

Leer más

Facebook construye su tercer data center en Europa

Facebook construye su tercer data center en Europa

Facebook anunció hoy que construirá su tercer centro de datos en Europa en la ciudad de Odense, Dinamarca, para el cual la compañía espera arrancar operaciones en 2020.

El nuevo centro incluye dos grandes naves que estarán situadas en una zona industrial de 55,000 metros cuadrados, según el director de centros de datos de Facebook, Niall McEntegart, quien además dijo que cuenta con un presupuesto de ‘varios cientos de millones de dólares’.

McEntegart aseguró que será una de las instalaciones de ese tipo más eficientes del mundo desde el punto de vista energético, gracias entre otros factores a que el clima nórdico ayudará a mantener fríos los servidores.

El de Odense es el tercer data center creado en Europa de la compañía, después de los de Luleå (Suecia) y de Clonee (Irlanda).

El Gobierno danés destacó en un comunicado que el anuncio de Facebook sigue al del gigante tecnológico Apple, que hace dos años presentó un proyecto similar para Viborg (oeste de Dinamarca), y se mostró confiado en que reforzará su posición como país atractivo para acoger centros de datos globales.

EFE

Leer más

10 tendencias de TI, Data Centers e IoT para 2017

10 tendencias de TI, Data Centers e IoT para 2017

El paso hacia la transformación digital tendrá un impacto evidente durante 2017. En este contexto, las tendencias que Hu Yoshida, CTO de Hitachi Data Systems, prevé para este año se agrupan en tres categorías principales.

La primera es Tendencias de centros de datos, seguida de Tendencias tecnológicas y Tendencias de TI, OT y IoT.

 

Tendencias de centros de datos

1. Las ganancias se verán reflejadas en la productividad, y esto dependerá más de la gente, el proceso y el negocio.

A pesar de la explosión de nuevas tecnologías en los últimos 10 años, la productividad ha disminuido en comparación con los 10 años anteriores, incluso en los países que se consideran los más expertos en tecnología. Esto según la OCDE (Organización para la Cooperación y el Desarrollo Económico).

La productividad del trabajo, o producción por hora, se calcula dividiendo un índice del producto real por un índice de horas trabajadas. Aunque las TI se han vuelto más rentables en términos de gestión de infraestructura, esto no se ha traducido en incrementos en bienes y servicios empresariales. Las TI comenzarán a medirse en resultados empresariales en lugar de cuántos Terabytes pueden ser administrados por FTE = Empleado de Tiempo Completo (Full Time Employee). La esperanza de la transformación digital es revertir esta tendencia en productividad.

2. La transformación ágil de las TI

El mantra para las TI es hacer más con menos y hacer más, mucho más rápido. Las empresas están bajo una tremenda presión para transformarse y eso significa implementar nuevas aplicaciones y plataformas innovadoras para todos los aspectos de su negocio. Más ejecutivos de TI están adoptando metodologías ágiles. Las TI deben repensar sus procesos y los CIO deben convertirse en un CIO “de negocios” en lugar de un gerente de centro de costos.

3. Los modelos de compra están cambiando

El mercado está alejándose de la compra de activos tecnológicos. Las empresas se encuentran repensando el modelo para sus compras de TI tanto en infraestructura como en servicios. Esto se ve influenciado por las ventajas de reducir los costos, aumentar la agilidad y mejorar el tiempo de valor de la nube y los servicios alojados.

4. Acelerar la transición a la nube

Según Ed Anderson, vicepresidente de investigación de Gartner, los responsables de TI desarrollarán habilidades en la supervisión de la nube, el rendimiento de la carga de trabajo en la nube y la gestión de la seguridad. La administración de la capacidad en la nube ya no es una cuestión de “si” sino “cuándo”. Los portales de virtualización, convergencia, almacenamiento de objetos y gestión de nubes facilitarán el movimiento hacia la nube.

 

Tendencias tecnológicas

5. TI bimodal

Las empresas que no nacen en la nube tienen sistemas de registro que deben mantener y modernizar mientras se transforman en nuevos sistemas de innovación. Bimodal IT se refiere a tener dos modos de TI, cada uno diseñado para desarrollar y entregar servicios de información y tecnología intensiva a su manera:

  • Modo 1: Tradicional – enfatiza la seguridad y la precisión.
  • Modo 2: No lineal – enfatiza la agilidad y la velocidad.

Las TI deben ser capaces de gestionar ambos modos e implementar sistemas que tienden un puente entre estos dos modos. Mientras que algunos pueden considerar esto como una tendencia de centro de datos, esto requiere tecnología para integrar ambos mundos.

6. Flash primero

El argumento del precio contra el almacenamiento flash se elimina, ya no se tiene que definir con un usuario si sus datos son Nivel 1 o 2. Como resultado, el analista está proyectando que los ingresos para el almacenamiento flash será mayor que para los discos duros en 2017, así, la transición a Flash se acelera.

7. Un centro de datos centralizado

Los datos están explotando y son cada vez más valiosos a medida que encontramos formas de correlacionar los datos de diferentes fuentes para obtener más información o reutilizamos para usos diferentes. Los datos son nuestras joyas de la corona, y las IT estarán creando un centro de datos centralizado para una mejor administración, protección, gobernabilidad y búsqueda de sus datos. Este concentrado centralizado de datos necesitará ser un almacén de objetos que pueda escalar más allá de las limitaciones de los sistemas de archivos, ingerir datos de diferentes fuentes y proporcionar búsqueda y gobernabilidad a través de nubes públicas, privadas y dispositivos móviles.

8. Análisis en tiempo real, Hadoop, visualización y análisis predictivo

La analítica predictiva es cada vez más frecuente a medida que las empresas tratan de anticipar los eventos que afectan a su negocio. Esta tendencia verá el uso ampliado de bases de datos en memoria y las plataformas de análisis de flujo continuo para proporcionar análisis en tiempo real de tendencias en desarrollo. La analítica en tiempo real se conectará con los analíticos de Hadoop para un análisis más profundo y los resultados se almacenarán en una tienda de objetos con la posibilidad de análisis futuros. Herramientas analíticas como Pentaho combinarán datos estructurados y no estructurados de diferentes fuentes para proporcionar una vista 360 para el análisis.

 

Tendencias IT / OT / IoT

9. TI inteligente: la integración de TI y OT

Los datos de la tecnología operativa (OT) pueden ser datos de sensores o registros que se unen a los datos de TI para proporcionar una comprensión más completa de un evento o proceso. Los minoristas ya están a la vanguardia combinando los datos operativos de los sensores en las tiendas y los medios sociales para optimizar los sistemas de compras y de cadena de suministro. Más empresas estarán buscando herramientas de integración de datos como Pentaho para integrar sus datos de TI y OT.

10. Creación de conciencia sobre el IoT en el Data Center

El Internet de las cosas (IoT) es la conexión en red de dispositivos físicos, vehículos, edificios y otros elementos, integrados con electrónica, software, sensores y conectividad de red que permiten a estos objetos recopilar, intercambiar e incluso procesar datos a la vanguardia. La conexión en red de las cosas afectará a todos los aspectos de nuestras vidas. Esto va más allá de la integración de TI y OT, y salvo algunas aplicaciones como la seguridad pública, no será una importante tendencia de TI en 2017. Sin embargo, las decisiones que tomamos en TI en 2017 debe hacerse con un ojo al IoT. La integración de TI y OT con análisis es el primer paso. Para abordar el IoT se requiere más que la integración vertical de los silos de la industria, sino una plataforma horizontal de componentes reutilizables para que la parte delantera esté integrada con los sistemas empresariales backend.

Por Hu Yoshida, CTO de Hitachi Data Systems

Leer más

Telefónica amplía operaciones en su Data Center en Estados Unidos

Telefónica amplía operaciones en su Data Center en Estados Unidos

Telefónica ampliará sus operaciones en Miami-Dade, Florida, con inversiones de capital por 9 millones de dólares, informó hoy el Miami Beacon Council.

Según la institución, esta inversión servirá para crear nuevos puestos de trabajo para profesionales tecnológicos altamente cualificados en el centro de datos que Telefónica tiene en Miami-Dade, el cual es el único del sur de Florida con una certificación de tercer nivel emitida por el Uptime Institute.

El KeyCenter está pensado para empresas multinacionales que necesitan que su infraestructura tecnológica esté alojada en una dependencia segura y conectada que cumpla con los estrictos estándares del Uptime Institute, una organización independiente.

El centro de datos, interconectado a otras instalaciones de Telefónica, es un punto importante para compañías que hacen negocios entre Estados Unidos, América Latina, Europa y Asia Pacífico, señala un comunicado del Miami Beacon Council.

EFE

Leer más
Página 1 de 1312345...10...»»