Inicio Tecnología. Big Data, Virtualización y Cloud: 3 megatendencias informáticas

Big Data, Virtualización y Cloud: 3 megatendencias informáticas

Big Data ha sido uno de los términos más discutidos en TI en América Latina en los últimos 12 meses. Y por una buena razón: en su estudio de las predicciones para el año 2013, la firma de analistas IDC afirma que un tercio de las empresas en Latinoamérica invertirá en Big Data y proyectos en esta área sobrepasarán los $480 millones de dólares. Aún más importante es que a finales de 2013, los datos llegarán a un punto de inflexión crítico en el que la mayoría de las empresas determinarán un cambio de la inversión en tecnología, junto a las necesidades de grandes volúmenes de datos. IDC prevé que un tercio de los CIOs harán de Big Data una prioridad mayor de inversión en 2014. Sólo en Brasil, se espera que el mercado de Big Data incremente del nivel actual, de $168 millones de dólares a aproximadamente $500 millones de dólares para el 2016, según Frost & Sullivan.

Antes de definir una estrategia de soluciones de Big Data para un negocio, necesitamos primero comprender el concepto y la forma en que verdaderamente se aplica a un negocio en particular. La empresa consultora McKinsey & Company define el término Big Data como “Conjunto de datos cuyo tamaño está más allá de la capacidad de las herramientas y software típicos para capturar, almacenar, administrar y analizar la información que se tiene”. Esta novedad ha surgido debido a que las organizaciones de ahora comprenden el valor de los resultados que se pueden alcanzar mediante el análisis de un gran conjunto de datos relacionados, lo cual permite encontrar las correlaciones existentes entre ellos que pueden ayudar a determinar y detectar las tendencias. En consecuencia, es el aspecto analítico de las soluciones de Big Data lo que realmente beneficia a los negocios.

Big Data no es sólo para estudios de investigación y meteorológicos, está claro que la mayoría de los negocios se pueden beneficiar con estas soluciones, incluyendo a organizaciones gubernamentales. De hecho, los analistas de Frost & Sullivan predicen que el 90% de todos los datos que las empresas de telecomunicaciones poseen no se usan de manera inteligente, por lo que recalcan que dichas empresas deberían usar soluciones de Big Data para comprender qué tipo de servicios especiales pueden ofrecer y cómo retener a sus mejores clientes a fin de generar nuevos ingresos. De igual manera, IDC sitúa a las tecnologías Big Data como formas innovadoras para agregar valor en lo que respecta a las operaciones y al desarrollo de la infraestructura de una entidad. En el caso del sector público, se predice un incremento de los gastos gubernamentales en áreas relacionadas con la prevención del fraude fiscal, la defensa y seguridad del ciudadano, el monitoreo del sentimiento ciudadano y el control del flujo urbano, entre otras. Por tanto, según las predicciones IDC, uno de cada tres proyectos de Big Data implicará aplicaciones analíticas y de descubrimiento de datos durante el 2013.

Dado a todos los beneficios asociados con la transición a Big Data, las empresas están contemplando más detenidamente la posibilidad de desarrollar repositorios Big Data. Aunque es un primer paso, y uno muy importante, esto no permitirá a las organizaciones comprender los verdaderos beneficios del concepto. Comprar todos los servidores requeridos para procesar y extraer los datos, aun cuando ese procesamiento podría requerirse por horas, semanas o un meses, es costoso y llevaría a obtener recursos que no se utilizarían a plena capacidad en otros momentos.

Para que esta inversión tenga sentido en el orden económico y estratégico, los CIO deben combinar el poder de las tres megatendencias informáticas: Big Data, Virtualización y la Nube. La virtualización y la nube son herramientas de apoyo para poner en funcionamiento a Big Data haciendo posible crear conjuntos de computación grandes, automatizados y escalables que sean capaces de manejar el volumen de datos a ser procesado. Combinándolas, se creará una base flexible, escalable e inteligente para las aplicaciones de Big Data.

Así, las empresas podrían  “rentar” nubes con capacidad de almacenamiento prácticamente ilimitada a los proveedores de servicios de computación en forma de Infraestructura como servicio (IaaS), pagando sólo por lo que usen. De este modo los problemas de almacenamiento y de capacidad de procesamiento estarían resueltos.

Sin embargo, trasladar grandes conjuntos de datos hacia y desde los centros de datos en la nube, revelará el enlace débil en el “ecosistema de Big Data”: una red que no está construida para manejar tan enormes cantidades de datos. Al igual que con todas las situaciones relacionadas con la capacidad en las redes, este es un problema que no se puede enfrentar de una manera sostenible simplemente instalando o arrendando conductos de datos más grandes.

En su lugar, para procesar grandes volúmenes de datos eficazmente es más aconsejable utilizar una arquitectura de centro de datos virtual, donde se derrumban las paredes físicas de los centros de datos individuales para conectar múltiples centros de datos a modo de una entidad lógica.  En otras palabras, se crea un “centro de datos sin paredes”, que usa una red “Cloud Backbone” de alto rendimiento para conectar a la perfección un conjunto de recursos más grande, compartido con los centros de datos tanto de la empresa como del proveedor.

Al virtualizar y vincular todos los activos de red y centros de datos, las organizaciones pueden permitir una colocación y migración flexible del volumen de trabajo de acuerdo con las cambiantes necesidades. Esta es la única configuración de TI que, en el orden económico, puede enfrentar el reto que suponen las soluciones de Big Data en cuanto a la infraestructura, y permitir así que esta tendencia fenomenal pueda cumplir lo que promete.

Para hacer que las soluciones de Big Data funcionen en una organización como, por ejemplo, que el poder de computación se pueda poner fácilmente en función del procesamiento de conjuntos de datos, se necesita una conexión de alto rendimiento desde su centro de datos al del proveedor del servicio de cloud computing. Pero más allá de un servicio de conectividad estática, que puede ser costoso tenerlo activado todo el tiempo, un servicio de conectividad de “desempeño a demanda” puede permitirle aumentar y disminuir el ancho de banda según sus necesidades.

Así, vale la pena asegurarse de tener una infraestructura de TI que pueda aprovechar los recursos virtuales, pero que, al mismo tiempo, también esté basada en la conectividad de rendimiento a demanda, de manera que los usuarios paguen únicamente por lo que utilizan.

Por Fabio Medina, VP de Ventas y Gerente General de Ciena para América Latina