Expansión de Oracle Internet of Things Cloud Applications

Expansión de Oracle Internet of Things Cloud Applications

Oracle anunció la expansión de su portafolio de Internet de las Cosas (IoT) con cuatro nuevas soluciones, que permiten a las organizaciones aprovechar los beneficios de esta tecnología en sus cadenas de suministro digitales. Con esta nueva oferta en la nube, las compañías pueden detectar, analizar y tener una capacidad de respuesta basada en la información de IoT que obtienen. Asimismo, incorporar los insights generados a sus funcionalidades y aplicarlas en mercados existentes, caracterizados por su rápida evolución.

La cantidad de equipos habilitados para arrojar información de IoT representa una oportunidad para que las organizaciones puedan gestionar, interpretar y aprovechar la data obtenida, la cual se incrementa exponencialmente. Las compañías con herramientas que integran esta información a sus procesos, pueden operar con insights predictivos e implementar acciones rentables, basadas en información real. Con las soluciones de IoT las compañías están en capacidad de ofrecer servicios innovadores más rápido y con menos riesgos, tanto internos como externos.

“El mundo es hoy un lugar mucho más digital y el IoT es el próximo paso, otorgando experiencias mejoradas al consumidor, ayudando a las organizaciones a ser más competitivas”, dijo Bhagat Nainani, Vicepresidente del Grupo de Desarrollo de Aplicaciones de IoT en Oracle. “Oracle IoT Applications permite a las organizaciones aprovechar los equipos interconectados para modernizar la cadena de suministro digital”.

Oracle IoT Applications posee tres funciones de gran importancia para las empresas, como lo son el registro de equipos y recolección de data, el análisis y la interpretación de señales y la conexión a procesos de negocio específicos. Con estas herramientas, las compañías pueden ejecutar análisis avanzados y predictivos de las señales de diferentes dispositivos, para calcular complejos indicadores de gestión y KPIs de negocios específicos, además de activar acciones automatizadas en tiempo real.

La solución también ofrece innovadoras capacidades, tales como mantenimiento predictivo, cuadros de mando de diagnóstico y mayor visibilidad en tiempo real, las cuales se pueden aplicar a la fabricación de sus productos, aumentar la calidad de los mismos, visualizar la data relacionada, así como también apoyar la operación de logística y a tener un mayor control de los empleados y sus movimientos.

Las nuevas aplicaciones en la nube se integran con las Oracle Supply Chain Management (SCM) Cloud para que las señales IoT funcionen e incluyan los siguientes productos:

  • IoT Asset Monitoring Cloud: monitorea activos, su utilización, disponibilidad y data desde los sensores conectados y crea episodios en el backend de SCM, ERP o Service Clouds para automatizar las cargas de trabajo
  • IoT Connected Worker Cloud: supervisa a empleados para brindar apoyo a las iniciativas de seguridad, servicio y cumplimiento.
  • IoT Fleet Monitoring Cloud: monitorea la posición y el progreso de pasajeros, servicios y de los vehículos de entrega, así como el comportamiento del conductor
  • IoT Production Monitoring Cloud: monitorea la productos de equipos para evaluar y predecir inconvenientes de manufactura.

Las aplicaciones mencionadas anteriormente están basadas en Oracle IoT Cloud and Oracle Big Data Cloud. Ambas se integran a Oracle SCM Cloud y Oracle Service Cloud, así como con un software local, para permitir la visibilidad operativa y facilitar un mejor servicio al cliente y capacidad de respuesta.

“Noble Plastics es un innovador fabricante de modelos de inyección personalizados que aprovecha la robótica para la automatización de sus productos. Vemos un tremendo potencial en IoT para impulsar el mantenimiento predictivo de robots industriales”, dijo Scott Rogers, Director Técnico de Noble Plastics. “Oracle IoT Asset Monitoring Cloud nos ayudará a monitorear los robots FANUC que se despliegan en los suelos de nuestras plantas y a alertar los técnicos de manera proactiva en su dispositivo móvil. Esto mejorará la calidad del producto, la eficiencia de la producción y el rendimiento al tiempo que controla los costos”.

Para información adicional, visite Oracle Cloud y conéctese a Oracle SCM Cloud y Oracle IoT Cloud en Twitter.

 

Leer más

HDS ofrece una completa estrategia de datos

HDS ofrece una completa estrategia de datos

“Recopilar datos y hacer uso de ellos para obtener nuevas maneras de aumentar ingresos y reducir costos. Ese es el objetivo de la Estrategia de Datos, la principal tendencia que los CIO deben trabajan en el 2017”, asegura Marcelo Sales, CTO de Hitachi Data Systems LATAM. Otros aspectos que resalta el ejecutivo son: la consolidación de la nube y el crecimiento en la adopción del almacenamiento flash.

Marcelo Sales afirma que 2016 fue un año de intenso aprendizaje en el uso de la nube. En especial se perfila un auge en la nube híbrida: “Vamos a tener el control de algunos datos dentro de la empresa, mientras que otros estarán fuera. Por lo que es recomendable que en los próximos años, las empresas se centren en encontrar el equilibrio entre los datos que conservarán internamente y los que no. Para ello hay que tener claro, qué nivel de movilidad necesitan los datos. Otro tema fuerte en 2016 fue el almacenamiento flash, principalmente debido a que su costo ha bajado.

Para el ejecutivo de Hitachi, la prioridad actual de las empresas es añadir valor al negocio. Gracias a la presión que experimentan las empresas para implementar la transformación digital, las áreas de negocio son cada vez más exigentes con la de tecnología. Las empresas en la actualidad deben atender sus negocios tradicionales, pero es urgente que tengan un enfoque en la innovación. “Se sabe que el 82% de todos los recursos de TI en las compañías se enfocan en mantener los sistemas existentes. Tenemos que poner más energía en innovar, por lo que el papel del CIO debe cambiar para responder a las necesidades de su negocio. Este valor a menudo vendrá a partir de los datos disponibles, es decir, la capacidad de las empresas para obtener datos estructurados y no estructurados, que provienen de máquinas o personas, para integrarlos, analizarlos y, por lo tanto, encontrar información valiosa. Es un análisis que permite generar acciones de negocio”, explica Sales.

El CTO señala que hoy en día la mayoría de las empresas ya tienen los datos que necesitan para trabajar. Ahora, el reto es generar valor real de esta información. “Tenemos estadísticas que muestran que sólo el 3% de los datos de una empresa se utilizan para el análisis, lo que es muy poco. Todavía nos queda mucho por hacer”.

Uno de los principales retos para los CIO en 2017 es sin duda poner en práctica una estrategia efectiva de datos, que va desde el almacenamiento, a través de la gestión de datos y asegurar la movilidad y la reutilización de esta información. “En el modelo tradicional, a menudo el CIO sólo almacena los datos, pero no logran sacar ventaja de ellos. La verdad es que el análisis de datos va más allá de unos gráficos en pantallas. Es necesario recopilar los datos, almacenarlos, garantizar su seguridad, dar acceso a ellos, movilidad y promover la reutilización. Pocas empresas son capaces de realizar este proceso completo, y Hitachi es una de ellas”.

Otro factor que el CTO de Hitachi Data Systems LATAM resalta es que, la mayor parte de los datos serán generados por máquinas, no por la gente. Son los sensores, cámaras de seguridad, equipos de salud, entre otros, las principales fuentes de información. “El verdadero Big Data proviene de las máquinas, datos que se pueden transformar para dar valor al negocio y lograr la innovación social, que busca soluciones en beneficio de los negocios y hacer lo mejor para la sociedad.”

Sales afirma que se debe prestar atención a la evolución del sector financiero, que es uno de los que más actualizados se mantiene. En América Latina, tenemos que ser conscientes también del sector agroindustrial, ya que esta directamente involucrado con los grandes problemas que tenemos en el futuro: el abasto de agua, alimentos y energía, para ello existen interesantes tecnologías.

Por último, Sales dijo que los CIO trabajarán con varios socios estratégicos como HDS, expertos que los apoyaran en diferentes partes de la operación. Esta es una manera para delegar funciones y, por lo tanto, puede concentrarse en la innovación.

Leer más

Cómo aprovechar Big Data para mejorar la Experiencia del Cliente

Cómo aprovechar Big Data para mejorar la Experiencia del Cliente

Big Data comienza a hacer posible la transformación digital a nivel global, impactando a todas las industrias y a los individuos –desde profesionales en TI, líderes de negocio, hasta los consumidores finales.

De acuerdo con un estudio de Forrester Research, el 74% de las empresas en México indican que quieren ser ‘impulsadas por datos’, pero sólo el 29% dicen que son capaces de conectar la analítica con la acción.

Aunque las organizaciones parecen insatisfechas con sus capacidades de Big Data, siguen aumentando el presupuesto con nuevas herramientas, software y capacidades.

Se espera que los ingresos mundiales del mercado de Big Data se incrementen de 18.3 millones de dólares en 2017 a 92.2 millones en 2026.

El mundo del Big Data introdujo una era en la que los petabytes de información pueden ser comprimidos y extraídos. Actualmente ya muchas empresas utilizan algoritmos derivados de Big Data para tomar decisiones sobre sus negocios, como por ejemplo: elegir un candidato para ocupar un puesto de trabajo, determinar quién es competente en un empleo existente, entre otras aplicaciones.

 

Maximizando la información

La realidad es que el reto que enfrentan todas las compañías hoy en día es saber qué hacer exactamente con todos estos beneficios que proporcionan las herramientas de Big Data. Por ejemplo, los centros de contacto o call centers están experimentando una afluencia masiva de datos de los clientes; no obstante, necesitan una manera eficiente de convertir esta información en estrategias para la optimización del negocio. En este sentido, las soluciones de Big Data pueden ser un recurso invaluable.

Mediante el análisis de datos de los clientes, pueden predecir con precisión sus comportamientos y las tendencias para garantizar que la experiencia coincida con sus expectativas. Para ello, estos consejos van dirigidos a cómo las empresas pueden aprender a utilizar Big Data para mantener a los clientes contentos:

 

1. Utilizar datos de los agentes/empleados

Los datos históricos de interacción cliente-agente son un excelente recurso para determinar las fortalezas y debilidades de los trabajadores. Mediante el análisis de los resultados de sus comunicaciones anteriores, es posible determinar su productividad en función de su nivel de habilidad para realizar múltiples tareas, y transferir las llamadas a los diferentes perfiles de trabajadores según las diferentes situaciones del día a día que pueden surgir.

 

2. Implementar análisis predictivo

Mediante el análisis de datos se puede determinar qué factores tienen el mayor impacto en el rendimiento del trabajador, lo que permite desarrollar estrategias adecuadas para aumentar su eficacia, disminuir el volumen de trabajo y mejorar la satisfacción general de los clientes. Se pueden utilizar modelos de análisis predictivo para evaluar qué cambios operativos tendrían el mayor impacto en el rendimiento general de la empresa.

 

3. Analizar la relación con los clientes a través de múltiples canales

La expansión de las nuevas tecnologías significa que las organizaciones con diversos canales de comunicación disponibles deben estar preparadas para manejar estos datos. Los clientes esperan poder contactar a través de llamadas, correo electrónico, redes sociales, aplicaciones para móviles y muchas otras fuentes. Si no se aplica un análisis correcto de los datos en cada uno de estos canales, se está perdiendo la oportunidad de recopilar información valiosa.

Por Héctor Sánchez, Vicepresidente de Ventas para Broadsoft en Latinoamérica

Leer más

Chief Information Officer, el catalizador de la era cognitiva

Chief Information Officer, el catalizador de la era cognitiva

La era cognitiva está sobre nosotros y para competir, las compañías deben tener una infraestructura lo suficientemente robusta para poder habilitar la innovación en sus centros de negocio.

De esta manera, el Chief Information Officer (CIO) puede volverse catalizador y estratega del éxito empresarial gracias al desarrollo de nuevas formas de hacer negocios.

El escenario al que se enfrentan los directores de TI es de total disrupción, en donde 90% de los datos han sido creados en los últimos dos años, 100% de las aplicaciones de negocio están migrando a ser nativas móviles, y para 2020 habrá cerca de 75 mil millones de dispositivos conectados.

Esta explosión de datos requiere de infraestructura capaz de sintetizar cantidades masivas de información extraídas de un ecosistema tecnológico en expansión, para la toma de decisiones más oportuna y el aprovechamiento de nuevas oportunidades de negocio.

Las organizaciones utilizan la analítica de negocio para conocer mejor su funcionamiento e identificar futuras oportunidades, pero los sistemas también pueden transformar el modo en el que piensan, se comportan y funcionan. En la era cognitiva, los sistemas pueden aprender de sus experiencias, encontrar correlaciones, crear hipótesis, recordar los resultados y aprender de ellos.

El roadmap de la nueva infraestructura de IBM abre camino al Big Data y al cómputo cognitivo gracias a alianzas estratégicas como la que desde hace varios la firma tiene con SAP.

Una de las ventajas de estos ecosistemas es su flexibilidad y escalabilidad para acelerar la transformación de la mano de la nube híbrida, un imperativo empresarial estratégico que impulsa el alcance, la innovación y el cambio del modelo empresarial.

Leer más

Tecnocom crea unidad de negocio para la transformación digital

Tecnocom crea unidad de negocio para la transformación digital

Tecnocom presenta MINDx, una nueva unidad de negocio digital que aúna un completo portafolio de soluciones para ayudar a empresas y organizaciones a planificar y hacer efectiva su transformación digital. Esta unidad generó mas  de 40 millones de euros en 2016.

La transformación digital va más allá de renovar sistemas informáticos o comenzar a operar a través de un eCommerce para ampliar los canales de venta, implica un cambio de actitud y entender nuevos conceptos que apenas hace unos años no eran más que palabras sin un significado claro para la mayoría de la población como por ejemplo Cloud Computing, Big Data, Internet of Things, Cyber security. Más bien nos encontramos ante un nuevo paradigma que va a transformar nuestra forma de trabajar, de entender la vida, un mundo lleno de posibilidades pero también de incertidumbres. La combinación de los nuevos dispositivos y de unos consumidores cada vez más digitalizados, están obligando a las empresas a dar el salto tecnológico y afrontar la transformación de sus procesos, servicios y productos. Una transformación que por otro lado se hace necesaria para alinear las empresas a las demandas de una sociedad más móvil, más conectada, más analítica, más omnicanal y más exigente.

Para ello la unidad de negocio MINDx de Tecnocom pone a disposición de sus clientes las herramientas y profesionales clave para llevar a cabo con éxito la trasformación digital de sus negocios. Tecnocom cuenta con profesionales capacitados en diferentes disciplinas como ciencias, tecnología, ingeniería y matemáticas, que bien tienen formación universitaria (informática, telecomunicaciones, ingenieros industriales, diseñadores gráficos y perfiles de negocio) o bien tienen un perfil técnico obtenido a través de la formación profesional superior.

MINDx -acrónimo de Mobility, IoT, aNalytics, Data y eXperience- incluye soluciones basadas en tecnologías de Movilidad que admiten formas de pago adicionales, entregar ofertas personalizadas y comprobar la identidad a través de rasgos únicos como la huella digital o el iris del ojo. En el entorno de Internet de las Cosas, existen plataformas web capaces de recopilar datos y de relacionarse con aparatos cargados de sensores. Asimismo en el contexto de análisis de datos, podemos encontrar desde el tradicional emparejamiento entre causa y consecuencia hasta la disección de problemas para evitar la repetición de los mismos. Soluciones que también permiten la elaboración de planes de contención o el listado de recomendaciones que refinan procesos.

MINDx conforma un completo portafolio de soluciones de Tecnocom para la transformación digital de los sectores productivos e incluye soluciones orientadas a la mejora de los procesos y a la adaptación a los nuevos modelos productivos.

SOLUCIONES DE “MOBILITY”:

Esta sección incluye soluciones para la digitalización documental con validez electrónica; gestión del móvil para uso profesional y personal; soluciones que permiten el pago móvil en todos los comercios o TPVs (autobuses, máquinas de vending, hoteles,..) a los que se pueden incorporar apps para facilitar el comercio electrónico; soluciones para conocer el perfil de los clientes y autenticación biométrica específicas para movilidad.

  • Cero Papel: Una solución para desmaterializar el papel y que distintos procesos se puedan convertir en digitales por medio de aplicaciones móviles que permitan la introducción de datos en un formulario y la posterior aceptación y firma, tanto para sus clientes como sus empleados. Cada paso es certificado y con validez legal.
  • EMM: El servicio EMM (Enterprise Mobility Management), basado en un modelo Cloud/SaaS simplifica la gestión de la movilidad empresarial tanto en entornos BYOD como en dispositivos corporativos.
  • Pago Móvil: Una solución universal para tramitar pagos de tarjeta bancaria a través de un Smartphone, disponible para los dispositivos que operan con la Plataforma para Pago Móvil HCE (Host Card Emulation) de Tecnocom o bien una solución de pago electrónico mediante códigos QR.
  • Personal Advisor: Basado en un smartphone, que detecta la ubicación del cliente con elementos de localización como las etiquetas NFC, o las direcciones IP, ya sea dentro de una tienda o en su hogar al navegar por internet, permite conocer el perfil de cada cliente y anticiparse a sus movimientos.
  • Autenticación Biométrica: La era de las contraseñas ha muerto. Tecnocom ofrece soluciones de autenticación biométrica específicas para movilidad, basadas en el reconocimiento facial, el reconocimiento del iris, la identificación por voz y la identificación de firma manuscrita, aportando protección adicional al manejo información confidencial.

 SOLUCIONES IOT:

Internet de las cosas es capaz de operar como un sistema nervioso central para interconectar órganos muy diferentes. El uso de técnicas de inteligencia artificial dota al sistema de inteligencia propia. Asimismo el uso de sensores permite la recogida de datos para analizar qué está ocurriendo y decidir qué modelos de gestión pueden ser más eficientes, asequibles y rentables en distintos sectores de actividad y entornos.

  • Plataforma IoT: Tecnocom cuenta con una plataforma de  IoT (Internet de las cosas) que permite conectar múltiples sensores que suministran información del activo a controlar y que la plataforma almacena, analiza y genera alarmas y eventos que permiten tomar acciones sobre el elemento controlado. La plataforma dispone de un entorno web para visualizar al detalle diferentes activos sobre un mapa y entre sus aplicaciones se encuentran el control de flotas de vehículos o de contenedores de residuos urbanos, la medición de emisiones de gas y la gestión de contadores de luz y agua.
  • Coche conectado y comunicaciones por voz: Gracias a una aplicación conectada con el sistema de manos libres del coche, el conductor puede emitir órdenes verbales y obtener información contextual en la pantalla del navegador sobre el tráfico o, más allá de la situación de conducción, sobre un cliente.

SOLUCIONES DE ANALYTICS:

Un análisis rápido, sencillo e inteligente de la información de valor procedente de todo tipo de datos cuyo resultado permite a una organización poner a prueba sus estrategias y comprobar cómo afectarán a su desempeño.

  • Analítica Descriptiva: Ofrece un análisis del negocio desde múltiples ejes de observación, ahondando en una visión transversal de la información de valor del Big Data, analizando indicadores clave. Servicios especializados tanto en transformación como en reporting, dashboarding, temas de calidad y autoservicio.
  • Analítica Diagnóstica y Herramientas de Corrección: Combina datos y examina información procedente de la organización e identifica cuáles son los factores que han producido una determinada circunstancia. Incluye soluciones de Data Discovery, Data Mining y de análisis científico de datos.
  • Analítica Predictiva: Ayuda a realizar hipótesis sobre ciertos factores y ver la evolución futura del negocio, evitando equivocaciones. Permite desarrollar criterios de segmentación de clientes y reconocer patrones de fuga, además de definir pronósticos y realizar su seguimiento.
  • Analítica Prescriptiva: Incluye una serie de servicios, herramientas y metodologías que formulen sugerencias de actuación en base a la información que se dispone. Incluye tanto motores de recomendación y modelos de simulación como soluciones de aprendizaje automático y de gestión de la eficiencia corporativa.

SOLUCIONES DE “DATA”:

Soluciones para el control y optimización de los stocks en tiempo real, así como soluciones de inteligencia artificial aplicadas al eCommerce.

  • Control de la información: Un conjunto de soluciones que informan con exactitud y al momento sobre cuál es el stock gestionado, automatizan los pedidos, reducen la carga de seguridad y optimizan la cadena de suministro.
  • Inteligencia artificial y Big Data: Un sistema de Inteligencia Artificial para el análisis de sentimientos, orientado a la gestión integral de call centers en el marco de las plataformas de eCommerce que proporcionan al teleoperador acceso instantáneo a toda la información vinculada a las peticiones recibidas y al procedimiento a aplicar en cada caso, incrementando la eficiencia y la calidad del servicio prestado.

SOLUCIONES DE “EXPERIENCE”:

Que permiten la gestión de productos por varios canales, mejoran la experiencia de los usuarios a través de técnicas de marketing digital para maximizar el retorno de la inversión. Así como soluciones de formación de última generación para el aprendizaje online.

  • Omnicanalidad: Un verdadero ecosistema para la gestión centralizada de información de los canales online que apuesta por la visibilidad, simplifica la administración, aúna campañas SEM y estrategias SEO, ahorra costes, tiempo de desarrollo y mantenimiento e integra la parte de analítica. Su diseño coherente fortalece además la experiencia de usuario en puntos clave como la navegación entre productos y el proceso de compra, e incrementa los ratios de conversión.
  • User Experience: Una solución completa en relación a la experiencia de usuario basada en la confección de productos exitosos, aplicando arquitectura de la información, diseño de la interacción, diseño de la interfaz de usuario y diseño visual. Incluye evaluaciones de usabilidad, de sitios web o aplicaciones, y de soluciones de eCommerce.
  • Marketing online, del SEO al Retargeting: Aporta análisis y evaluación del tráfico online con métricas que maximizan el retorno de la inversión, así como planes de reputación y marketing online de resultados, comunicación y promoción en redes sociales, dinamización a través de Community Management, posicionamiento de productos con Google Shopping, estrategias de Paid Social y negociación con redes de afiliación para campañas orientadas a venta.
  • Servicios de Digital Learning: Ofrece soluciones digitales en los campos de la formación, la documentación y la información. También cubre los ámbitos de la promoción y el entretenimiento. Ofrece material tanto sobre tecnologías populares como de última generación: videostreaming, realidad virtual, realidad aumentada o realidad mixta.
Leer más

Pure Storage anuncia FlashBlade para cargas de trabajo no estructuradas

Pure Storage anuncia FlashBlade para cargas de trabajo no estructuradas

Pure Storage, principal proveedor independiente de equipos de almacenamiento en estado sólido, anunció el día de hoy que su segundo producto, FlashBlade, diseñado para cargas de trabajo no estructuradas de alto rendimiento, se encuentra disponible para el público en general y listo para envío con blades y capacidad de almacenamiento de 8.8 TB y 52 TB con el software Elasticity 1.2.

En la actualidad, los ingenieros, científicos y desarrolladores buscan un nuevo tipo de plataforma de almacenamiento que pueda brindar un rendimiento extremadamente veloz a lo largo de una extensión masiva de datos y conectar a los clientes de manera sencilla y simplificada. FlashBlade proporciona esa plataforma sin las complejidades ni los costos que implican los sistemas legados o complejos.

FlashBlade, que se anunció por primera vez en marzo de 2016, se distribuyó de forma limitada desde julio del mismo año, y ha ganado considerable terreno en todas las industrias y mercados verticales que han transformado sus modelos de negocio, sus ventas y el desarrollo de sus productos, impulsados por la expansión y el análisis de datos críticos. El anuncio de su disponibilidad general permite que todos los socios del canal de distribución vendan FlashBlade a nivel mundial.

Dada la constante digitalización de la economía mundial, la información es el principal elemento diferenciador y la base para la competitividad. Las empresas han comenzado a invertir tanto en profesionales en ciencia de datos, así como en herramientas para obtener valor de los mismos. El almacenamiento de cargas de trabajo con gran volumen de datos está proliferando y se está empleando para el análisis en tiempo real y de Big Data, secuenciación de genomas, análisis avanzado en deportes profesionales, análisis financiero, exploración de petróleo y gas y plataformas de juegos en línea a gran escala, cada uno de estos sectores está impulsando nuevas necesidades de almacenamiento.

“Cada vez más empresas de TI están recurriendo al análisis de Big Data con el fin de generar mayores ingresos, mejorar el servicio al cliente, identificar nuevas oportunidades en el mercado y tomar mejores decisiones comerciales. Las necesidades de cargas de trabajo para analizar Big Data no se satisfacen con arquitecturas de almacenamiento tradicionales y, en 2016 se obtuvieron los primeros ingresos por un nuevo tipo de plataforma 100% flash, flash para Big Data, específicamente diseñado para este tipo de entornos”, afirmó Eric Burgener, Director de Investigaciones de Almacenamiento en IDC. “Las plataformas de almacenamiento flash para Big Data están optimizadas para manipular conjuntos de información no estructurada muy grandes, con alto grado de concurrencia, a la vez que ofrecen el desempeño y confiabilidad que caracterizan al flash. FlashBlade de Pure Storage, ya se ha implementado en diversos mercados verticales, es uno de los primeros competidores en este nuevo mercado, mismo que IDC espera que genere 1,050 millones de dólares para 2020”.

Las organizaciones han acelerado la transición del análisis de datos históricos desde clásico modo por lote, hacia la analítica en tiempo real e iterativa, impulsada en gran medida por la adopción de Apache Spark y tecnologías similares, al mismo tiempo que el Big Data toma velocidad. La analítica moderna, junto con el almacenamiento de archivos y objetos escalable de alto rendimiento, se han convertido en componentes esenciales para acelerar la innovación, llegar a los clientes y prospectos en tiempo real y favorecer decisiones informadas. Sin información, las empresas se arriesgan a perder ganancias, productividad y su ventaja competitiva.

“FlashBlade ayuda a Pure a cumplir con su promesa central de ayudar a los clientes de todas las industrias a aprovechar al máximo su información a escala masiva. FlashBlade no solo se optimizó para el creciente mundo de los datos no estructurados, también se diseñó para revolucionar la manera en que las empresas innovan gracias a esa información”, afirmó Scott Dietzen, Director General de Pure Storage. “A través del excepcional trabajo de nuestros clientes beta y de disponibilidad dirigida, hemos constatado el potencial de FlashBlade, no solo para transformar la labor de ingeniería y las cargas de trabajo creativas, sino para cambiar y aumentar las posibilidades en medicina, ciencias y seguridad”.

FlashBlade es un sistema flexible de escalabilidad horizontal que ofrece rendimiento de almacenamiento 100% flash a los conjuntos de datos con escalas de múltiples petabytes; todo a un precio comparable con el de los equipos híbridos legados. Optimizado para uso masivo, gran ancho de banda, alto rendimiento de operaciones de entrada/salida por segundo (IOPS) y baja latencia constante en tan solo cuatro unidades de rack, FlashBlade está equipado para direccionar todas las cargas de trabajo generadas por las aplicaciones de alto desempeño de la actualidad. FlashBlade es fácil de instalar, implementar y operar, lo cual permite acelerar el tiempo en el que los clientes obtienen un análisis significativo de la información. Juntos, FlashBlade y FlashArray de Pure Storage forman una plataforma completa que permite a las empresas construir su propia nube 100% flash y ganar ventaja a partir de su información.

Para obtener más información sobre cómo FlashBlade puede acelerar la innovación para su empresa, o para analizar otras historias de clientes y casos de uso, por favor visite nuestro blog para consultar una serie de publicaciones desde ahora y hasta el inicio de Pure//Accelerate del 12 al 14 de junio 2017

Leer más

Ciena presenta Network Health Predicque para tener redes más inteligentes

Ciena presenta Network Health Predicque para tener redes más inteligentes

La funcionalidad más reciente en la cartera Blue Planet de Ciena (NYSE: CIEN), Blue Planet Analytics genera un profundo entendimiento de la red a través de big data para ayudar a los operadores de redes a tomar decisiones de negocio más inteligentes, respaldadas por datos. Como parte de la estrategia general destinada a habilitar una red totalmente autónoma vía Blue Planet, la nueva funcionalidad, junto con sus aplicaciones, brindan a los operadores la posibilidad de visualizar e identificar tendencias para crear servicios más rentables, predecir mejor las necesidades de capacidad y prever posibles interrupciones en las redes y servicios antes de que ocurran.

Blue Planet Analytics combina las herramientas de análisis con la orquestación y políticas. Utiliza el aprendizaje automático en los datos recopilados de múltiples fuentes con el fin de mejorar la experiencia del usuario final y simplificar las operaciones de la red. Por ejemplo, Blue Planet Analytics y la aplicación Network Health Predictor (NHP) avisarán al operador de la red, con suficiente antelación, si algún elemento de la red pudiera presentar un desperfecto y requiere de atención. Con Blue Planet Analytics y NHP, el operador de la red no solo evita incurrir en costosos tiempos de inactividad de la red y disminuye los costos de reparación y mantenimiento, sino que también continúa proporcionando al cliente una experiencia de usuario positiva y sin interrupciones.

Factores clave:

  • Al integrar las herramientas de análisis de la red con los sistemas de orquestación y políticas, Blue Planet Analytics ayuda a los operadores a seguir por un camino que conduce a una red más autónoma y constituye una evolución estratégica de la suite de software Blue Planet de Ciena.
  • Construida a partir del diseño abierto de Blue Planet y una arquitectura basada en microservicios ampliable, Blue Planet Analytics es compatible con la recopilación de datos de cualquier fuente, incluyendo múltiples proveedores, capas de red, así como dominios físicos o virtuales. También puede aprovechar los sistemas de clúster de big data de terceros como Hadoop, Cloudera y Hortonworks.

Ciena está aportando al mercado dos nuevas y potentes funcionalidades:

  • Blue Planet Analytics – una infraestructura de software robusta y flexible para recopilar y normalizar datos de cualquier fuente a través de la red y para integrarse con aplicaciones analíticas de capa superior de Ciena o de terceros.
  • NHP – una nueva aplicación diseñada para funcionar con Blue Planet Analytics, que proporciona seguridad proactiva y visualización avanzada de la red, evaluando de forma inteligente la probabilidad de fallas en las capas óptica, de Ethernet y de IP antes de que puedan impactar al cliente final. NHP es el primer elemento de lo que será una familia de aplicaciones analíticas para Blue Planet Analytics.

 

  • Los beneficios de Blue Planet Analytics también están disponibles “como servicio” a través de Ciena Specialist Services. Analytics Services utiliza Blue Planet Analytics y aplicaciones relacionadas para ayudar a los operadores a percatarse inmediatamente de los beneficios de los datos masivos, la automatización inteligente y las operaciones.
  • Blue Planet Analytics y el NHP estarán disponibles en febrero de 2017.

Comentarios de ejecutivos:

  • “El análisis de datos en tiempo real se está convirtiendo rápidamente en una prioridad para los operadores: al mismo tiempo es una fuente de conocimiento invaluable sobre el desempeño, las tendencias y los posibles problemas de la red, como un elemento que posibilita la automatización mejorada, que les permitirá obtener realmente los beneficios de la virtualización y la migración a la nube. Los operadores están mostrando un gran interés por infraestructuras operativas abiertos que puedan incorporar aplicaciones analíticas de parte de múltiples proveedores, como apoyo a la automatización de la red inteligente. Blue Planet Analytics de Ciena lidera una tendencia más amplia hacia proveedores que incorporan herramientas de análisis basadas en microservicios e impulsadas por políticas, en las plataformas de orquestación y gestión NFV/SDN”.-Dana Cooperson, Directora de Investigación en Analysys Mason.

 

  •  “Hace tiempo que venimos anticipando de qué modo las nuevas tendencias emergentes, como 5G, IoT y la virtualización, cambiarían la esencia de las redes e impulsarían nuevos modelos de negocio. Como extensión natural de nuestra suite de software Blue Planet, nuestra nueva funcionalidad analítica y la aplicación NHP ofrecen a los operadores un poderoso mecanismo destinado a mejorar el desempeño de la red y acelerar la transición de nuestros clientes hacia una red más inteligente, automatizada y rentable”. -Nirav Modi, Vicepresidente y Gerente General de Blue Planet en Cien.
Leer más

6 predicciones de Big Data para 2017

6 predicciones de Big Data para 2017

Hoy todo está conectado. Smartphones, laptops, máquinas con sensores, vehículos y aplicaciones. Todos los aparatos mencionados anteriormente y sus conexiones generan cantidades masivas de data.

Esta información, para las compañías que sepan utilizarla y administrarla, puede representar una gran oportunidad y una fuente de conocimiento que les dé ventaja frente a sus competidores.

En este sentido, el Big Data impacta todas las industrias y a los individuos también, desde profesionales de TI y líderes de negocio, hasta los consumidores finales.

De ahora en adelante, observaremos los siguientes escenarios:

  • Quienes estén de compras en una boutique podrán recibir descuentos o direcciones de tiendas de posible interés mientras adquieren sus piezas favoritas, basados en sus gustos y preferencias.
  • Los consumidores online pueden obtener ofertas personalizadas de productos y servicios.
  • Los fabricantes pueden medir el éxito de un producto nuevo en cuestión de días, no en semanas.
  • Los conductores pueden tener acceso fácil a lugares de estacionamiento en la calle, basados en datos reales que interaccionan con sus dispositivos inteligentes.

 

Big Data y la nube son dos tecnologías que hacen posible la transformación digital en el mundo. Ahora que comienza 2017, existen nuevas tendencias que se apoderarán de todas las industrias. Es importante que las compañías estén preparadas para reaccionar adecuadamente y que puedan aprovechar las nuevas tecnologías para estar delante de sus competidores.

A continuación, algunas predicciones:

 

1. La era de la máquina omnipresente ha llegado

El aprendizaje automático ya no es exclusivo de grupos dedicados a la recaudación de data. La importancia y adopción de la habilidad de aplicar el conocimiento obtenido a través de la automatización a una gran variedad de data, está incrementando. Existirá un gran crecimiento en la transformación de este tipo de aprendizaje, a herramientas para analistas de negocios y consumidores finales; en consecuencia, habrá un impacto en cómo corporaciones e instituciones de Gobierno ejecutan sus labores. El aprendizaje automático afectará la interacción del usuario con absolutamente todo: el seguro personal, la electricidad, el sistema de salud y hasta el estacionamiento público. La era de la máquina omnipresente finalmente ha llegado.

 

2. Si la data no se puede mover, la nube va a la data

No siempre podemos trasladar la data a un centro de datos externo. Términos de privacidad, regulaciones y soberanía de datos son temas a considerar. En ocasiones, el volumen es tal que el costo de movilizarla es mayor que los posibles beneficios. La repuesta siempre está en la implementación de la nube. En el futuro, más y más organizaciones deberán desarrollar estrategias de este tipo para manejar la data en múltiples locaciones y tener mayor campo de acción.

 

3. Las aplicaciones, no solo analíticos, impulsarán la adopción de Big Data

Los primeros casos de uso de tecnología de Big Data se centraron principalmente la eficiencia de TI, el procesamiento de datos a gran escala y los patrones de solución analítica. Ahora existe una amplia variedad de necesidades específicas de la industria, impulsadas por las empresas que, a su vez, potencian una nueva generación de aplicaciones de aplicaciones dependientes de Big Data, las cuales continúan impulsando su adopción.

 

4. El Internet de las Cosas (IoT) integrará las aplicaciones de la empresa

El Internet de las cosas es más que objetos inanimados. Todo, desde proveer un sistema de salud para mejorar la asistencia a pacientes hasta maximizar la experiencia del consumidor a través de aplicaciones en dispositivos móviles, requiere un monitoreo constante y una ejecución basada en la data que las personas generan, a través de los equipos con los que interactúan. Las compañías deben simplificar el desarrollo de las aplicaciones de IoT para integrar rápidamente esta información a sus aplicaciones de negocio. Al fusionar las nuevas fuentes de datos con Analytics, en tiempo real e información del comportamiento del usuario, se pueden desarrollar una nueva generación de aplicaciones en la nube capaz de adaptarse y aprender rápidamente. El impacto se sentirá no solo en el mundo de los negocios, sino también en los proyectos globales de las ciudades y naciones inteligentes.

 

5. La virtualización de la data será la luz al final del túnel

En las compañías, los silos de data proliferan en plataformas como Hadoop, Spark y NoSQL. La data con un valor potencial se queda en la oscuridad y, por ello, es difícil acceder a esta (también encontrarla). La virtualización de la data está emergiendo como un camino para poner foco a la data que hoy tiene poca visibilidad, mientras se minimiza el movimiento de la misma.

 

6. La arquitectura del cómputo de próximas generaciones permite aprendizajes profundos en una nube escalable

Capas de virtualización, tecnologías de aceleración (GPUs y NVMe), el posicionamiento óptimo de almacenamiento y cálculo, una red de alta capacidad y facilitadora, son parte de la convergencia, y juntos permiten arquitecturas en la nube que realizan mejoras de orden de magnitud en computación, ¿El resultado? Un aprendizaje profundo, escalable y una integración sencilla con aplicaciones del negocio y sus procesos.

Por Balaji Thiagarajan, Oracle Group Vice President, Big Data

Leer más

Merck, la compañía farmacéutica alemana, utiliza Big Data

Merck, la compañía farmacéutica alemana, utiliza Big Data

El gigante químico farmacéutico Merck utilizará el software de Palantir Technologies para obtener datos que le permitan desarrollar productos más rápidamente.

En un principio, las compañías se enfocarán en el tratamiento y servicios para pacientes con cáncer. Se tiene planeado extender eventualmente las herramientas de datos a todas las divisiones de la compañía alemana.

Palantir comentó que desarrollará herramientas adaptadas a los investigadores de Merck, ayudándolos a orientar mejor a los pacientes potenciales para hacerles llegar el desarrollo de fármacos y mejorar la eficiencia de las cadenas de suministro de los medicamentos existentes.

Merck pretende funcionar los datos recopilados por sus investigadores con otra información bioinformática, para lograr orientar mejor a los pacientes con cáncer que podrían beneficiarse de los nuevos fármacos y permitir además el desarrollo de nuevos medicamentos más eficientes.

Para Palantir este acuerdo con Merck es el más grande que ha conseguido en el sector farmacéutico, superando incluso a otras grandes compañías del sector.

Con información de Bloomberg

Leer más

Red Hat lanza OpenShift Dedicated on Google Cloud Platform

Red Hat lanza OpenShift Dedicated on Google Cloud Platform

Red Hat anunció la disponibilidad general de OpenShift Dedicated on Google Cloud Platform. Este nuevo producto ofrece la multipremiada plataforma de contenedores de Red Hat como un servicio gestionado a los clientes empresariales que deseen desarrollar, lanzar y administrar sus aplicaciones con OpenShift Dedicated on Google Cloud Platform como su infraestructura para la nube. De esta forma, los usuarios pueden acelerar la adopción de contenedores, Kubernetes y patrones de aplicaciones nativas en la nube, aprovechando la vasta experiencia de Red Hat en el segmento empresarial. También obtienen las ventajas de la infraestructura global de Google optimizada para contenedores y pueden ampliar sus aplicaciones más fácilmente a través del ecosistema de servicios de big data, machine learning (aprendizaje automático), cómputo, red y almacenamiento de Google.

Red Hat presentó OpenShift Dedicated en diciembre de 2015 como respuesta a aquellos clientes que buscaban acelerar la adopción de contenedores y patrones de aplicaciones nativas en la nube, pero que deseaban enfocarse más en el desarrollo e implementación de las aplicaciones que en las tareas administrativas y de gestión operativa. Con OpenShift Dedicated, Red Hat actúa como un proveedor de servicios, gestionando OpenShift Dedicated y brindando soporte líder de la industria, ayudando a reducir los tiempos y a optimizar el uso de los recursos de los clientes.

OpenShift Dedicated se diseñó a partir de la misma base de código que Red Hat OpenShift Container Platform (una plataforma de escala empresarial gestionada por el cliente), lo cual permite a los clientes trasladar sus cargas de trabajo fácilmente entre las nubes públicas y privadas. Para ayudar a los usuarios a comenzar a trabajar con contenedores, OpenShift Dedicated – junto con el resto de la cartera de OpenShift – ofrece una plataforma de contenedores para la empresa más segura apoyándose en Red Hat Enterprise Linux, la plataforma Linux empresarial comprobada y confiable de Red Hat.

OpenShift Dedicated on Google Cloud Platform incluye:

  • Aislamiento de usuario único y un conjunto de recursos de almacenamiento persistente SSD de 100 GB, 48 TB de IOPS en la red y nueve nodos para implementar aplicaciones basadas en contenedores.
  • Controles administrativos y de seguridad que permiten a los clientes personalizar y acceder con mayor seguridad a sus entornos de nube a través de funciones VPN y Google Virtual Private Cloud (VPC).
  • Acceso a los servicios y a las capacidades de integración y de procesos de negocio de Red Hat JBoss Middleware optimizados para contenedores desde las aplicaciones desarrolladas e implementadas en OpenShift.
  • Disponibilidad en las seis regiones del mundo donde opera Google.
  • Integración con los servicios de Google Cloud, incluyendo: Google Cloud PubSub, Google Big Query y Google Cloud Big Table.

Además de estas capacidades, Red Hat también ofrece sus servicios profesionales para ayudar a los clientes a migrar sus cargas de trabajo en contenedores, adoptar procesos de entrega continua y de DevOps y construir aplicaciones basadas en los microservicios con OpenShift Dedicated on Google Cloud Platform. Y a través de los Red Hat Open Innovation Labs y de los talleres de Red Hat Consulting, Red Hat puede apoyarlos en la elaboración de un plan para sus iniciativas de transformación digital, con la ayuda de un equipo especializado de consultores técnicos de Red Hat.

Colaboración en el desarrollo de Kubernetes: Red Hat + Google

Red Hat es el segundo colaborador del proyecto de desarrollo de código abierto de Kubernetes, en el que colabora con Google para ayudar a promover el proyecto de orquestación de contenedores y gestión de clústeres a través de innovación potenciada por la comunidad desde su lanzamiento. Ambas empresas han estado colaborando para optimizar la escalabilidad, la capacidad multiusuario y la alta disponibilidad de los Kubernetes, el pilar de OpenShift, el cual proporciona una versión de Kubernetes y del tiempo de operación de los contenedores de Docker de nivel empresarial que esperaban los desarrolladores, a la vez que brinda a los usuarios un mayor control sobre el proceso de diseño y aislamiento de sus aplicaciones. Durante los últimos cuatro años, Red Hat ha alojado casi tres millones de aplicaciones y cuatro mil millones de solicitudes por día a través de sus plataformas de nube pública OpenShift, OpenShift Dedicated y OpenShift Online.

El valor empresarial de OpenShift

Un reciente estudio desarrollado por IDC (1) sobre el valor empresarial de OpenShift, solicitado por Red Hat, reveló que OpenShift permite a los clientes responder a los requerimientos del mercado con mayor velocidad al proveer aplicaciones de misión crítica basadas en los microservicios mediante procesos DevOps. Estos beneficios incluyen, entre otros, tiempos de entrega de aplicaciones 66% más veloces, 1.29 millones en beneficios anuales cada 100 desarrolladores de aplicaciones, y un promedio de ROI del 531% cada cinco años. Con OpenShift Dedicated, los clientes empresariales pueden sacar provecho de estos beneficios mediante un servicio gestionado en la nube, operado por Red Hat sobre Google Cloud Platform.

Disponibilidad

OpenShift Dedicated on Google Cloud Platform ya está disponible para los usuarios que posean una suscripción vigente de Red Hat OpenShift Container Platform.

 Citas de apoyo

Ashesh Badani, vicepresidente y gerente general, OpenShift, Red Hat

Con OpenShift Dedicated, OpenShift actúa como la capa de abstracción a través de múltiples nubes. Al expandir OpenShift Dedicated para ser utilizada en Google Cloud Platform, las aplicaciones de nuestros clientes que utilizan OpenShift Dedicated pueden ahora beneficiarse de Google Cloud Services, demostrando nuestra visión de ofrecer una plataforma verdaderamente portable a través de múltiples nubes y plataformas de infraestructura”.

 Nan Boden, head of Technology Partners, Google Cloud

“Los clientes nos dicen constantemente que están buscando soluciones abiertas que les permitan utilizar tanto infraestructuras públicas como privadas; quieren poder elegir. Red Hat ha sido un socio clave en posibilitar la disponibilidad de Kubernetes para las empresas que requieren el soporte y la flexibilidad necesarios para gestionar una nube híbrida. Estamos profundamente comprometidos a trabajar con aliados como Red Hat para ayudar a nuestros clientes a operar en el mundo digital.”

Leer más
Página 1 de 2412345...10...»»