Machine learning aplicado en la experiencia del cliente

Machine learning aplicado en la experiencia del cliente
Uno de los mayores y principales retos en el mundo empresarial reside en satisfacer las necesidades del consumidor. Esto se vuelve cada vez más difícil debido a la constante evolución del mismo con la existencia de más y muy diversos canales de comunicación e interacción con los usuarios.

Esta transformación, que parte de los avances tecnológicos, obliga a las empresas a realizar innovaciones y actualizaciones en diversas materias. Una de ellas consiste en la introducción de la robótica, incluida no sólo en tareas de producción, sino en trabajos que siempre se pensaron que serían desempeñados por humanos, como la atención al cliente.

De esta forma, la inteligencia artificial (IA) comienza a ser más importante y trascendente dentro de las empresas porque al considerar que la IA puede evitar la realización de tareas repetitivas y que maximiza la productividad de los profesionales en las áreas de atención al cliente, se presenta una gran oportunidad para que los empresarios conjuguen ambas actividades para sacar más provecho a sus operaciones.

 

Innovación paulatina

Una pregunta obligada es cómo incorporar el aprendizaje automático (machine learning) en la atención al cliente para mejorar su experiencia. En principio, debemos comprender que el machine learning permite a los dispositivos aprender por sí mismos con base en patrones, ejemplos y búsquedas.

Este reconocimiento de patrones permite extraer información que establece características o propiedades comunes entre datos diversos. De tal forma, se abre la posibilidad de analizar patrones con cantidades mínimas de información.

El machine learning conoce el detalle del comportamiento de los usuarios y detecta qué contenido se debe optimizar o agregar para mejorar la experiencia del cliente. Se pueden derivar reportes cuantitativos y cualitativos con información de alto valor para conocer qué es lo más importante para los clientes y cómo puede mejorarse.

 

Preguntas frecuentes

Una de las maneras de poder crear una base de conocimientos que sea de utilidad para el machine learning es revisando las preguntas más frecuentes que llegan al servicio de ayuda. Asimismo, redactar las respuestas para algunas de las preguntas más formuladas será de gran ayuda para limpiar o filtrar la información que las empresas desean atender de manera inmediata.

A través de la atención de un agente virtual, las compañías pueden revisar las palabras más repetidas en la interacción, o el problema más común. Por ejemplo si la palabra “factura” se repite en mayor medida en las conversaciones, se podrá analizar la problemática y dar solución de una manera más rápida y efectiva.

En México, en el sector de Telecomunicaciones, por ejemplo, la mayor cantidad de quejas e inconformidades recibidas por parte de los usuarios están relacionadas con problemas con los servicios de Internet o con aclaraciones de pagos. De acuerdo al Informe Estadístico Soy Usuario 2016 emitido por el Instituto Federal de Telecomunicaciones (IFT), respecto a las empresas que prestan servicios fijos (internet, telefonía y televisión de paga), el promedio de tiempo de respuesta para una queja es de 10.4 días hábiles.

No hay que olvidar que la asistencia virtual brinda un mejor servicio de forma personalizada y precisa, entregando mejores resultados en el corto y mediano plazo a las empresas.

Fuente: AIVO

Leer más

Amazon impulsa Inteligencia Artificial y Machine Learning

Amazon impulsa Inteligencia Artificial y Machine Learning

Amazon impulsa la Inteligencia Artificial para mejorar la entrega de sus productos, además de perfeccionar Alexa, su asistente activado por voz, así como crear nuevas herramientas en su división de computación en nube, comentó Bezos en una carta anual de accionistas.

El gigante del comercio electrónico invertirá en Inteligencia Artificial y Machine Learning, que son temas necesarios para operar un negocio que mantenga una mentalidad de iniciativa y la capacidad de actuar rápidamente sobre información limitada, para mantenerse a la vanguardia, lo que Bezzos  llama ‘tomar decisiones a gran velocidad’.

Machine Learning se conoce como la tecnología para que las computadoras puedan actuar sin ser programadas, por lo cual son utilizadas en coches autónomos, reconocimiento de voz y motores de búsqueda en Internet. La tecnología ha influido en proyectos de alto perfil de Amazon como el lanzamiento de drones; su popular altavoz activado por voz Echo y la nueva tienda de conveniencia Amazon Go sin cajero, informó Bezos.

‘Machine learning aportará mejoras significativas en las operaciones básicas, pero gran parte de lo que hacemos con esta tecnología sucede bajo la superficie. La tecnología de aprendizaje impulsa nuestros algoritmos para la previsión de la demanda, ranking de búsqueda de productos, recomendaciones de productos y ofertas, así como colocaciones en merchandising, detección de fraudes, traducciones y mucho más’, apuntó Bezos.

El ejecutivo agregó que Amazon Web Services, la división de Cloud Computing de la compañía, ofrecerá herramientas asequibles para que los clientes puedan incorporar Inteligencia Artificial y Machine Learning en sus propias operaciones. Estas herramientas ya han sido utilizadas para detectar enfermedades y aumentar los rendimientos de los cultivos.

Con información de Bloomberg

Leer más

8 tendencias de tecnología y negocios para 2017

8 tendencias de tecnología y negocios para 2017

Un cambio importante ha estado ocurriendo en los últimos años y que afecta al mundo: el rápido crecimiento de la tecnología y la rápida adopción por parte de las empresas y las personas.

La Singularity University en Estados Unidos determinó que estamos pasando de un mundo lineal a otro muy global. Esta nueva realidad nos obliga a cambiar la forma en que vemos las cosas, cómo pensamos y cómo reaccionamos.

La tecnología ha transformado la forma en que interactúan las personas, tanto en su vida personal y profesional (las posibilidades de que usted esté leyendo esto en un dispositivo móvil, ya sea smartphone o tablet son enormes). Las empresas no sólo deben estar preparadas para atraer y retener el talento y que se sienta cómodo con estas nuevas características, también tienen que aprender que su negocio puede beneficiarse de ellos.

A continuación se muestran ocho tendencias de la tecnología y negocios que ya cuentan con ejemplos prácticos en el mercado y que afectarán a todo el mercado en los próximos 12 meses.

 

  1. El crecimiento exponencial de la tecnología – Vamos a vivir de forma muy rápida, mejoras en tecnologías cada vez más accesibles a los costos más bajos. Por lo tanto, se podrán desarrollar mejores productos y servicios con un gasto menor. Algunos ejemplos de tecnologías sobre este crecimiento son: Inteligencia Artificial, impresión 3D, robots y aviones, automóviles autónomos, realidad virtual y aumentada, bitcoin y blockchain, biotecnología y otros.

 

  1. El acceso global a Internet – Internet es el principal responsable de la transformación descrita anteriormente y su crecimiento no se detiene. Se tardó 20 años en alcanzar los primeros mil millones de usuarios, sólo cinco años para llegar a los dos mil millones y otros cuatro años para tres mil millones. Para el año 2020, es decir, en tres años, se estima que más de tres mil millones de usuarios se conectarán a la red. Estas serán las personas que nunca accedieron a la web, nunca hicieron una compra en línea y que traen consigo nuevas ideas y reivindicaciones. Muchos de ellos llegarán a la WWW en 2017 y con ellos, las nuevas oportunidades de negocio. El oneweb, por ejemplo, una empresa estadounidense enfocada en proveer Internet de alta velocidad asequible para el mundo, se comprometió a acelerar el lanzamiento de “una constelación de satélites” en 2017 y 2018 con el fin de satisfacer esta demanda acumulada a través de estos dispositivos.

 

  1. Conectividad – En la década de 1960, las computadoras eran recursos raros y demasiado caros para que una sola persona los tuviera. Así es como surgió el concepto de compartir, por lo que un grupo de personas podrían acceder al mismo sistema por turnos. Hoy en día, el fácil acceso a la computadora está representado por los dispositivos conectados a Internet y entre sí. Por lo tanto, hoy muchas empresas son capaces de crear una interacción entre las personas y ofrecer cosas nunca antes pensadas – como hubs de automatización del hogar con reconocimiento de voz que reproduce música, hace listas de tareas e informa datos en tiempo real del tiempo y el tráfico.

 

  1. Inteligencia Artificial – El casi infinito acceso a la potencia de cálculo ha sido el principal catalizador de la gran evolución de la Inteligencia Artificial. Esta combinación de técnicas y algoritmos, (el más destacado es la Machine Learning y uno de sus aspectos – el Deep Learning) pretende formar a las máquinas que tienen las mismas capacidades que los seres humanos, como el razonamiento, la planificación, el procesamiento del lenguaje natural, la percepción y la inteligencia general. En este sentido, el ambiente de trabajo en varias industrias verá que la IA en realidad sucede en el año 2017, pero no para reemplazar el trabajo hecho por la gente. En esta primera etapa, la máquina servirá para aumentar nuestras capacidades cognitivas, especialmente la tecnología capaz de procesar un volumen de datos muy superiores al ser humano.

 

  1. Disrupción de la Industria – Veamos el ejemplo de la música. Hace mucho tiempo para escuchar tu música favorita en cualquier momento tenías que comprar un CD con un álbum entero –de 80 minutos porque era lo que cabía en ese dispositivo– y también tener donde reproducirlo. Para compartir esa música con alguien, había que prestarle su CD, pero después todos los aspectos de esta descripción cambiaron. Hoy tiene la demanda de servicios de música y sólo se oye un álbum completo si lo desea. Y estos cambios drásticos no son exclusivos de la industria de la música. Grandes avances en la tecnología y aplicaciones empresariales provocaron la interrupción de la experiencia de las personas. Y aquí no estoy hablando sólo de la experiencia del usuario final. La industria en su conjunto dejará de existir y, cada vez más, vemos un cambio en la forma de pensar e interactuar con los productos y servicios en prácticamente todos los segmentos. Lo que me lleva al siguiente punto.

 

  1. Evolución de los modelos de negocios – El fácil acceso a la tecnología está permitiendo a los nuevos modelos de negocio ponerse a prueba de una manera sencilla y económica. Grandes innovaciones ocurren en años y ya no en décadas –y caminamos rápido para semanas o meses. Negocios de billones de dólares serán creados en pocos meses. Cuando surgen estos nuevos modelos, la tecnología se convierte en una parte clave de la estrategia y las empresas deben replantearse las habilidades más importantes y reinventar. Las organizaciones necesitan identificar el valor de su negocio, como el precio y luego comenzar a hacer cambios en la forma en que venden y cobran por sus productos. Este movimiento no es fácil y no sucede de la noche a la mañana, sin embargo, en 2017 vamos a ver más y más empresas en busca de una cultura digital.

 

  1. La experiencia digital – La gente ya tiene experiencias digitales en su día a día, compartiendo sus datos con aplicaciones como Uber o Waze para tener el beneficio de un mejor servicio de transporte. En el trabajo, los mensajes y aplicaciones de video y las plataformas que permiten la gestión de documentos, flujos de trabajo, entre otros, permiten una mayor interacción entre departamentos –independientemente de donde se asigna a cada equipo. Por lo tanto, el proceso de crear y compartir el conocimiento es cada vez más rápido. Con toda la información que genera la economía del compartir, las empresas necesitan –y los consumidores esperan de ellos– identificar los comportamientos y usar esto para encontrar valor en nuevos lugares. Los chatbots se adoptarán el próximo año, precisamente porque son una respuesta a esta demanda. La gente quiere responder a ciertas preguntas, buscar información o hacer sus reclamos en la misma forma en que obtuvo ese producto o servicio: digitalmente.

 

  1. Cambios en la propuesta de valor – Los datos son la fuerza impulsora detrás de la próxima gran ola en la búsqueda de la propuesta de valor. Es esta combinación de calidad de los datos y la inteligencia de que las empresas están centrando sus esfuerzos tecnológicos en aumentar el poder de sus redes, en lograr conectividad ilimitada y en utilizar la potencia de cálculo para recopilar, agregar, correlacionar e interpretar los datos y por lo tanto, aportar mejoras dramáticas en la vida de las personas.

 

El principal reto es adaptar la mentalidad y el proceso de adopción de este nuevo mundo cambiante, ya que la innovación y la irrupción pueden venir de cualquier parte, en cualquier momento. Además de centrarse en sus competencias básicas, las empresas tienen que aprender a utilizar la tecnología como un conocimiento adicional que ya tienen en casa.

Por Vicente Goetten, director ejecutivo de TOTVS Labs

Leer más

Google crea Perspective para atacar trolls en la red

Google crea Perspective para atacar trolls en la red

Google lanzó Perspective, una herramienta de inteligencia artificial para que los medios de comunicación puedan detectar de forma automática los comentarios ‘tóxicos e irrespetuosos’.

‘Perspective es una tecnología que utiliza el aprendizaje automático (machine learning) para identificar los comentarios tóxicos. Y por toxicidad entendemos aquellos comentarios que llevan a alguien a abandonar una conversación’, explicó el responsable de la iniciativa, Jared Cohen.

Para dimensionar la magnitud del problema, el 47% de los usuarios de Internet en Estados Unidos ha sufrido acoso; un 72% sido testigo de este abuso, y casi un tercio se autocensura a la hora de poner un mensaje por miedo a las consecuencias.

Perspective analiza los comentarios y detecta el grado de toxicidad de las conversaciones, ofreciéndole a medios y plataformas de internet la información detallada en un marcador que va de cero a cien.

Un algoritmo compara los comentarios analizados con otros que anteriormente fueron categorizados como tóxicos. También dispone de un sistema que se corrijan evaluaciones erróneas. Cuanta más información maneje, más atinado será su juicio.

El proceso implica primero a un grupo de personas que revisa comentarios y crea una base de datos en la que se incluyen aquellos considerados tóxicos, ya sea porque tienen insultos o serias faltas de respeto. Posteriormente Perspective, de manera autónoma, se encarga de analizar decenas de miles de comentarios de páginas webs. Para saber cuáles son tóxicos, hace una evaluación y compara con los que están en la base de datos. Si hay similitud con los que ya se consideran perjudiciales, los identifica y añade.

El nuevo proyecto de inteligencia artificial de Google pretende ser una herramienta útil para luchar contra el ‘acoso en línea‘ y la creciente toxicidad de las conversaciones en la red’.

‘Un número de individuos están dificultando la discusión civilizada y dinámica en las secciones de comentarios de plataformas y medios, lo que lleva a que mucha gente abandone la conversación. (…) Muchos medios han terminado cerrando esas secciones’, añadió Cohen.

Cohen matizó que son los medios quienes tienen que decidir cómo usarán ese marcador: por ejemplo, para detectar los comentarios que deben ser revisados a mano, para mostrar a los lectores ese grado de toxicidad o bien permitirles que filtren los comentarios en función del nivel que están dispuestos a tolerar.

La tecnológica ya ha probado el algoritmo con ‘The New York Times’, ‘The Guardian’, ‘The Economist’ y la Fundación Wikimedia, responsable de la Wikipedia.

Cualquier medio o plataforma de internet puede utilizar Perspective de forma gratuita -a través de una API-, aunque por el momento solo existe un modelo para el idioma inglés.

En el futuro, a medida que editores de otras lenguas se sumen al proyecto, la ‘aspiración’ de Google es ir ampliando el rango de idiomas disponibles.

También esperan que a lo largo del año Perspective evolucione y sirva para detectar en los comentarios ataques directos y temas que no tienen nada que ver con la discusión en marcha.

EFE

Leer más

Inteligencia artificial resuelve nuestras actividades cotidianas

Inteligencia artificial resuelve nuestras actividades cotidianas

Entendida la inteligencia artificial (IA) como una parte de las ciencias de la computación, se encarga de hacer que las máquinas repliquen las funciones cognitivas de la mente humana.

Razonar, aprender, entender y comunicarse son funciones que donde la IA convive en nuestro quehacer cotidiano.

Hace tiempo de inteligencia artificial ha dejado de ser materia de ciencia ficción o de contenidos novelescos fantasiosos; la realidad actual nos está poniendo en contacto con dispositivos y procesos que ya no sólo responden a órdenes, sino que son capaces de ofrecer resultados, procesar datos, proponer sugerencias o tomar decisiones; incluso son capaces de detectar sus propios errores y aprender de sí mismos.

Algunas de las áreas donde la inteligencia artificial ya nos está brindando beneficios son:

Diagnóstico de enfermedades

La medicina es una área donde más presencia e impacto ha tenido la IA utilizando la tecnología Deep learning, con la cual las máquinas son capaces de desarrollar métodos de aprendizaje automático complejo, para analizar mamografías, resonancias magnéticas y ultrasonidos y obtener así diagnósticos más acertados y oportunos.

Google, una de las empresas pioneras en inteligencia artificial ha detectado, por ejemplo, la retinopatía diabética, que puede hacer más y más borrosa la imagen que los ojos envían al cerebro y que podrían causar ceguera.

Con respecto a las cardiopatías, la supercomputadora Watson de IBM ofrece programas de salud cognitiva, que analizan el genoma y adapta el tratamiento de cáncer para cada paciente.

Movilidad

Un ejemplo actual y cotidiano de IA es la cada vez más utilizada Google Maps, que se basa en algoritmos de inteligencia artificial para recomendar las mejores rutas y medios de transporte hacia un destino específico. En un futuro próximo nadie tendrá que enseñar a los dispositivos a moverse por una ciudad, ya que gracias a machine learning y deep learning, podrán aprender a hacerlo solos, analizando y probando enormes cantidades de datos.

Desde luego, el auto sin conductor es otro ejemplo de la gran promesa que significa la inteligencia artificial en nuestro quehacer cotidiano, así como la eficiencia que se logra en las turbinas de los aviones, los frenos anti bloqueo que funcionan con inteligencia artificial, e incluso ‘el sistema de inyección de combustible de todos nuestros autos, que fue diseñado utilizando algoritmos de inteligencia artificial’, Según explica Ramón López de Mántaras, director del Instituto de investigación en Inteligencia Artificial.

Consumo

Una aplicación comercial de la inteligencia artificial que ha tenido un gran éxito es el uso de las apps y webs de productos y servicios, ‘gracias al machine learning, que puede detectar los hábitos y modelos de consumo de una persona, para actuar en consecuencia’, señala Ramón López.

El espectro de posibilidades de uso de esta aplicación es inmensa, ya que las empresas pueden ofrecer sus productos y servicios a través de Internet conociendo los gustos particulares de sus clientes y sus hábitos de consumo. Un ejemplo notable es Amazon, cuyas ventas responden en un tercio a recomendaciones de consumidores.

A este ejemplo se puede sumar la gestión de stocks de los almacenes, el turismo online que adapta sus ofertas a las necesidades particulares, así como la oferta de películas a partir de las elecciones y búsquedas que el usuario ha realizado. Lo mismo ocurre con los temas musicales, los idiomas, etc.

Seguridad

En la actualidad, los sistemas de los bancos, sustentados en inteligencia artificial, permiten, entre otras cosas, que puedan aprender por sí mismos con los datos que reciben y detectar oportunamente un movimiento potencialmente fraudulento. Todo esto, utilizando el conocimiento y la información acumulada en los ensayos y experiencias históricas.

Finanzas

Ahora las instituciones bancarias y de inversión pueden asesorar a sus clientes de una manera individualizada para detectar oportunidades o riesgos. Ahora es posible diseñar una cartera de inversiones a partir de las características de cada cliente, es decir: su edad, su condición social, su nivel de riesgo, etc., todo esto, filtrado con las condiciones del mercado, permite lograr una asesoría dinámica que responda a las necesidades y expectativas particulares de cada cliente.

El tiempo

La predicción del tiempo se ha vuelto cada vez más precisa utilizando machine learning. Los investigadores de Microsoft, Ashish Kapoor y Eric Horvitz, han aplicado esta ciencia con resultados más precisos.

Según estos científicos, con el tiempo los análisis serán más precisos y a más largo plazo.

Energía

La inteligencia artificial es la clave en los desafíos energéticos del futuro, asegura Ramón López Mántaras, quien comenta que Google ha conseguido ahorros de un 30% en el consumo energético de sus servidores a partir de sus investigaciones de DeepMind.

En un futuro, en los coches eléctricos y muy probablemente en los hogares se pueda almacenar y compartir energía para optimizar este consumo vital.

Con información de El País

Leer más

Apple compra Tuplejump, startup de Machine Learning

Apple compra Tuplejump, startup de Machine Learning

Apple adquiere la startup de la India Tuplejump, especializada en Machine Learning, con la intención de reforzar sus capacidades en inteligencia artificial.

Tuplejump es la tercera adquisición que hace Apple en este año; anteriormente adquirió Turi, radicada en Toronto, así como Emotient, organización que utiliza inteligencia artificial para identificar y actuar a partir de las expresiones faciales.

Todas estas operaciones revelan el gran interés y disposición de la compañía californiana por acceder y participar en la enorme oportunidad de negocio que se está generando alrededor del inteligencia artificial.

En este sentido, la inteligencia artificial se ha constituido como una inversión clave para los gigantes tecnológicos como Google, Facebook y Amazon, que compiten directamente con Apple en el desarrollo de sus asistentes virtuales.

Tuplejump dispone de un software especializado en procesamiento y análisis rápidos de grandes volúmenes de datos.

El trato se reportó recientemente por TechCrunch y el monto de la operación no fue revelado.

Apple permite que terceros utilicen Siri, su asistente virtual en sus propias aplicaciones, lo cual es visto por algunos expertos en inteligencia artificial como un paso fundamental para mejorar su producto, apoyándose en la enorme comunidad de desarrolladores que tiene la compañía.

Por su parte, Google ha recibido reconocimientos por su capacidad para comprender la intención detrás de un requerimiento; en tanto que Alexa, de Amazon, cuenta con la ventaja de entender diferentes acentos, dialectos y lenguajes. Además, Facebook está intentando construir chatbots inteligentes para su red social.

Con información de Bloomberg

Leer más

Apple compra Turi, firma de inteligencia artificial, por 200 mdd

Apple compra Turi, firma de inteligencia artificial, por 200 mdd

Apple comprará Turi, una empresa especializada en Inteligencia Artificial, por alrededor de 200 millones de dólares, con el fin de sumar capacidad de cómputo avanzado a sus productos y servicios.

Esta operación ayudará a los desarrolladores a crear y administrar software y servicios que utilicen Machine Learning.

También opera sistemas que permiten a las empresas construir motores de recomendación, detectar fraudes, analizar los patrones de consumo del cliente y direccionar los esfuerzos al mercado objetivo.

Con esto, Apple podría integrar más rápidamente la tecnología a futuros productos.

Este movimiento surge ante la necesidad de enfrentar la competencia de Google y Facebook y obtener una ventaja en el espacio de la Inteligencia Artificial, particularmente en el terreno conocido como la computación ubicua, donde el software intenta inferir automáticamente lo que la gente quiere.

Con esta tecnología, Turi podría alimentar a Siri, la asistente digital de Apple,
ayudándole a definir nuevas formas de interacción computarizada con las personas.

Con esta compra, la compañía de la manzana agrega una más a las diversas empresas que ha comprado en los últimos dos años que se especializan en Inteligencia Artificial, mismas que ha integrado a su software del iPhone y Siri.

Apple adquirió en enero a Emotient, que utiliza Inteligencia Artificial para reconocer y actuar sobre las expresiones faciales. Además el año pasado, también compró dos empresas centradas en la voz con Inteligencia Artificial: VocalIQ y Perceptio. La primera está especializada en el uso de Machine Learning para que los asistentes de voz puedan entablar una conversación más realista. Perceptio se centra en ayudar a los sistemas de Inteligencia Artificial para ejecutarse en dispositivos compartiendo cantidades limitadas de datos personales del usuario.

Machine Learning y equipos de ayuda a la Inteligencia Artificial entienden automáticamente las imágenes, videos y palabras utilizadas. La tecnología también permite que los sistemas tomen medidas o hagan recomendaciones.

Apple ya ha comenzado a mostrar los frutos de las inversiones en Inteligencia Artificial a través de un mejor reconocimiento de palabras clave por Siri.

Se espera que la compañía lance una nueva versión de su programa de gestión de fotos para los iPhones y iPads que utilizan Inteligencia Artificial para reconocer objetos en las fotos. Por ejemplo, el usuario será capaz de buscar ‘sushi’ y le aparecerán las fotografías de la comida.

Apple va a llevar también sus capacidades de aprendizaje de Machine Learning a su aplicación iMessage, mediante la adición de una característica que traduce las palabras en los textos en íconos emoji.

Con información de Bloomberg

Leer más

3 escenarios imprescindibles para la analítica de datos

3 escenarios imprescindibles para la analítica de datos

Para tomar decisiones acertadas de negocio es indispensable contar con una plataforma de analítica adecuada.

Las empresas están aumentando su inversión en equipos especializados que se hacen cargo del manejo de grandes cantidades de información, ante el reto de procesar datos que llegan de todos los departamentos de una empresa, y en diferentes formatos.

A lo anterior hay que sumar los datos provenientes de socios, clientes y medios sociales, que sin una metodología apropiada, resulta difícil transformar esta información en conocimientos y estrategias efectivas para ganar participación de mercado, ampliar la base de clientes o incrementar las ventajas competitivas.

De ahí que la plataforma analítica que se elija debe adecuarse a su tamaño, propósito, sector, recursos, y los analistas deben dominar disciplinas como la estadística, la minería de datos y machine-learning, entre otras.

En el reporte ‘Capacidades Críticas para Plataformas Analíticas Avanzadas”’, Gartner ofrece una guía práctica para seleccionar la mejor tecnología que se adapte a esas necesidades.

El estudio contempla tres escenarios:

1. Equipos de ciencia de datos grandes. Estos equipos están conformados por 10 a 50 miembros con diferentes habilidades, quienes pueden ser parte de un centro de competencia analítica, y normalmente trabajan en docenas de proyectos al mismo tiempo. Utilizan una variedad de herramientas para aprovechar las diferentes habilidades de sus miembros y para un gran número de escenarios. Cuentan con todo el apoyo de TI.

2. Equipos de ciencia de datos de pequeños a medianos. Cuentan con entre 3 y 10 científicos de datos y apoyan varios proyectos, pero normalmente para una sola línea de negocio. Estos equipos utilizan un conjunto limitado de herramientas y necesitan ser más autosuficientes pues tienen menos apoyo de TI o del equipo de gestión de datos.

3. Ciudadanos Científicos de Datos. Son individuos que tienen experiencia en esta área o conocimientos en ingeniería de software, aunque sus habilidades en ciencia de datos son moderadas. Participan en las fases de exploración y en pilotos antes de que una organización contrate a su primer científico de datos capacitado. Casi no tienen acceso a los recursos de TI y por tanto tienen diferentes requerimientos respecto a las plataformas de analítica avanzada.

 

Para producir este reporte, Gartner pidió a científicos de datos de 578 organizaciones calificar las ofertas analíticas disponibles en el mercado de 16 proveedores, de acuerdo con sus capacidades y su aplicación en los casos de uso descritos anteriormente.

De las plataformas analíticas calificadas, SAS obtuvo las puntuaciones más altas en dos de los escenarios definidos por la consultora, y se ubicó en el segundo lugar en un tercer escenario, según el estudio.

Fuente: SAS

Leer más

IoT y Analítica Avanzada impulsan al negocio digital

IoT y Analítica Avanzada impulsan al negocio digital

Actualmente contamos con una enorme cantidad de dispositivos, sensores y otras ‘cosas’ que producen una tremenda cantidad de datos. Esos datos, cuyo aprovechamiento se volvió una tendencia hace algunos años gracias al surgimiento de Big Data, se han convertido en recursos para las empresas.

De acuerdo con Gartner, más del 85% de los datos disponibles para las empresas son generados de manera automática desde dispositivos, sensores, cargas de archivos, tuits, compras, envíos y tecleos.

Obtenerlos y almacenarlos es un proceso que las empresas ya realizan con éxito, pero extraer información de valor es todavía una tarea elusiva y que presenta algunos retos para que los negocios consigan sacar el máximo provecho de esa gran cantidad de información que poseen.

datos analisisEstamos ante un momento único en la historia gracias al crecimiento del aprendizaje de máquina (machine learning) y la analítica avanzada. Combinadas con el poder de la nube y su capacidad ilimitada para almacenar y procesar datos, ofrecen a las empresas la oportunidad de automatizar e innovar con agilidad, transformarse en una empresa digital e incrementar su velocidad para hacer negocios y ganar.

En estos tiempos, existen más dispositivos que personas y se crean más datos que los que las personas pueden consumir. Es momento de sacar el máximo provecho de todos los dispositivos y obtener de ellos información de valor que sea útil para el presente y futuro de las empresas.

De acuerdo con Gartner, para 2020 se espera que Internet de las Cosas (IoT) llegue a 26 mil millones de unidades instaladas – dispositivos conectados o ‘cosas’ que emiten datos.

Para aprovechar esos datos generados a partir de IoT, es necesario transformarlos en acciones inteligentes, que nos permitan hacer cosas que antes no podíamos hacer, como predecir tendencias o superar obstáculos que antes nos detenían, y responder preguntas antes de hacerlas.

De esto trata la Analítica Avanzada: utilizar los datos de los sensores e impulsar a individuos y organizaciones de cualquier industria y tamaño para transformarse y lograr más. Es generar información de valor y predicciones de diversas fuentes para cumplir con los objetivos del negocio.

Tanto IoT como la Analítica Avanzada pueden hacer una diferencia para los negocios. Esta jornada de cambio hacia el cómputo en la nube y el aprovechamiento de los datos –que ya forma parte de algunas empresas– comienza con la construcción de una infraestructura con la que ya se cuenta, que utiliza dispositivos y servicios que son familiares para los usuarios, e incorpora las tecnologías adecuadas para ayudar a obtener información de valor y tomar mejores y más informadas decisiones.

Diversas empresas que ya utilizan y aprovechan estas herramientas han sido capaces de reinventar su productividad y sus procesos de negocio. Además, han podido obtener eficiencia operativa, mejorar la innovación y han habilitado la creación de nuevos modelos de negocio.

Este es un buen momento para comenzar a implementar soluciones de IoT y Analítica Avanzada detrás de los procesos de negocio. Ello permitirá obtener más de los recursos existentes, hacer cambios pequeños y ver un gran impacto en la consecución de los objetivos de la empresa.

Fuente: Microsoft

Leer más

10 predicciones de Big Data para 2016

10 predicciones de Big Data para 2016

Las grandes y pequeñas empresas están encontrando nuevas maneras de captar y utilizar más datos para aprovechar al máximo el potencial de esta tendencia innegable.

La visión de Oracle es que Big Data tomará un gran impulso y se fortalecerá en 2016, lo cual se demuestra en las siguientes predicciones que la compañía presenta:

 

1. Los datos civiles operan cada vez más como los datos científicos.

Aunque las estadísticas complejas aún están limitadas a los datos científicos, la toma de decisiones basada en datos no debería estarlo. Las herramientas más simples de descubrimiento de grandes datos permitirán a los analistas de negocios comprar conjuntos de datos en clusters Hadoop empresariales, darles forma en nuevas combinaciones de Mashup, e incluso analizarlos con técnicas de aprendizaje automáticas exploratorias.

Extender este tipo de exploración a un público más amplio mejorará el acceso a  grandes volúmenes de datos y proporcionará hipótesis más ricas y experimentos que conduzcan al siguiente nivel de innovación.

 

2. Los laboratorios de datos experimentales despegan.

Con más hipótesis para investigar, los científicos de datos profesionales verán una creciente demanda de sus habilidades por las empresas establecidas. Por ejemplo, los bancos, las aseguradoras y las empresas de calificación crediticia se volverán a los algoritmos para fijar el precio del riesgo y evitar el fraude con mayor eficacia. Pero muchas de esas decisiones son difíciles de migrar de juicios inteligentes a reglas claras.

Se espera una proliferación de experiencias de riesgo de falta de pago, suscripción de políticas y detección de fraudes, ya que las empresas tratan de identificar puntos de acceso para tener la ventaja algorítmica más rápido que la competencia.

 

3. ‘Hacerlo usted mismo’ da paso a las soluciones.

Los primeros usuarios que adoptaron Big Data no tenían más opción que construir sus propios clusters y ambientes. Pero construir, administrar y mantener estos sistemas únicos construidos sobre Hadoop, Spark y otras tecnologías emergentes es costoso y requiere mucho tiempo. De hecho, el tiempo promedio de construcción es de seis meses.

¿Quién puede esperar tanto tiempo? En 2016, veremos tecnologías maduras y que serán más dominantes gracias a servicios en la nube y dispositivos con automatización y normalización preconfiguradas.

 

4. La virtualización de datos se convierte en una realidad.

Las empresas no sólo captan más datos, sino que los usan en una mayor variedad de algoritmos, análisis y aplicaciones. Pero los desarrolladores y analistas no deberían tener que saber qué datos están en un lugar o quedarse bloqueados con sólo los métodos de acceso que ese repositorio soporta. Se busca un cambio de enfoque usando una única tecnología, como NoSQL, Hadoop, relacional, espacial o gráfica, para aumentar la confianza en la virtualización de datos.

Los usuarios y las aplicaciones se conectan a los datos virtualizados a través de lenguajes SQL, REST y de programación. El éxito de la tecnología de virtualización de datos ofrecerá un rendimiento igual al de los métodos nativos, compatibilidad y seguridad completa atrasada.

 

5. La programación de flujo de datos abre las compuertas.

Las olas iniciales de adopción de Big Data se concentraron en el procesamiento de datos codificados a mano. Las nuevas herramientas de gestión serán desacoplar y aislar las tecnologías de Big Data a partir de las necesidades de procesamiento de datos de mayor nivel.

También veremos la aparición de la programación de flujo de datos que aprovecha el paralelismo extremo, proporciona una simple reutilización de los operadores funcionales y da soporte conectable para funciones de aprendizaje de estadística y de la máquina.

 

6. Big Data ofrece a la Inteligencia Artificial algo en qué pensar

2016 será el año en que se apliquen tecnologías de Inteligencia Artificial (AI), como Aprendizaje Automático [Machine Learning] (ML), Procesamiento del Lenguaje Natural [Natural Language Processing (PLN)], y Gráficos de Propiedad [Property Graphs (PG)], a los desafíos de procesamiento de datos comunes.

Mientras ML, PLN y PG ya han sido accesibles como bibliotecas API de Big Data, el nuevo cambio incluirá amplias aplicaciones de estas tecnologías en herramientas de TI que soportan aplicaciones, análisis en tiempo real y datos científicos.

 

7. Los pantanos de datos tratan la procedencia para aclarar las cosas.

El linaje de datos solía ser una capacidad deseable porque gran parte de los datos que alimentan tableros corporativos provino de los almacenes de datos confiables. Pero en la era de los grandes datos el linaje de datos es un deber, porque los clientes están fusionando datos de la empresa con los conjuntos de datos de terceros.

Algunas de estas nuevas combinaciones incorporarán alta calidad y datos de proveedor verificado. Pero otros utilizarán los datos que no son oficialmente perfectos, pero lo suficientemente buenos para el desarrollo de prototipos. Cuando los resultados sorprendentemente valiosos provengan de estas exploraciones oportunistas, los gerentes observarán el linaje para saber la cantidad de trabajo que se requiere para elevarlo a niveles de calidad de producción.

 

8. IoT + Nube = aplicación revolucionaria de Big Data.

Los servicios de Big Data en la nube son la magia detrás de los bastidores del Internet de las cosas (IoT). La ampliación de los servicios en la nube no sólo capta los datos de los sensores sino también los alimenta en análisis de Big Data y algoritmos para hacer uso de ellos.

Los servicios de alta seguridad en la nube del IoT también ayudarán a los fabricantes a crear nuevos productos que tengan acción de forma segura sobre los datos analizados sin intervención humana.

 

9. La política de datos impulsa la nube híbrida.

Saber de dónde provienen los datos -no sólo desde qué sensor o sistema, sino desde qué nación- hará que sea más fácil para los gobiernos hacer cumplir las políticas nacionales de datos. Las corporaciones multinacionales en movimiento hacia la nube estarán atrapadas entre intereses en conflicto.

Cada vez más, las compañías globales se moverán a las implementaciones de nube híbridas con máquinas en los centros de datos regionales que actúan como un centro local de un servicio en la nube más grande, lo que honra tanto la conducción por la reducción de costos y el cumplimiento normativo.

 

10. Los nuevos sistemas de clasificación de seguridad equilibran la seguridad con el acceso.

El aumento de la conciencia del consumidor de las formas cómo los datos se pueden recolectar, compartir, almacenar, y robar, amplificará solicitudes de protecciones reglamentarias de información personal. Se espera ver a los políticos, académicos y columnistas lidiando con los límites y la ética.

Las empresas aumentarán el uso de sistemas de clasificación que categoricen los documentos y datos en grupos con políticas predefinidas para el acceso, la redacción y el enmascaramiento. La amenaza constante de los hackers informáticos cada vez más sofisticados incitará a las empresas tanto a reforzar la seguridad como a auditar el acceso y el uso de los datos.

Leer más
Página 1 de 212