En apenas cinco años las pantallas táctiles han redefinido la forma de interactuar con la tecnología, una relación de contacto que deja un hueco ahora al control gestual y cierne una nueva amenaza sobre la supervivencia del mouse de escritorio, una especie ya en peligro de extinción.
El manejo de dispositivos a través de sensores de movimiento, un sistema que funciona con éxito en la industria del videojuego, se convertirá antes de que finalice la década en un nuevo estándar para computadoras personales, tabletas y teléfonos a los que se pedirá que, además de ser ‘inteligentes’, agudicen sus sentidos.
Una prueba de esta evolución se pudo ver esta semana en la conferencia anual para desarrolladores de software de Microsoft, Build, en San Francisco, donde se presentó la primera actualización del sistema operativo Windows 8 (Windows 8.1).
Entre la lista de novedades se reveló, casi de forma anecdótica, la aplicación culinaria ‘Food and Drink’, diseñada para que el usuario pueda seguir paso a paso una receta mientras cocina sin manchar la pantalla de su tableta por tener los dedos embadurnados de harina.
‘Food and Drink’ permite al aprendiz de chef cambiar de página con un movimiento de la mano frente al dispositivo, algo similar a lo que se puede hacer en la consola Xbox 360 por mediación de Kinect, pero sin que sea necesario comprar periférico alguno.
«No hay nuevo hardware, simplemente se usa la cámara, así de sencillo. Es la belleza de desbloquear un nuevo escenario con tecnología existente. Tiene mucho sentido», aseguró Chaitanya Sareen, responsable de programación de Microsoft.
La aplicación reacciona a los cambios de luz que captan las lentes cuando se pasa algo por delante, una mano por ejemplo, una tecnología extrapolable a computadoras y teléfonos. De hecho, el Samsung Galaxy S4 ya ofrece esa posibilidad.
‘Food and Drink’ es la única herramienta creada por el momento por Microsoft con esas características, confirmó Sareen, y no se ha facilitado aún a los desarrolladores de software ajenos a la compañía los códigos para que puedan incorporar ese control gestual, de fácil adaptación, a otro tipo de software.
Esta tecnología es algo en mente de muchas empresas del sector. En noviembre, el fabricante de chips Qualcomm, con sede en San Diego, publicó la guía para hacer posible el control gestual para dispositivos con sistema operativo Android equipados con su último procesador Snapdragon.
Qualcomm hizo incluso una demostración con otra aplicación de cocina y anticipó que pronto esas cámaras serán capaces de reconocer la cara del usuario y seguir sus movimientos.
El competidor de Qualcomm, Intel, anunció este mes en la feria Computex de Taiwán la disponibilidad antes de final de año de la cámara Creative Senz3D, un periférico con visión 3D que imita las prestaciones de Kinect, el sensor que reacciona a los movimientos y la voz del usuario lanzado por Microsoft para su consola Xbox 360.
Intel tiene previsto que lo que nace como periférico pase a ser un componente más de serie en las futuras computadoras y tabletas.
Dos empresas de Israel, EyeSight y Pointgrab, se encuentran en la vanguardia del control gestual para cámaras 2D, un mercado incipiente que copan entre las dos y en el que tienen firmados contratos con tecnológicas como Lenovo, Fujitsu, Acer, Toshiba, Asus y Samsung.
En ambos casos, su software es capaz no solo de cambiar de pantalla cuando el usuario agita la mano, también reconoce otros movimientos que hacen las veces del tradicional clic del botón izquierdo del ratón, o un zoom en un mapa con tan solo juntar o separar los dedos.
EFE