A raíz de la muerte trágica de Elaine Herzberg tras haber sido atropellada la semana pasada por un vehículo autónomo de Uber en Arizona, parece que es el momento adecuado para hacer algunas observaciones sobre el significado de la seguridad con respecto a la detección y la toma de decisiones.
Retos y tecnología
Primero, el reto de interpretar información de detección. El video que emitió la policía parece demostrar que incluso el componente más básico de un vehículo autónomo, la capacidad de detectar y clasificar objetos, es una tarea desafiante.
No obstante, esta capacidad es uno de los aspectos fundamentales de los sistemas avanzados de asistencia al conductor (ADAS, por sus siglas en inglés) actuales, que comprenden funciones como frenado de emergencia automático (AEB, por sus siglas en inglés) y apoyo para cambio de carril.
Los sistemas de detección de alta precisión dentro de ADAS son los que están salvando vidas hoy, probados en miles de millones de kilómetros recorridos.
Es la misma tecnología que se necesita, incluso antes abordar retos más difíciles, como elemento fundamental de los vehículos totalmente autónomos del futuro.
Para demostrar el poder y la sofisticación de la tecnología ADAS actual, ejecutamos nuestro software en un video proveniente de un monitor de televisión que transmitía el video policiaco del incidente.
A pesar de las condiciones poco óptimas, donde gran parte de los datos de alto rango dinámico que estarían presentes en la escena real probablemente se habrían perdido, se logró una clara detección aproximadamente un segundo antes del impacto.
Las siguientes imágenes muestran tres fotografías con detecciones de cuadros delimitadores en la bicicleta y en la Sra. Herzberg.
Las detecciones provienen de dos fuentes diferentes: reconocimiento de patrones, que genera los cuadros delimitadores y un módulo de detección de “espacio libre”, que genera la gráfica horizontal en la que la sección de color rojo indica que un “usuario de la vía pública” está presente arriba de la línea.
Un tercer módulo separa los objetos de la vialidad usando la estructura del movimiento – en términos técnicos: “plano + paralaje”. Esto valida la presencia 3D del objeto detectado que tenía poca confianza, como lo ilustra “fcvValid: Baja,” que se muestra en el lado superior izquierdo de la pantalla.
Esta poca confianza ocurrió por la información faltante que normalmente está disponible en un vehículo de producción y la configuración de imágenes de baja calidad por tomar el video de un video de una cámara del tablero del automóvil que se sometió a un submuestreo desconocido.
Imágenes de un video de un monitor de televisión que muestra el videoclip que emitió la policía. La gráfica superpuesta muestra la respuesta del sistema ADAS de Mobileye. Los cuadros delimitadores verdes y blancos son salidas de los módulos de bicicletas y peatonal. La gráfica horizontal muestra el límite entre los obstáculos viales y los físicos, a los que llamamos “espacio libre”.
El software que se usa para este experimento es el mismo que se incluye en los vehículos actuales equipados con ADAS, que han sido probados en miles de millones de kilómetros en manos de los consumidores.
Los avances recientes en inteligencia artificial, como las redes neuronales profundas, han llevado a muchos a creer que ahora es fácil desarrollar un sistema de detección de objetos muy preciso y que debe dejarse a un lado la experiencia de más de una década de expertos actuales en visión artificial.
Esta dinámica ha dado como resultado muchos nuevos participantes en el campo. Aun cuando estas técnicas son útiles, el legado de identificar y cerrar cientos de casos límite, anotar conjuntos de datos de decenas de millones de kilómetros y pasar por pruebas de validación de preproducción desafiantes en docenas de programas ADAS de producción, no pueden pasarse por alto. La experiencia cuenta, sobre todo en los ámbitos críticos para la seguridad.
La segunda observación se trata de la transparencia. Todos dicen: “la seguridad es nuestra consideración más importante”, pero creemos que, para ganarnos la confianza del público, debemos ser más transparentes sobre el significado de esta afirmación.
Como dije en octubre cuando Mobileye lanzó el modelo formal de Responsabilidad de Seguridad Sensible (RSS, por sus siglas en inglés) la toma de decisiones debe cumplir con el sentido común del criterio humano. Presentamos un formalismo matemático de nociones de sentido común como “situación peligrosa” y “respuesta adecuada” y construimos un sistema para garantizar matemáticamente el cumplimiento de estas definiciones.
La tercera observación se trata de la redundancia. La verdadera redundancia del sistema de percepción debe basarse en fuentes de información independientes: cámara, radar y LIDAR.
Fusionarlas es bueno para una conducción confortable, pero es malo para la seguridad. En Mobileye, para mostrar realmente que obtenemos verdadera redundancia, construimos un sistema de cámara de extremo a extremo por separado y un sistema LIDAR y de radar por separado.
Más incidentes como el que sucedió la semana pasada podrían dañar más la confianza ya frágil de los consumidores y promover una regulación reactiva que podría reprimir este importante trabajo.
Como manifesté durante la presentación del modelo de Responsabilidad de Seguridad Sensible (RSS), este es el momento para tener una conversación significativa sobre un marco de validación de la seguridad para vehículos totalmente autónomos.
Invitamos a los fabricantes de automóviles, a las compañías tecnológicas del campo, a las autoridades reguladoras y a otras partes interesadas a organizarse para poder resolver juntos estos importantes temas.
Por Amnon Shashua, vicepresidente ejecutivo de Intel Corporation y director general y director de tecnología de Mobileye, compañía de Intel.