Inicio Tecnología. Crean chatbot para víctimas de agresiones sexuales

Crean chatbot para víctimas de agresiones sexuales

Desarrollan el primer chatbot con la inteligencia artificial y Machine Learning para atender víctimas de agresiones sexuales

Chatbot
Chatbot

La Universidad Maastricht, en Holanda, produjo el primer chatbot para víctimas de agresiones sexuales, con tecnologías de inteligencia artificial (IA) y Machine Learning.

Aprovechando los algoritmos de IA y el aprendizaje automático (Machine Learning) se simula una conversación para que quien ha sido atacado se sienta a gusto contando su experiencia en voz alta.

El sistema analiza el mensaje recibido por escrito, pregunta sobre la naturaleza, lugar y fecha del suceso, y al final aconseja sobre la instancia a la que hay que acudir, entre ellas, la comisaría, un hospital o bien un psicólogo.

El lanzamiento está previsto para 2020 y cuenta con el apoyo del Ayuntamiento de la ciudad y de la policía, así como el visto bueno del Centro sobre la Violencia Sexual, esta última de ámbito nacional.

Este viernes se presenta en la Conferencia Europea de Machine Learning que se celebra en Würzburg, Alemania.

El chatbot pretende atender a los sobrervivientes de ataques sexuales, ya fueran con violencia física o intimidación verbal, ‘porque los sociólogos que nos han asesorado señalan que no todo el mundo tiene fuerzas para revivir lo ocurrido ante otros’, señala Jerry Spanakis, profesor asistente del Departamento de Ciencia de Datos e Ingeniería del Conocimiento, en Maastricht, e investigador jefe del proyecto.

‘Se trata de que los afectados se sientan seguros y no tengan vergüenza, ya que los datos recogidos y procesados son anónimos. Tuvimos en cuenta la empatía, por supuesto, porque se trata de una máquina y no de un interlocutor humano, de modo que todavía estamos ajustando las preguntas a las historias, para que se pueda recibir una respuesta adecuada. Hemos empezado en inglés y luego lo haremos en neerlandés, aunque no descartamos otras lenguas’.

Spanakis está en Alemania para la presentación del chat, y explica que sus estudiantes de Máster usaron como ejemplo unos 12,000 informes escritos en diferentes años por víctimas reales de estos ataques, para poder dividirlos en cinco categorías: abuso verbal, no verbal (con gestos o actitudes), abuso físico, físico grave y otras formas de acoso.

Los informes formaban parte del proyecto SafeCity, lanzado en 2011 para trazar el mapa de abuso sexual en las ciudades de India, Kenia, Camerún y Nepal.

Una vez que la víctima teclea su historia, el lenguaje utilizado en dicho texto es procesado para poder diferenciar el tipo de agresión.

Palabras similares como ‘gritar’ o ‘grito’, que expresan emociones fuertes, se colocan cerca para que el programa de software pueda entender las diferentes maneras de describir un ataque. Los algoritmos se encargan entonces de clasificarlas por orden de gravedad y tipo de agresión, para aconsejar luego a dónde acudir y la dirección correspondiente.

‘Otra de las razones de este chatbot, es que muchas víctimas no denuncian porque creen que no les harán caso, y el culpable quedará impune’.

‘De ahí el apoyo de la policía y el Consistorio de Maastricht, que es el ámbito donde queremos actuar por ahora. Si el usuario consciente, sus datos se almacenan manteniendo el anonimato, y pueden ayudar a los agentes a reconocer el lugar del abuso en el plano de la ciudad y su frecuencia. De todos modos, esperamos afinar aún más el tipo de preguntas formuladas con ayuda de las víctimas, para estar seguros de que vamos por el buen camino. Es un tema grave y delicado’, asevera Spanakis.

‘#MeeToo es un movimiento social creciente para concienciar acerca del acoso sexual, nuestro chatbot contribuye a asistir a sus atacados, porque el acoso cubre todo tipo de abusos’, añadió.

‘Creo que también puede ser una herramienta útil para los departamentos de recursos humanos de las empresas. Por eso, entre los trabajos finales figura probar su eficacia con ayuda de víctimas de abusos, y el refuerzo de la seguridad para evitar ataques cibernéticos’, concluyó.