Judy Rogg se ha convertido en una defensora que busca crear conciencia sobre el problema de la asfixia, después de que su hijo Erik, de 12 años, muriera en 2010 debido a un desafío que vio en redes sociales.
Mucho antes de que se que se creara TikTok, Rogg inició una organización sin fines de lucro llamada Erik’s Cause que ayuda a capacitar a las escuelas sobre cómo manejar los riesgos en línea y recopila estadísticas sobre muertes relacionadas con juegos de asfixia.
Descubrió que desde 2018, al menos 33 niños menores de 13 años han muerto. ‘Se ha vuelto más popular en las redes sociales’, dice Rogg. ‘Absolutamente está explotando’.
Los desafíos rebotan entre plataformas y se transforman en nuevas interacciones con diferentes estados y palabras clave, a pesar de las restricciones de seguridad.
El llamado ‘desafío del apagón’ tiene muchos nombres desde el más obvio: el j’uego de la asfixia y el desmayo’, hasta el más sutil ‘flatliners’ y el ‘mono espacial’. Los niños escriben mal las palabras para evitar ser detectados.
Hoy existen videos con algunos títulos en TikTok que muestran a los niños respirando profundamente y empujándose el pecho unos a otros hasta que se desmayan. Se puede ver a los niños perder el conocimiento temporalmente y luego despertarse riéndose. Una leyenda dice: ‘El sentimiento más loco de todos’.
Más del 70% de los niños de Estados Unidos tienen un teléfono celular a la edad de los 11 años, y la mitad de todos los de 8 a 11 años en el Reino Unido ven contenidos de TikTok diariamente.
Un ejército global de alrededor de 40,000 moderadores es responsable de revisar vídeos en TikTok, tres cuartas partes de los cuales trabajan bajo contrato. Cada uno mira alrededor de 100,000 vídeos por día y toma alrededor de 20 segundos revisar cada uno, según exempleados.
Dicen que el sistema no está orientado a encontrar usuarios menores de edad. Las publicaciones se filtran a los moderadores mediante un software de inteligencia artificial que escanea cada video (10,000 millones solo en el primer trimestre de este año) y elimina automáticamente cualquier cosa que violen las pautas de la comunidad, como desnudez o violencia.
Si el software no está seguro, envía el material a un ser humano para que lo evalúe. Cada video que tiene más de 3,000 vistas (el número varía según el país) también se envía a un moderador, lo que garantiza que el contenido más popular reciba una revisión humana.
Sin embargo, es poco probable que los niños menores de 13 años publiquen contenido que viole las pautas o llegue a tantos ojos.
A pesar de las medidas que ha tomado TikTok, las muertes siguen ocurriendo.
Las redes sociales están bajo una presión cada vez mayor de los legisladores para hacer más para proteger a los niños. La aparición regulatoria que se avecina ha puesto de relieve el problema de la garantía de la edad, lo que ha llevado a algunas de las mayores plataformas de redes sociales a contratar empresas de estimación de edad de terceros en los últimos 18 meses.
El problema, dice Michael Rich, pediatra y director del Digital Wellness Lab del Boston Children’s Hospital, es que ‘estas empresas no ven a sus usuarios como clientes a los que atender, los ven como un producto que están vendiendo’. Las plataformas no imponen seriamente las restricciones de edad, por qué no les conviene hacerlo. No es una novedad para nadie que las empresas siguen los pasos de la clasificación pública, pero no la están aplicando de manera muy estricta.
‘La tecnología para hacer una estimación de la edad, definitivamente existe’, dice el director ejecutivo, Kevin Guo. ‘Pero tal vez en las plataformas prefieren no entender el alcance de este problema’.