Ante el gran volumen de horas transmitiendo contenido generado por usuarios en vivo, Twitch requiere herramientas de vigilancia sofisticadas.
Altos funcionarios de la compañía se reunieron el mes pasado con representantes del regulador británico Ofcom para discutir los planes en el combate al acoso infantil en la plataforma.
El regulador del Reino Unido está revisando si las capacidades de moderación de Twitch son lo suficientemente sólidas como para evitar material ilegal o dañino, dijo un portavoz de la agencia.
‘Seguiremos de cerca la eficacia de estas medidas conforme se implementen’, dijo el portavoz de Ofcom.
Durante años, Twitch permitió que la toxicidad asociada con la cultura de los juegos se desarrollara desenfrenadamente. A medida que la plataforma se generalizó, la empresa invirtió en herramientas de moderación, incluida una función activada por el usuario llamada AutoMod.
La gerencia también contrató a más profesionales de confianza y seguridad a tiempo completo para evaluar los informes de los usuarios y eliminar el contenido que violaba los términos de servicio o la ley.
Además de optimizar y combinar algunas unidades. Twitch aumentará su dependencia de proveedores externos para monitorear el contenido, al vigilar la actividad de los usuarios.
Como parte de los recortes de personal, Twitch despidió a la jefa de su equipo de respuesta policial, Jessica Marasa, quien fue muy respetada por Twitch por instituir nuevas políticas innovadoras. Esto le permite a la empresa eliminar las cuentas de los usuarios que cometen delitos graves en en otros lugares de internet o en la vida real.
La compañía está desarrollando planes para ayudar a rehabilitar a los creadores prohibidos y educarlos sobre el comportamiento responsable de los protocolos de derechos de autor. También está trabajando para mejorar la seguridad de los niños en la plataforma.