Google está realizando cambios en su motor de búsqueda para reducir la cantidad de contenido sexualmente explícito no consensuado en los resultados principales, debido al aumento de material ofensivo creado mediante herramientas de inteligencia artificial generativa.
Cuando el contenido generado por IA involucra la imagen de una persona real sin su consentimiento, esta puede solicitar que se elimine de los resultados de búsqueda. En estos casos, Google filtrará los resultados explícitos en búsquedas similares y eliminará las imágenes duplicadas.
La compañía también ha mejorado sus sistemas de clasificación para evitar que contenido explícito falso aparezca en los primeros resultados, un proceso que ya se había comenzado a implementar desde mayo.
Emma Higham, gerente de producto responsable de las protecciones para la tecnología de inteligencia artificial generativa en Google, señaló que, con cada avance tecnológico, surgen nuevos abusos.
En respuesta, Google ha ajustado los resultados de búsqueda relacionados con contenido deepfake vinculado a nombres específicos. En lugar de mostrar imágenes explícitas, el motor de búsqueda priorizará contenido de alta calidad y no explícito. Hasta ahora, estos ajustes han logrado reducir la exposición a imágenes explícitas en este tipo de consultas en más del 70%.
Higham también destacó la importancia de ser cautelosos al implementar estos cambios para evitar consecuencias no deseadas en el acceso a la información, especialmente en el caso de artistas adultos que no desean que su contenido explícito consensuado sea desclasificado. Sin embargo, Google está tomando medidas firmes cuando identifica consultas con alto riesgo de mostrar contenido explícito falso sin consentimiento.