En los últimos dos años, el intento de acceder a vídeos de abuso infantil en Pornhub en el Reino Unido se ha visto frustrado 4.4 millones de veces.
Cada vez que alguien intentaba buscar este tipo de contenido, utilizando palabras o frases asociadas con abuso, se encontraban con un mensaje de advertencia que impedía el acceso a la página y les recordaba sobre la ilegalidad del contenido buscado.
Además, en la mitad de estas situaciones, un chatbot integrado en el sitio de pornografía denominado reThink proporcionaba información sobre dónde obtener ayuda.
Pornhub, que forma parte de Aylo (anteriormente conocido como MindGeek), ha implementado este sistema de filtrado basado en una lista de 34.000 términos prohibidos.
Esta lista, que incluye términos en múltiples idiomas y abarca millones de posibles combinaciones, es fundamental para prevenir el acceso a material de abuso infantil, según declaraciones de un portavoz de la compañía a Wired.
Resultados de la campaña
El sistema de advertencia y el chatbot, desarrollados en colaboración con Internet Watch Foundation (IWF), una entidad dedicada a eliminar el contenido de abuso sexual infantil en línea, y Lucy Faithfull Foundation, organización que lucha contra el abuso sexual infantil, hicieron su aparición millones de veces frente a los usuarios en el Reino Unido.
Según el reporte, estas medidas contribuyeron a una “reducción significativa” en las búsquedas de contenido de abuso sexual infantil (CSAM) en el sitio, sugiriendo un impacto positivo del chatbot y los mensajes de advertencia en dicha disminución.
“La cantidad de búsquedas realmente sorprende”, comenta Joel Scanlan, profesor de la Universidad de Tasmania y quien estuvo al frente de la evaluación del reThink Chatbot. A lo largo del período de pruebas, se emitieron 4.400.960 advertencias por intentos de acceso a contenido de abuso sexual infantil (CSAM) en Pornhub en el Reino Unido.
“Hubo una disminución notable en el número de búsquedas a lo largo de la intervención”, señala Scanlan, confirmando que “los mensajes para desalentar este comportamiento son efectivos”.
Cómo funcionaba el chatbot
El funcionamiento del chatbot era bastante sencillo: planteaba una serie de preguntas a las personas, quienes podían responder seleccionando botones o escribiendo sus respuestas manualmente.
Finalmente, se les informaba sobre la posibilidad de que el contenido buscado fuese ilegal y se les dirigía a los servicios de ayuda proporcionados por la Fundación Lucy Faithfull.
A través del chatbot, se realizaron 1.656 pedidos de información adicional, y 490 personas accedieron al sitio web Stop It Now, gestionado por la fundación.
Además, unas 68 personas contactaron o conversaron con el servicio de ayuda confidencial de la Fundación Lucy Faithfull, de acuerdo con el informe.
Donald Findlater, director de Stop It Now, menciona que aunque estos números pueden parecer “relativamente modestos” en comparación con el total de advertencias emitidas, se les considera un “gran éxito” porque indican que hay individuos dispuestos a buscar ayuda.
“Tomar la iniciativa de hacer clic representa un paso significativo para alguien que ha estado navegando por contenido cuestionable en un sitio”, argumenta Findlater.
La mayoría de las personas que se toparon con el mensaje de advertencia y el chatbot lo experimentaron una sola vez. Cerca de 1.7 millones de usuarios vieron una advertencia antes de dejar Pornhub o cambiar a búsquedas de contenido legal.
“No se marcharon simplemente; en su mayoría, se quedaron en el sitio buscando otra cosa”, indica Findlater. “El impacto positivo en millones de personas que dejaron de buscar contenido dudoso es un gran logro”.
No obstante, algunos usuarios no se detuvieron ante las advertencias. En los casos de mayor persistencia, alrededor de 400 personas hicieron 10 búsquedas que desencadenaron el mensaje de alerta.
Findlater, perteneciente a la iniciativa Stop It Now, expresa su deseo de que otras compañías, incluidas las redes sociales y las plataformas de alojamiento de archivos, puedan tomar nota de los resultados obtenidos en esta prueba y consideren implementar medidas similares para intervenir cuando se realicen búsquedas de contenido de abuso sexual infantil.