Nadie duda que la pornografía infantil es sencillamente horrible, pero lo cierto es que existe y no deberíamos mirar hacia otro lado. Esto es justo lo que están haciendo muchas empresas, como Google que ha presentado una herramienta de software gratuito basado en inteligencia artificial avanzada para combatir la propagación de contenido de abusos sexuales a menores.
Esta herramienta permite que mediante el uso de redes neuronales para el procesamiento de imágenes sea posible ordenar y revisar de forma mucho más rápida los contenidos ya calificados como ilegales, además de encontrar contenidos que aún no se han clasificado como CSAM (Child Sexual Abuse Material), aunque sí debe estar clasificado como contenido ilegal.
Las primeras pruebas de esta herramienta arrojan unos resultados muy esperanzadores, ya que ayudó a un moderador a «tomar medidas en un 700% más de contenido de CSAM durante el mismo período de tiempo».
Una de las primeras compañías en probar esta herramienta será Internet Watch Foundation (IWF), una de las organizaciones más grandes dedicadas a detener la propagación de CSAM en línea, haciendo uso de un gran equipo de moderadores humanos que se dedican a identificar imágenes y vídeos con contenido sexual relacionado con menores de edad. Además, operan en más de una docena de países y trabajan en colaboración con la policía de varias regiones del mundo para identificar y cerrar sitios web donde se genera y comparte este tipo de contenido.
Fred Langford, director general adjunto de IWF, mencionó que lo han intentado con varias herramientas que prometen la automatización de esta tarea, pero a día de hoy ninguna ha resultado ser efectiva, así que se espera que Google cumpla lo que promete: «este clasificador sería un poco como el ‘Santo Grial’ de nuestro campo».
Por otra parte, Susie Hargreaves OBE, CEO de IWF, explica que se encuentran “entusiasmados con el desarrollo de una herramienta de inteligencia artificial que podría ayudar a nuestros expertos humanos a revisar el material a una escala aún mayor y mantenerse al día con los delincuentes al orientar las imágenes que no se hayan marcado previamente como material ilegal. Al compartir esta nueva tecnología, la identificación de las imágenes podría acelerarse, lo que a su vez podría hacer que internet sea un lugar más seguro tanto para los sobrevivientes como para los usuarios».
Identificar y luchar contra la propagación de CSAM es un desafío continuo, y los gobiernos, las fuerzas del orden, las ONG y la industria tienen un papel de suma importancia para proteger a los niños de este horrible crimen. Si bien la tecnología por sí sola no es una panacea para este desafío social, este trabajo representa un gran paso adelante para ayudar a más organizaciones a realizar este trabajo desafiante a gran escala.