El lado oscuro de la IA: ¿Cómo se está utilizando para el abuso sexual infantil?


Imagen generada por IA. Leonardo.ai
Diversas plataformas digitales enfrentan un grave problema de contenido de abuso sexual infantil. En los reportes que nos muestra la IWF, en el 2022 se presentaron más de 200 millones de denuncias de contenido sexual infantil online, lo que indica un gran aumento respecto al año anterior y genera una gran preocupación para la sociedad.
En una entrevista con BBC News, la periodista de investigación Octavia Sheepshanks afirmó que las comunidades de pedófilos en línea han estado compartiendo guías sobre el uso de herramientas de inteligencia artificial para generar imágenes hiperrealistas de abuso sexual infantil una de ellas se encuentra Stable Diffusion cuya finalidad original es crear arte y gráficos.
A pesar de que las principales plataformas digitales cuentan con políticas claras contra la propagación del contenido inapropiado, dicho contenido ha llegado a estas plataformas. En 2022, las plataformas digitales que tuvieron más reportes de abuso sexual infantil, según la IWF, fueron Facebook (85.5%), Instagram (85.5%), WhatsApp (85.5%), Google (2.2%), Snapchat (0.75%) y TikTok (0.4%). Las principales plataformas de redes sociales ya implementan diversas acciones para eliminar el contenido de abuso sexual infantil; sin embargo, entre las principales está el desarrollar y utilizar herramientas impulsadas por IA para detectar y eliminar estos contenidos; o para identificar y eliminar cuentas y grupos que los comparten.