TikTok y Snapchat buscan cómo controlar imágenes de abuso sexual infantil generadas por IA

Business Insider México · Unsplash

En este artículo:

Las imágenes de abuso sexual infantil generadas a través de herramientas de inteligencia artificial se están convirtiendo en una preocupación cada vez mayor para las autoridades y plataformas digitales.

De acuerdo con un estudio realizado por la Internet Watch Foundation (IWF) en octubre, se encontraron en un solo mes más de 3,000 imágenes de este tipo en un foro de la dark web dedicado a material de abuso sexual infantil.

Las imágenes, generadas utilizando tecnología de conversión de texto a imagen, son inquietantemente realistas y pueden producirse sin conexión, evadiendo la detección. El informe advierte que los rápidos avances en la inteligencia artificial podrían abrumar los esfuerzos para combatir el abuso infantil en línea.

Digital manipulation of a young woman's image covering her ears
Digital manipulation of a young woman's image covering her ears · Francesco Carta fotografo via Getty Images

Empresas tecnológicas como TikTok, Snapchat y Stability AI y otros 27 signatarios firmaron una declaración conjunta comprometiéndose a trabajar en conjunto para contrarrestar las imágenes de abuso sexual infantil generadas por inteligencia artificial.

El gobierno de Gran Bretaña anunció la declaración conjunta —que también fue firmada por los gobiernos de Estados Unidos, Alemania y Australia — en un evento previo a una cumbre mundial sobre seguridad de la inteligencia artificial que se llevará a cabo en Reino Unido esta semana.

"Resolvemos mantener el diálogo y la innovación técnica para abordar el abuso sexual infantil en la era de la IA", se lee en el comunicado.

"Resolvemos trabajar juntos para garantizar que utilizamos una IA responsable para abordar esta amenaza y nos comprometemos a continuar trabajando en colaboración para garantizar que los riesgos que plantea la IA para abordar el abuso sexual infantil no se vuelvan insuperables", agrega.

Por su parte, la CEO de la IWF, Susie Hargreaves, dijo que el momento para actuar frente a este peligro digital es ahora. "Es esencial que demos ejemplo y erradiquemos el abuso de esta tecnología emergente antes de que tenga la oportunidad de echar raíces", enfatizó.

El riesgo está latente

Según el informe de la IWF, en 2022 hubo más de 200 millones de denuncias de contenido de abuso sexual infantil en línea. Este es un aumento significativo con respecto a los 149 millones de denuncias que se realizaron en 2021.

Teen woman with headache holding her head in her living room during the day
Teen woman with headache holding her head in her living room during the day · ljubaphoto via Getty Images

Otro informe publicado por WeProtect Global Alliance reveló un aumento de 87% en los casos materiales de abuso sexual infantil en línea reportados desde 2019, con más de 32 millones de informes a nivel mundial.

En una entrevista con BBC News, la periodista de investigación Octavia Sheepshanks afirmó que las comunidades de pedófilos en línea han estado compartiendo guías sobre el uso de herramientas de inteligencia artificial para generar imágenes hiperrealistas de abuso sexual infantil. Stable Diffusion —una herramienta diseñada originalmente para crear arte y gráficos— se encuentra entre los software que se utilizan indebidamente.