Anuncios
U.S. markets open in 16 minutes
  • F S&P 500

    5,283.25
    -41.50 (-0.78%)
     
  • F Dow Jones

    38,673.00
    -271.00 (-0.70%)
     
  • F Nasdaq

    18,768.25
    -172.25 (-0.91%)
     
  • E-mini Russell 2000 Index Futur

    2,044.50
    -28.70 (-1.38%)
     
  • Petróleo

    80.04
    +0.21 (+0.26%)
     
  • Oro

    2,341.00
    -15.50 (-0.66%)
     
  • Plata

    31.95
    -0.19 (-0.58%)
     
  • dólar/euro

    1.0841
    -0.0019 (-0.17%)
     
  • Bono a 10 años

    4.5680
    +0.0260 (+0.57%)
     
  • Volatilidad

    14.14
    +1.22 (+9.44%)
     
  • dólar/libra

    1.2743
    -0.0029 (-0.22%)
     
  • yen/dólar

    157.2560
    +0.3980 (+0.25%)
     
  • Bitcoin USD

    67,913.86
    -170.99 (-0.25%)
     
  • CMC Crypto 200

    1,463.58
    -21.11 (-1.42%)
     
  • FTSE 100

    8,204.55
    -49.63 (-0.60%)
     
  • Nikkei 225

    38,556.87
    -298.50 (-0.77%)
     

El material de abuso sexual infantil generado por inteligencia artificial podría saturar las líneas telefónicas de denuncia

Periodistas y camarógrafos de televisión afuera de una audiencia de la Comisión de Asuntos Judiciales del Senado sobre explotación sexual infantil en línea en Washington, el 31 de enero de 2024. Un nuevo informe revela que la inteligencia artificial agrava este problema. (Tom Brenner/The New York Times)
Periodistas y camarógrafos de televisión afuera de una audiencia de la Comisión de Asuntos Judiciales del Senado sobre explotación sexual infantil en línea en Washington, el 31 de enero de 2024. Un nuevo informe revela que la inteligencia artificial agrava este problema. (Tom Brenner/The New York Times)

WASHINGTON — Un nuevo aluvión de materiales de abuso sexual infantil generados por inteligencia artificial está amenazando con saturar a las autoridades que ya están retrasados por tecnología y leyes anticuadas, según un nuevo informe publicado el lunes por el Internet Observatory de la Universidad de Stanford.

En el transcurso del año pasado, nuevas tecnologías de inteligencia artificial les han facilitado a los criminales crear imágenes explícitas de niños. Ahora, investigadores de la Universidad de Stanford advierten que el Centro Nacional para Niños Desaparecidos y Explotados, una organización sin fines de lucro que actúa como una agencia central de coordinación y recibe la mayoría de su financiamiento del gobierno federal, no tiene los recursos para combatir esta amenaza cada vez mayor.

La línea telefónica de denuncia de la organización, llamada CyberTipline y creada en 1998, es el centro de referencia de información a nivel federal para todos los reportes de material de abuso sexual infantil, o CSAM por su sigla en inglés, en línea, y las autoridades la usan para investigar delitos. Pero muchas de las denuncias que se reciben están incompletas o plagadas de imprecisiones. Su limitado personal también ha tenido dificultades para seguir el ritmo del volumen de reportes.

PUBLICIDAD

“Es casi una certeza que, en los próximos años, CyberTipline se vea inundada de contenido de aspecto muy realista generado por inteligencia artificial, lo cual hará aún más difícil que las autoridades identifiquen a los niños reales que necesitan rescate”, sentenció Shelby Grossman, una de los autores del reporte.

El Centro Nacional para Niños Desaparecidos y Explotados se encuentra en el frente de una nueva batalla contra las imágenes sexualmente explícitas creadas por inteligencia artificial, una actividad delictiva emergente que los legisladores y las autoridades siguen definiendo. En medio de una epidemia de imágenes de desnudos ultrafalsos (o “deepfakes”) generados por inteligencia artificial que circulan en las escuelas, algunos legisladores ya están tomando medidas para garantizar que este tipo de contenido sea declarado ilegal.

Según los investigadores, las imágenes CSAM generadas por inteligencia artificial solo son ilegales si contienen la apariencia de niños reales o si se usan imágenes de niños reales como datos para entrenar al sistema. Sin embargo, aquellas que se generan artificialmente, por lo que no contienen imágenes reales, podrían estar protegidas bajo la libertad de expresión, según uno de los autores del informe.

La indignación pública ante la proliferación de las imágenes de abuso sexual infantil en línea explotó en una audiencia reciente con los altos ejecutivos de Meta, Snap, TikTok, Discord y X, que fueron fustigados por los legisladores por no tomar medidas suficientes para proteger a los niños pequeños en línea.

El Centro Nacional para Niños Desaparecidos y Explotados, que recibe reportes y denuncias de individuos y empresas como Facebook y Google, ha abogado a favor de que la ley aumente su financiamiento y le dé acceso a más tecnología. Los investigadores de Stanford relataron que la organización les dio acceso a entrevistas con empleados y a sus sistemas a fin de que el informe reflejara las vulnerabilidades de sistemas que necesitan actualizarse.

“Con el paso de los años, la complejidad de los reportes y la gravedad de los delitos perpetrados contra niños siguen evolucionando”, declaró la organización en un comunicado. “Por lo tanto, si se aprovechan soluciones tecnológicas emergentes en todo el proceso de CyberTipline, más niños estarían protegidos y más delincuentes serían llevados ante la justicia”.

Los investigadores de Stanford hallaron que la organización debía cambiar el funcionamiento de su línea telefónica de denuncia para garantizar que las autoridades pudieran determinar qué reportes están relacionados con contenido generado por inteligencia artificial, así como para garantizar que las empresas que reportan posible material de abuso sexual en sus plataformas llenen los formularios en su totalidad.

En 2022, menos de la mitad de todas las denuncias realizadas en CyberTipline fueron “impugnables”, ya sea porque las empresas que reportaron el abuso no proporcionaron suficiente información o porque la imagen reportada se había difundido muy rápidamente en línea y se había reportado demasiadas veces. La línea telefónica de denuncia tiene una opción para verificar si el contenido reportado podría ser un meme, pero casi nadie la usa.

Este año, el centro de información federal recibió la cantidad récord de un millón de reportes de material de abuso sexual infantil en un solo día. Los investigadores trabajaron durante semanas para responder a este inusual repunte. Al final, resultó que muchos de los reportes estaban relacionados con la imagen de un meme que la gente estaba compartiendo en varias plataformas para expresar indignación, no con intención maliciosa. De todos modos, esto consumió una gran cantidad de sus recursos de investigación.

Esa tendencia empeorará a medida que se acelere el contenido generado por inteligencia artificial, advirtió Alex Stamos, uno de los autores del informe de Stanford.

“Ya les es suficientemente complicado lidiar con un millón de imágenes idénticas, lidiar con un millón de imágenes distintas creadas por inteligencia artificial colapsaría sus operaciones”, afirmó Stamos.

El Centro Nacional para Niños Desaparecidos y Explotados y sus contratistas enfrentan restricciones en cuanto al uso de servicios de computación en la nube y están obligados a guardar las imágenes en las computadoras de sus instalaciones locales. Los investigadores descubrieron que esos requisitos les dificultan construir y utilizar el hardware especializado necesario para crear y entrenar los modelos de inteligencia artificial para sus investigaciones.

La organización no suele tener la tecnología necesaria para implementar un uso amplio de software de reconocimiento facial que permita identificar a víctimas y agresores. Gran parte del procesamiento de las denuncias y reportes se sigue haciendo a mano.

c.2024 The New York Times Company