Anuncios
U.S. markets closed
  • F S&P 500

    5,331.00
    -0.75 (-0.01%)
     
  • F Dow Jones

    39,925.00
    -19.00 (-0.05%)
     
  • F Nasdaq

    18,749.25
    -13.75 (-0.07%)
     
  • E-mini Russell 2000 Index Futur

    2,110.70
    +0.80 (+0.04%)
     
  • Petróleo

    79.65
    -0.15 (-0.19%)
     
  • Oro

    2,429.80
    -8.70 (-0.36%)
     
  • Plata

    31.99
    -0.44 (-1.34%)
     
  • dólar/euro

    1.0861
    0.0000 (-0.00%)
     
  • Bono a 10 años

    4.4370
    +0.0170 (+0.38%)
     
  • Volatilidad

    12.15
    +0.16 (+1.33%)
     
  • dólar/libra

    1.2709
    +0.0003 (+0.02%)
     
  • yen/dólar

    156.3970
    +0.2010 (+0.13%)
     
  • Bitcoin USD

    71,474.41
    +5,198.48 (+7.84%)
     
  • CMC Crypto 200

    1,516.98
    +162.57 (+12.00%)
     
  • FTSE 100

    8,424.20
    +3.94 (+0.05%)
     
  • Nikkei 225

    39,069.68
    +282.30 (+0.73%)
     

Depredadores usan IA para representar abuso sexual infantil

(Bloomberg) -- Los depredadores de niños están explotando las tecnologías de inteligencia artificial generativa para compartir material falso de abuso sexual infantil en línea y para intercambiar consejos sobre cómo evitar la detección, según advertencias del Centro Nacional para Niños Desaparecidos y Explotados de Estados Unidos e información vista por Bloomberg News.

Lo más leído de Bloomberg

Los usuarios de un destacado foro sobre depredación infantil compartieron 68 conjuntos de imágenes generadas artificialmente de abuso sexual infantil durante los primeros cuatro meses del año, según Avi Jager, jefe de seguridad infantil y explotación humana de ActiveFence, una startup de moderación de contenido. La cifra representa un aumento frente a las 25 publicaciones que ActiveFence observó durante los últimos cuatro meses de 2022, dijo Jager, quien no quiso nombrar el foro por motivos de seguridad.

PUBLICIDAD

Las imágenes parecen haber sido creadas por tecnología de inteligencia artificial y no muestran que se le haga daño a humanos reales, dijo ActiveFence en un informe publicado el martes.

En 2022, una línea del Centro Nacional para Niños Desaparecidos y Explotados recibió más de 32 millones de denuncias de sospechas de explotación sexual infantil. Casi todo era material de aparente abuso sexual infantil. La línea de información es un sistema centralizado de denuncias de explotación infantil en EE.UU. administrado por la organización sin ánimo de lucro, que fue establecida por el Congreso.

Los usuarios del foro han publicado “miles” de veces sobre cómo se podrían usar las llamadas herramientas de inteligencia artificial generativa para producir otro contenido depredador, incluidos guiones para ayudar a crear personajes falsos para ganarse la confianza de los menores y consejos sobre dónde encontrar objetivos vulnerables.

El uso de esta tecnología emergente para generar imágenes perturbadoras que representan el abuso sexual de niños se produce cuando el Centro ya recibe aproximadamente 80.000 informes de fotografías tradicionales y contenido de abuso a diario, según Yiota Souras, directora legal de la organización.

“Estamos en el precipicio de algo nuevo”, dijo.

Muchas de las herramientas de inteligencia artificial generativa más populares bloquean ciertas palabras clave problemáticas pero Jager dijo que observó que las personas compartían consejos sobre cómo usar palabras clave que evadían las medidas de protección establecidas. Los usuarios de dichos sitios web recomendaron escribir en idiomas distintos al inglés, ya que las herramientas de generación de imágenes y texto tendían a tener menos censores para las frases que no estaban en inglés, dijo Jager.

Bloomberg News encontró un foro web abierto para pedófilos con una guía para generar material falso de abuso sexual infantil en Stable Diffusion, una herramienta de generación de imágenes creada por Stability AI, una startup multimillonaria con sede en Londres.

Stability AI “prohíbe estrictamente cualquier uso indebido con fines ilegales o inmorales en nuestras plataformas y nuestras políticas son claras en cuanto a que esto incluye el abuso sexual infantil”, dijo Motez Bishara, director de comunicaciones de la empresa.

Ya se están reportando quejas sobre material de abuso infantil generado artificialmente. El Centro Nacional para Niños Desaparecidos y Explotados está en conversaciones con legisladores y plataformas sobre qué hacer con lo que el Centro teme que se convierta en “una inundación” de dicho contenido, dijo Souras, directora legal del grupo.

Souras dijo que la organización ha observado un aumento en la sextorsión, la incitación y el tráfico sexual en los que los depredadores en línea parecen usar guiones generados por IA para atraer a sus víctimas. Otras preocupaciones incluyen cómo distinguir el contenido generado por IA que representa el abuso de la fotografía real, lo que podría distraer la atención de la aplicación de la ley y la moderación del contenido, dijo Souras.

Generar imágenes falsas de niños involucrados en conductas sexualmente explícitas es ilegal en EE.UU., según el Departamento de Justicia. Generar imágenes falsas de abuso sexual infantil es ilegal en países como el Reino Unido, Australia y Canadá.

Traducido por Malu Poveda.

Nota Original:Predators Exploit AI Tools to Depict Child Sex Abuse (Correct)

©2023 Bloomberg L.P.