Anuncios
U.S. markets closed
  • S&P 500

    5,304.72
    +36.88 (+0.70%)
     
  • Dow Jones

    39,069.59
    +4.33 (+0.01%)
     
  • Nasdaq

    16,920.79
    +184.76 (+1.10%)
     
  • Russell 2000

    2,069.67
    +21.26 (+1.04%)
     
  • Petróleo

    77.80
    +0.93 (+1.21%)
     
  • Oro

    2,335.20
    -2.00 (-0.09%)
     
  • Plata

    30.54
    +0.09 (+0.28%)
     
  • dólar/euro

    1.0850
    +0.0032 (+0.29%)
     
  • Bono a 10 años

    4.4670
    -0.0080 (-0.18%)
     
  • dólar/libra

    1.2739
    +0.0041 (+0.32%)
     
  • yen/dólar

    156.9430
    +0.0050 (+0.00%)
     
  • Bitcoin USD

    69,234.35
    +221.32 (+0.32%)
     
  • CMC Crypto 200

    1,483.29
    +15.19 (+1.03%)
     
  • FTSE 100

    8,317.59
    -21.64 (-0.26%)
     
  • Nikkei 225

    38,646.11
    -457.11 (-1.17%)
     

Incentivados por chicas adolescentes, varios estados deciden prohibir los desnudos ultrafalsos

La representante del estado de Washington Tina Orwall en el puerto deportivo de Des Moines, Washington, el 16 de abril de 2024. (Ruth Fremson/The New York Times)
La representante del estado de Washington Tina Orwall en el puerto deportivo de Des Moines, Washington, el 16 de abril de 2024. (Ruth Fremson/The New York Times)

Caroline Mullet, estudiante de noveno grado en Issaquah High School, cerca de Seattle, asistió a su primer baile de exalumnos el otoño pasado, una reunión inspirada en James Bond con mesas de blackjack en la que se congregaron cientos de chicas enfundadas en vestidos de fiesta.

Unas semanas después, junto con otras estudiantes, se enteró de que uno de sus compañeros estaba haciendo circular imágenes falsas de desnudos de algunas chicas que fueron al baile, fotografías con escenas sexuales explícitas que había fabricado con una aplicación de inteligencia artificial diseñada para “desnudar” automáticamente a jóvenes y mujeres que aparecían vestidas en fotografías.

Mullet, de 15 años, le avisó de esa situación a su padre, Mark, quien es un senador demócrata por el estado de Washington. Aunque ella no era una de las chicas que aparecían en las fotos, preguntó si era posible hacer algo para ayudar a sus amigas, que se sentían “extremadamente incómodas” porque sus compañeros habían visto imágenes simuladas de ellas desnudas. Pronto, Mark Mullet y una de sus colegas en la Cámara de Representantes del estado propusieron una ley que prohibiera compartir imágenes de menores reales en escenas sexuales explícitas generadas con IA.

PUBLICIDAD

“No me gustaría nada estar preocupada de que algo así les pudiera ocurrir de nuevo a mis amigas, a mis hermanas o a mí”, afirmó Caroline Mullet ante los legisladores del estado durante una audiencia sobre el proyecto de ley en enero.

La legislatura del estado aprobó la ley sin oposición. El gobernador Jay Inslee, de afiliación demócrata, firmó su entrada en vigor el mes pasado.

Los estados están a la vanguardia en una nueva forma de explotación sexual y acoso entre pares de rápida propagación en las escuelas. Chicos por todo Estados Unidos han utilizado aplicaciones de “nudificación” disponibles de muchas fuentes para fabricar secretamente imágenes sexuales explícitas de sus compañeras y hacer circular los desnudos simulados a través de grupos de chat en aplicaciones como Snapchat e Instagram.

Caroline Mullet con su padre, el senador del estado de Washington Mark Mullet, frente a la escuela Issaquah High School, en Issaquah, Washington, el 17 de abril de 2024. (Ruth Fremson/The New York Times)
Caroline Mullet con su padre, el senador del estado de Washington Mark Mullet, frente a la escuela Issaquah High School, en Issaquah, Washington, el 17 de abril de 2024. (Ruth Fremson/The New York Times)

Ahora, incentivados en parte por los inquietantes relatos de adolescentes como Mullet, los legisladores federales y estatales han tomado medidas ágiles para crear protecciones e intentar seguir el paso de las aplicaciones explotadoras de IA.

Desde principios del año pasado, por lo menos 24 estados han presentado proyectos de ley a fin de combatir las imágenes sexuales explícitas generadas con IA (conocidas como “deepfakes” o imágenes ultrafalsas) de menores de 18 años, según datos recopilados por el Centro Nacional de Niños Extraviados y Explotados, organización sin fines de lucro. En muchos de esos estados, tales medidas ya se aprobaron.

Uno de ellos, Dakota del Sur, aprobó este año una ley que define como ilícito poseer, producir o distribuir material de abuso sexual generado con IA que incluya a menores de edad. El año pasado, Luisiana promulgó una ley sobre imágenes ultrafalsas que define como delito penal la generación con IA de imágenes sexuales explícitas de menores.

“Me percaté de cuán urgente era actuar cuando escuché acerca de estos casos y el enorme daño causado”, comentó la representante Tina Orwall, demócrata que preparó el texto de la ley sobre imágenes ultrafalsas explícitas del estado de Washington tras escuchar sobre incidentes como el ocurrido en Issaquah High.

Algunos legisladores y expertos en la protección de menores señalaron que se requieren con urgencia normas de este tipo debido a que conseguir las aplicaciones de nudificación con IA es tan fácil que se están produciendo y distribuyendo en serie imágenes gráficas falsas que podrían circular en línea muchísimo tiempo, lo que pone en riesgo la salud mental, la reputación y la seguridad física de las chicas.

“Un chico puede victimizar a 40 chicas menores de edad solo con su teléfono en una tarde”, explicó Yiota Souras, directora legal del Centro Nacional de Niños Extraviados y Explotados, “y luego sus imágenes quedan en circulación”.

En los últimos dos meses, se han multiplicado los incidentes relacionados con desnudos ultrafalsos en las escuelas (en Richmond, Illinois, y en Beverly Hills y Laguna Beach, California).

El código legal de Estados Unidos prohíbe la distribución de material relacionado con abuso sexual de menores generado por computadora en el que aparezcan menores identificables participando en conductas sexuales explícitas. El mes pasado, el FBI emitió un mensaje de alerta para advertir que ese material ilícito incluye las imágenes realistas de abuso sexual de menores generadas por IA.

Ahora, los estados intentan que se aprueben leyes diseñadas para ponerles un alto a las imágenes de explotación creadas con IA. Este mes, California presentó un proyecto de ley que busca actualizar una prohibición impuesta en el estado al material de abuso sexual de menores de tal manera que incluya específicamente el material abusivo generado con IA.

Por su parte, los legisladores de Massachusetts le están dando los toques finales a una ley que pretende criminalizar la distribución sin consentimiento de imágenes explícitas, incluida la pornografía ultrafalsa. También propone que un organismo estatal desarrolle un programa de remisión dirigido a los menores que hayan compartido imágenes explícitas, a fin de concientizarlos sobre temas como el “uso responsable de la inteligencia artificial generativa”.

Las sanciones pueden ser graves. La nueva ley de Luisiana estipula que a cualquier persona que deliberadamente cree, distribuya, promueva o venda imágenes sexuales explícitas ultrafalsas de menores se le impondrá como sanción una sentencia mínima de prisión de entre cinco y diez años.

El enfoque de la nueva ley de pornografía ultrafalsa del estado de Washington es distinto.

Después de enterarse del incidente ocurrido en Issaquah High por su hija, Mark Mullet se comunicó con Orwall, quien fue trabajadora social y ahora se dedica a defender a sobrevivientes de ataques sexuales. Orwall, que estuvo involucrada en uno de los primeros proyectos de ley del estado relacionados con la llamada pornovenganza, más adelante redactó un proyecto de ley de la Cámara de Representantes con el propósito de prohibir la distribución de imágenes sexuales explícitas o íntimas generadas con IA de menores o adultos (Mullet, que respaldó el proyecto subsiguiente ante el Senado, ahora se encuentra en campaña por la gubernatura).

De conformidad con la ley resultante, quienes cometan este delito por primera vez podrían ser acusados de delitos menores, mientras que se presentarían cargos por delitos graves contra las personas con condenas previas por divulgar imágenes sexuales explícitas. Las nuevas normas de pornografía ultrafalsa entrarán en vigor en junio.

“A nadie le sorprende que estemos rezagados en las protecciones”, señaló Orwall. “Por eso queríamos tomar medidas lo más pronto posible”.

c.2024 The New York Times Company