Anuncios
U.S. markets closed
  • F S&P 500

    5,690.00
    +7.00 (+0.12%)
     
  • F Dow Jones

    40,566.00
    +52.00 (+0.13%)
     
  • F Nasdaq

    20,625.25
    +41.50 (+0.20%)
     
  • E-mini Russell 2000 Index Futur

    2,213.50
    +5.90 (+0.27%)
     
  • Petróleo

    81.82
    -0.09 (-0.11%)
     
  • Oro

    2,429.70
    +0.80 (+0.03%)
     
  • Plata

    30.96
    +0.02 (+0.08%)
     
  • dólar/euro

    1.0893
    -0.0007 (-0.07%)
     
  • Bono a 10 años

    4.2290
    +0.0400 (+0.95%)
     
  • Volatilidad

    13.12
    +0.66 (+5.30%)
     
  • dólar/libra

    1.2963
    -0.0003 (-0.02%)
     
  • yen/dólar

    158.5730
    +0.4740 (+0.30%)
     
  • Bitcoin USD

    64,801.20
    +3,222.16 (+5.23%)
     
  • CMC Crypto 200

    1,343.45
    +74.50 (+5.87%)
     
  • FTSE 100

    8,182.96
    -69.95 (-0.85%)
     
  • Nikkei 225

    41,319.26
    +128.58 (+0.31%)
     

Rosalía, la última víctima del perturbador ‘deepfake’ porno que se ceba con las mujeres

Rosalía ha visto como en cuestión de horas se volvía viral una foto sexual suya manipulada, producto del deepfake porno más rancio. (Photo by Frazer Harrison/Getty Images for Coachella)
Rosalía ha visto como en cuestión de horas se volvía viral una foto sexual suya manipulada, producto del deepfake porno más rancio. (Photo by Frazer Harrison/Getty Images for Coachella) (Frazer Harrison via Getty Images)

La época de desarrollo tecnológico que vivimos, encabezada por el avance sin frenos de la inteligencia artificial (IA) y la manipulación fotográfica, está trayendo consigo nuevas formas de causar daño al otro, con el deepfake aplicado al porno y al contenido sexual en lo más alto de la lista.

La última víctima de este tipo de creaciones perturbadores ha sido Rosalía. En apenas unas horas se hacía viral en redes una fotografía de la artista española en la que se le ve con el torso desnudo y dos emoticonos tapándole los pezones. La captura fue compartida en Instagram por un regetonero X, también de origen español, al que desde este medio nos negamos a darle mayor protagonismo que el de aclarar que existe. Por supuesto, se trataba de una imagen falsa, pero el daño ya estaba hecho.

La oleada de críticas no se hizo esperar. Los fans de la Motomami no dudaron en cargar contra el susodicho y compartir las fotografías originales que han dado pie al montaje. Rosalía también se pronunciaba con un escueto tuit en el que se podía leer lo siguiente: “Ir a buscar clout (influencia) faltando el respeto y sexualizando a alguien es un tipo de violencia y da asco, pero hacerlo por 4 plays (visualizaciones) de más, lo que da es pena”.

Incapaz de quedarse callada ante esta vulneración a su intimidad, Rosalía compartió otro comentario en Twitter, este mucho más contundente: “El cuerpo de una mujer no es propiedad pública, no es una mercancía para tu estrategia de marketing. Esas fotos estaban editadas y creaste una falsa narrativa alrededor cuando ni te conozco. Existe algo llamado consentimiento y todos a los que os pareció gracioso o plausible espero de corazón que un día aprendáis que venís de una mujer, que las mujeres somos sagradas y que se nos ha de respetar”.

El episodio, que podría pasar como un hecho detestable, pero aislado, se enmarca dentro de un problema mayor, el de los deepfake, de dimensiones todavía impredecibles. Más aún si se aplica a contenido pornográfico o sexual. El desarrollo de la IA permite ahora manipular cualquier fotografía, secuencia de imágenes o videos a través de aplicaciones de fácil descarga y manejo. El nivel de realismo es tal que resulta casi imposible discernir qué es real y qué ha sido creado.

PUBLICIDAD

La sofisticación que han alcanzado estas imágenes es inquietante y su uso está tan extendido que los expertos hablan ya de fenómeno. De acuerdo con un estudio de Deeptrace, compañía especializada en ciberseguridad con base en Amsterdam, ocho de las 10 principales páginas web de pornografía incluyen contenidos hechos por medio del deepfake. Si bien cualquier persona es vulnerable de que su rostro aparezca vinculado al cuerpo de un actor, las mujeres se han convertido en el blanco de esta práctica enmarcada en la violencia digital que atenta directamente contra su derecho a la integridad. El mismo informe detalla que las cuatro webs de porno deepkafe que más contenido generan suman cerca de 134,5 millones de visualizaciones de videos protagonizados por mujeres famosas. Pero las anónimas tampoco están exentas de que su imagen acabe suplantada, a merced de que cualquier usuario lo consuma. Como indican desde Deeptrace, el 100% del contenido manipulado que aparece en estas plataformas porno está protagonizado por mujeres. “La pornografía deepfakees un fenómeno que utiliza y daña exclusivamente a mujeres”, añaden los autores de la investigación. Más preocupante aún es que el 96% de los videos manipulados que se alojan en estas webs no cuentan con el consentimiento de sus protagonistas. Qué decir de que ninguna de esas mujeres recibe remuneración alguna por el uso masivo, artificial e hiperrealista de sus fotografías.

El 'deepfake' afecta en el 100% de los casos a mujeres, no solo famosas, también anónimas. Foto: Getty Creative
El 'deepfake' afecta en el 100% de los casos a mujeres, no solo famosas, también anónimas. Foto: Getty Creative (Arkadiusz Warguła via Getty Images)

El deepfake se ha convertido en un lucrativo negocio para las plataformas porno y también para cualquier creador de contenido sin escrúpulos con un mínimo de conocimiento en inteligencia artificial. Un reportaje de la NBC reveló que diferentes creadores ofrecen sus servicios a través del servicio de mensajería instantánea Discord para crear videos porno de mujeres anónimas por 65 dólares (1.157 pesos mexicanos).

“Esta es la cara del dolor. La explotación y objetivación a la que estamos sujetas las mujeres es agotadora. No debería ser yo la que es acosada, la que tiene que ver fotos de sí misma desnuda en contra de tu voluntad y difundidas. Esto no debería ser algo que se encuentra en Internet. Así se ve el dolor. Así es como se ve alguien que ha sido violada, alguien de la que se han aprovechado”. Con estas palabras y entre lágrimas, tremendamente afligida, denunciaba la streamer QTCinderella la difusión de un video pornográfico falso e hiperrealista generado por inteligencia artificial a partir de una imagen suya a principios de 2023. La joven, que cuenta con cerca de 930 mil seguidores en Twitch y 540 mil en Twitter, se rompía ante esta explotación sexual de su imagen que levanta cada vez más temores. El Instituto Europeo para la Igualdad de Género, tipifica estas creaciones como una nueva y sofisticada forma de agresión machista que asocia graves consecuencias psicológicas, físicas, sexuales y económicas para la víctima.

LEER MÁS:

La edición fotográfica no es nueva. Tampoco la manipulación de contenidos. Pero las imágenes creadas por la IA abren un nuevo paradigma por el realismo extremo que trasladan, las implicaciones éticas que subyacen de su utilización y su capacidad de propagación sin precedentes a través de Internet. La tecnología avanza a pasos agigantados, mucho más rápido que cualquier marco normativo, incapaz de proteger la integridad de las víctimas cuando las agresiones se suceden en la digitalidad. Mientras esperamos el día en el que las autoridades mundiales decidan abordar los riesgos que asocia el desarrollo de la inteligencia artificial, nada impide que el contenido falso siga circulando y reproduciéndose. Y reproduciéndose y reproduciéndose y reproduciéndose...

TAMBIÉN TE PUEDE INTERESAR | EN VIDEO

Director de Open AI pide regular inteligencia artificial al Congreso de EE. UU.