Anuncios
U.S. markets open in 8 hours 40 minutes
  • F S&P 500

    5,255.50
    -28.50 (-0.54%)
     
  • F Dow Jones

    38,203.00
    -321.00 (-0.83%)
     
  • F Nasdaq

    18,675.25
    -127.50 (-0.68%)
     
  • E-mini Russell 2000 Index Futur

    2,034.90
    -6.70 (-0.33%)
     
  • Petróleo

    79.17
    -0.06 (-0.08%)
     
  • Oro

    2,333.10
    -8.10 (-0.35%)
     
  • Plata

    31.82
    -0.55 (-1.71%)
     
  • dólar/euro

    1.0797
    -0.0011 (-0.10%)
     
  • Bono a 10 años

    4.6240
    +0.0820 (+1.81%)
     
  • Volatilidad

    14.28
    +1.36 (+10.53%)
     
  • dólar/libra

    1.2692
    -0.0012 (-0.09%)
     
  • yen/dólar

    157.1950
    -0.3800 (-0.24%)
     
  • Bitcoin USD

    68,099.46
    -706.91 (-1.03%)
     
  • CMC Crypto 200

    1,466.38
    -18.32 (-1.24%)
     
  • FTSE 100

    8,183.07
    -71.11 (-0.86%)
     
  • Nikkei 225

    38,073.89
    -482.98 (-1.25%)
     

La imagen que pone en aprietos a Netflix y que muestra el incierto futuro de Hollywood

Netflix ha sido acusado de utilizar imágenes manipuladas por IA en un nuevo documental sobre crímenes reales

La imagen de la polémica del documental de Netflix titulado 'What Jennifer Did'. (Netflix)
La imagen de la polémica del documental de Netflix titulado 'What Jennifer Did'. (Netflix)

El último documental de Netflix sobre crímenes reales, What Jennifer Did, ha sido criticado por utilizar supuestamente imágenes generadas por inteligencia artificial. Estrenado el 10 de abril, el documental gira en torno a Jennifer Pan, condenada por un espeluznante plan de asesinato por encargo contra sus propios padres.

Según revela Futurism, se puede ver una de las imágenes problemáticas en el tráiler. Los espectadores observaron ésta y otras imágenes en torno al minuto 28 de la película. En ella, una amiga del instituto de Pan la describe como una persona "burbujeante, feliz, segura de sí misma y muy auténtica". Una serie de fotos aparentemente relevantes acompañan estas palabras, pero al mirarlas más de cerca, aparecen detalles sospechosos...

La imagen en cuestión muestra a Pan haciendo el gesto de la victoria, pero si nos fijamos detenidamente, vemos algo raro. Sus manos parecen sacadas directamente de los primeros días de Midjourney, la IA que crea imágenes pero que solía fallar en la 'construcción' de manos y dedos.

PUBLICIDAD

Hoy en día es difícil distinguir entre la IA y las fotos, pero este caso parece flagrante. Además, la inspección de los espectadores reveló otras dos fotos en las que aparecía Pan con el mismo vestido rojo, que también mostraban signos de manipulación por parte de la IA. Aunque el proceso exacto de edición sigue sin estar claro, los expertos sugieren que los productores podrían haber utilizado una única imagen de origen para fabricar "fotos" adicionales mediante IA.

El detalle de los dedos de la imagen polémica del documental que ha desatado las sospechas sobre si se trata de una imagen creada con IA.  (Netflix)
El detalle de los dedos de la imagen polémica del documental que ha desatado las sospechas sobre si se trata de una imagen creada con IA. (Netflix)

Desde luego, es algo irónico... o algo muy peligroso. El uso de imágenes manipuladas en un documental plantea serios problemas éticos. El género del true crime se nutre de la presentación de una narrativa basada en hechos, y las imágenes desempeñan un papel crucial en la narración. Cuando esas imágenes se alteran de forma evidente, socavan por completo la credibilidad del documental y de la plataforma que lo alberga. Esto también puede sesgar la percepción del caso por parte del espectador, creando prejuicios e ideas equivocadas.

Netflix ha guardado silencio hasta ahora sobre las acusaciones. Lamentablemente, tampoco es la primera vez que se les critica por utilizar imágenes de IA en una película, pero el problema es que se suponía que esta película iba a retratar hechos y personas reales.

¿El futuro que nos espera?

Los organismos reguladores de Estados Unidos, Europa y otros países han promulgado leyes sobre el uso de la IA, pero hasta ahora no parece haber leyes específicas que regulen el uso de imágenes o vídeos de IA en documentales u otros contenidos.

Ya sabemos que la IA puede escribir guiones enteros, crear música y crear imágenes a partir de órdenes escritas. La siguiente evolución lógica está aquí: puedes crear contenidos de vídeo realistas escribiendo una descripción de lo que quieres. Hay numerosos sitios que hacen esto, que puedes encontrar fácilmente buscando "text to video".

No pasará mucho tiempo antes de que estos sitios conviertan guiones enteros en largometrajes, repletos de música, personajes y diálogos. Este desarrollo va a tener un profundo impacto en el empleo en Hollywood. Los expertos han pronosticado que el coste de producción de una película se reducirá al 10% del coste actual en cinco años, y eso significa mucha gente buscando nuevos empleos y muchos estudios vacíos.

Cada vez hay más demandas contra empresas de IA que alegan infracción de los derechos de autor basada en el input (copia para cargar en la IA) o en el output (el output resultante creado por la IA), o en ambos. Hasta la fecha, los casos de salida que se basan en la teoría de que "mi trabajo debe estar ahí en alguna parte" están perdiendo en ausencia de un parecido sorprendente con la obra original, pero los tribunales han mantenido la esperanza para los casos de entrada, siempre y cuando el demandante sea propietario de una obra registrada de derechos de autor que se ha cargado en la IA.

Para evitar litigios, algunas empresas de IA están pagando por adelantado las licencias de las bibliotecas de contenidos, y se han presentado propuestas para modificar la Ley de Propiedad Intelectual con el fin de exigir licencias obligatorias con pagos obligatorios, de forma similar a lo que se hace con las grabaciones musicales.

Dada la tendencia de la IA a "alucinar", no es de extrañar que haya denunciado hechos desagradablemente falsos sobre personas reales, lo que ha dado lugar a demandas por difamación contra empresas de IA. En enero, un tribunal denegó una moción para desestimar un caso de este tipo, por lo que la IA puede ser considerada responsable de tales demandas. Queda por ver si los tribunales aplicarán la Sección 230 de la Ley de Decencia en las Comunicaciones a los resultados generados por la IA como defensa frente a las demandas por difamación.

Hasta la fecha, un mosaico de leyes estatales y jurisprudencia contradictoria ha obstaculizado las demandas por derecho de publicidad contra la IA. Sin embargo, usos extremos, como las llamadas telefónicas generadas por IA del Presidente Biden aconsejando a la gente que no votara en las primarias de New Hampshire y los vídeos X de Taylor Swift, han dado un nuevo impulso a la legislación federal pendiente que protegería el derecho a la imagen frente a la IA, y que podría evitar lo que Netflix habría hecho con su documental.

Más noticias que te pueden interesar:

EN VÍDEO | Apple rediseñará la línea Mac con chips orientados a la IA