Anuncios
U.S. markets close in 2 hours 57 minutes
  • S&P 500

    5,308.56
    +0.43 (+0.01%)
     
  • Dow Jones

    39,820.23
    +13.46 (+0.03%)
     
  • Nasdaq

    16,782.96
    -11.91 (-0.07%)
     
  • Russell 2000

    2,096.85
    -5.65 (-0.27%)
     
  • Petróleo

    78.90
    -0.90 (-1.13%)
     
  • Oro

    2,426.50
    -12.00 (-0.49%)
     
  • Plata

    32.08
    -0.35 (-1.07%)
     
  • dólar/euro

    1.0857
    -0.0005 (-0.04%)
     
  • Bono a 10 años

    4.4060
    -0.0310 (-0.70%)
     
  • dólar/libra

    1.2708
    +0.0001 (+0.01%)
     
  • yen/dólar

    156.1360
    -0.0600 (-0.04%)
     
  • Bitcoin USD

    69,590.35
    +1,491.87 (+2.19%)
     
  • CMC Crypto 200

    1,518.94
    +30.39 (+2.04%)
     
  • FTSE 100

    8,416.45
    -7.75 (-0.09%)
     
  • Nikkei 225

    38,946.93
    -122.75 (-0.31%)
     

Un investigador en materia de IA habla de los ultrafalsos en época electoral

Oren Etzioni, profesor de la Universidad de Washington que se convirtió en uno de los primeros investigadores en advertir que una nueva especie de inteligencia artificial aceleraría la propagación de desinformación en línea, en el Instituto Allen para la Inteligencia Artificial, Washington, el 27 de agosto de 2019. (Kyle Johnson/The New York Times)
Oren Etzioni, profesor de la Universidad de Washington que se convirtió en uno de los primeros investigadores en advertir que una nueva especie de inteligencia artificial aceleraría la propagación de desinformación en línea, en el Instituto Allen para la Inteligencia Artificial, Washington, el 27 de agosto de 2019. (Kyle Johnson/The New York Times)

SAN FRANCISCO — Durante casi treinta años, Oren Etzioni fue uno de los investigadores de inteligencia artificial más optimistas.

Sin embargo, en 2019, Etzioni, profesor de la Universidad de Washington y director ejecutivo fundador del Instituto Allen para la Inteligencia Artificial, se convirtió en uno de los primeros investigadores en advertir que una nueva especie de IA aceleraría la propagación de desinformación en línea. A mediados del año pasado, dijo, le preocupaba que los ultrafalsos generados por la IA pudieran influir en elecciones importantes. En enero, fundó TrueMedia.org, una organización sin fines de lucro, con la esperanza de combatir esa amenaza.

El martes, la organización presentó herramientas gratuitas para identificar la desinformación digital, con la intención de ponerlas en manos de periodistas, verificadores de hechos y cualquiera que intente averiguar qué es real en internet.

PUBLICIDAD

Las herramientas, disponibles en el sitio web TrueMedia.org para cualquier persona autorizada por la organización sin ánimo de lucro, están diseñadas con el fin de detectar imágenes, audio y video falsos y manipulados. Revisan enlaces a archivos multimedia y determinan rápidamente si son fiables.

Etzioni considera que estas herramientas suponen una mejora respecto a la defensa improvisada que se utiliza actualmente para detectar contenidos engañosos o falsos de la IA. Sin embargo, en un año en el que miles de millones de personas de todo el mundo votarán en las elecciones, Etzioni sigue dibujando un panorama sombrío de lo que nos espera.

“Estoy aterrorizado”, afirmó. “Es muy probable que veamos un tsunami de desinformación”.

En una imagen ultrafalsa generada por inteligencia artificial y proporcionada por Oren Etzioni, el expresidente Donald Trump aparece con sangre en los dedos. La imagen falsa fue etiquetada como “incierta” por la herramienta de TrueMedia. (Oren Etzioni vía The New York Times)
En una imagen ultrafalsa generada por inteligencia artificial y proporcionada por Oren Etzioni, el expresidente Donald Trump aparece con sangre en los dedos. La imagen falsa fue etiquetada como “incierta” por la herramienta de TrueMedia. (Oren Etzioni vía The New York Times)

Tan solo en los primeros meses del año, las tecnologías de IA ayudaron a crear llamadas de voz falsas del presidente Joe Biden, imágenes y anuncios de audio falsos de Taylor Swift, así como toda una entrevista falsa que parecía mostrar a un funcionario ucraniano atribuyéndose un atentado terrorista en Moscú. Detectar este tipo de desinformación ya es difícil, y la industria tecnológica sigue lanzando sistemas de IA cada vez más potentes que generarán ultrafalsos cada vez más convincentes y dificultarán aún más su detección.

Muchos investigadores de inteligencia artificial advierten que la amenaza está cobrando fuerza. El mes pasado, más de mil personas —entre ellas Etzioni y otros destacados investigadores de IA— firmaron una carta abierta en la que pedían leyes que hicieran responsables a los desarrolladores y distribuidores de servicios audiovisuales de IA si su tecnología se utilizaba fácilmente para crear ultrafalsos perjudiciales.

En un evento organizado por la Universidad de Columbia el jueves, Hillary Clinton, la exsecretaria de Estado, entrevistó a Eric Schmidt, el ex director ejecutivo de Google, quien advirtió que los videos, incluso los falsos, podrían “influir en el comportamiento electoral, el comportamiento humano, los estados de ánimo, todo”.

“No creo que estemos preparados”, comentó Schmidt. “Este problema va a empeorar mucho en los próximos años. Puede que empeore o no para noviembre, pero es seguro que empeorará el próximo ciclo”.

La industria tecnológica es muy consciente de la amenaza. Incluso mientras las empresas se apresuran a hacer avanzar los sistemas de IA generativa, se esfuerzan por limitar el daño que pueden causar estas tecnologías. Anthropic, Google, Meta y OpenAI han anunciado planes para limitar o etiquetar los usos relacionados con las elecciones de sus servicios de inteligencia artificial. En febrero, veinte empresas tecnológicas —entre ellas Amazon, Microsoft, TikTok y X, antes conocida como Twitter— firmaron un compromiso voluntario para evitar que los contenidos engañosos de IA perturben la votación.

Esto podría suponer un reto. Las empresas suelen publicar sus tecnologías como software de código abierto, lo que significa que cualquiera es libre de utilizarlas y modificarlas sin restricciones. Los expertos afirman que la tecnología utilizada para crear ultrafalsos —fruto de la enorme inversión de muchas de las más grandes empresas del mundo— siempre superará la tecnología diseñada para detectar la desinformación.

La semana pasada, durante una entrevista con The New York Times, Etzioni demostró lo fácil que es crear un ultrafalso. Utilizando un servicio de una organización hermana sin fines de lucro, CivAI, que se basa en herramientas de IA fácilmente disponibles en internet para demostrar los peligros de estas tecnologías, creó al instante fotos de sí mismo en prisión, un lugar en el que nunca ha estado.

“Cuando te ves a ti mismo falsificado, da mucho más miedo”, señaló.

Más tarde, generó un ultrafalso de sí mismo en la cama de un hospital, el tipo de imagen que cree que podría cambiar las elecciones si se aplicara a Biden o al expresidente Donald Trump justo antes de las votaciones.

Las herramientas de TrueMedia están diseñadas para detectar este tipo de falsificaciones. Más de una decena de empresas ofrecen tecnologías similares.

No obstante, aunque Etzioni destacó la eficacia de la herramienta de su grupo, dijo que ningún detector era perfecto porque se basaba en probabilidades. Los servicios de detección de falsificaciones han sido engañados al declarar que imágenes de robots que se besan y neandertales gigantes eran fotografías reales, lo que hace temer que estas herramientas puedan dañar aún más la confianza de la sociedad en los hechos y las pruebas.

Cuando Etzioni introdujo en las herramientas de TrueMedia un ultrafalso conocido de Trump sentado en un banco con un grupo de jóvenes negros, quedó calificado como “altamente sospechoso”, su máximo nivel de confianza. Cuando subió otro ultrafalso conocido de Trump con sangre en los dedos, la herramienta no sabía con seguridad si era real o falso.

“Ni utilizando las mejores herramientas puedes estar seguro”, agregó.

Desde que Etzioni creó TrueMedia.org, OpenAI ha presentado dos nuevas tecnologías que prometen dificultar aún más su trabajo. Una puede recrear la voz de una persona a partir de una grabación de quince segundos. Otra puede generar videos de movimiento completo que parecen sacados de una película de Hollywood. OpenAI aún no comparte estas herramientas con el público, ya que trabaja para comprender los posibles peligros.

En última instancia, según Etzioni, la lucha contra el problema requerirá una cooperación amplia entre los reguladores gubernamentales, las empresas que crean tecnologías de IA y los gigantes tecnológicos que controlan los navegadores web y las redes sociales donde se difunde la desinformación. Sin embargo, dijo que la probabilidad de que esto ocurra antes de las elecciones de otoño es escasa.

“Estamos intentando ofrecer a la gente la mejor evaluación técnica de lo que tienen ante ellos. Todavía tienen que decidir si es real”, afirmó.

c.2024 The New York Times Company