Anuncios
U.S. markets open in 6 hours 48 minutes
  • F S&P 500

    5,245.00
    +6.00 (+0.11%)
     
  • F Dow Jones

    39,597.00
    +61.00 (+0.15%)
     
  • F Nasdaq

    18,233.00
    +18.50 (+0.10%)
     
  • E-mini Russell 2000 Index Futur

    2,088.20
    +4.10 (+0.20%)
     
  • Petróleo

    79.89
    +0.63 (+0.79%)
     
  • Oro

    2,369.20
    +28.90 (+1.23%)
     
  • Plata

    28.78
    +0.42 (+1.46%)
     
  • dólar/euro

    1.0777
    -0.0007 (-0.06%)
     
  • Bono a 10 años

    4.4490
    -0.0430 (-0.96%)
     
  • Volatilidad

    12.69
    -0.31 (-2.38%)
     
  • dólar/libra

    1.2534
    +0.0011 (+0.08%)
     
  • yen/dólar

    155.6800
    +0.2130 (+0.14%)
     
  • Bitcoin USD

    62,880.98
    +1,234.84 (+2.00%)
     
  • CMC Crypto 200

    1,352.01
    -6.00 (-0.44%)
     
  • FTSE 100

    8,381.35
    +27.30 (+0.33%)
     
  • Nikkei 225

    38,229.11
    +155.13 (+0.41%)
     

Otra cara del auge de la inteligencia artificial: detectar sus creaciones

Una captura de pantalla de Optic, una empresa que ofrece herramientas que detectan la inteligencia artificial en las imágenes. (Optic vía The New York Times).
Una captura de pantalla de Optic, una empresa que ofrece herramientas que detectan la inteligencia artificial en las imágenes. (Optic vía The New York Times).

El año pasado, Andrey Doronichev se preocupó cuando vio un video en redes sociales que parecía mostrar al presidente de Ucrania rindiéndose ante Rusia.

El video pronto se desmintió como un ultrafalso generado con datos sintéticos, pero para Doronichev, fue un augurio preocupante. Este año, sus temores se acercaron más a la realidad, conforme más empresas empezaron a competir para mejorar y lanzar tecnologías de inteligencia artificial pese al caos que estas podrían provocar.

La inteligencia artificial generativa ahora está al alcance de cualquiera, y cada vez más es capaz de engañar a la gente con texto, audio y videos que parecen concebidos y capturados por humanos. El riesgo de la credulidad de la sociedad ha desatado inquietudes en torno a la desinformación, la pérdida de empleos, la discriminación, la privacidad y una distopía en general.

PUBLICIDAD

Para los empresarios como Doronichev, también se ha convertido en una oportunidad de negocio. Más de una decena de compañías ahora ofrecen herramientas para identificar si algo se produjo con inteligencia artificial, con nombres como Sensity AI (detección de ultrafalsos), http://Fictitious.AI (detección de plagio) y http://Originality.AI (también detección de plagio).

Doronichev, originario de Rusia, fundó una empresa en San Francisco, Optic, para ayudar a identificar materiales sintéticos o falsos, para ser, en sus propias palabras: “Una máquina de rayos X de aeropuerto para el contenido digital”.

En marzo, Optic develó un sitio web en el que los usuarios pueden revisar imágenes para saber si fueron creadas por fotógrafos reales o un sistema de inteligencia artificial. También está desarrollando otros servicios para verificar material de video y audio.

Jeff Sakasegawa, arquitecto de seguridad y confianza en Persona, una empresa que ayuda a verificar la identidad de los clientes, en Nueva York, el 11 de mayo de 2023. (Brittainy Newman/The New York Times).
Jeff Sakasegawa, arquitecto de seguridad y confianza en Persona, una empresa que ayuda a verificar la identidad de los clientes, en Nueva York, el 11 de mayo de 2023. (Brittainy Newman/The New York Times).

Se prevé que el mercado general de la IA generativa exceda los 109.000 millones de dólares para 2030, con un crecimiento anual promedio del 35,6 por ciento hasta entonces, según la firma de estudios de mercado Grand View Research. Los negocios enfocados en detectar esta tecnología son una parte de la industria que está creciendo.

Meses después de haber sido desarrollado por un estudiante de la Universidad de Princeton, GPTZero asevera que más de un millón de personas han usado su programa para identificar textos generados por computadora. Reality Defender fue una de las 414 empresas elegidas de entre 17.000 aplicaciones este invierno para recibir financiamiento de la aceleradora de empresas emergentes Y Combinator.

Copyleaks recaudó 7,75 millones de dólares el año pasado en parte para ampliar sus servicios antiplagio en escuelas y universidades con el fin de ayudar a detectar el uso de la inteligencia artificial en los proyectos de los estudiantes. En 2020, Sentinel, cuyos fundadores fueron especialistas en ciberseguridad y guerras de información para la Marina Real británica y la OTAN, cerró una ronda de 1,5 millones de dólares en capital semilla, con el respaldo parcial de uno de los ingenieros fundadores de Skype para ayudar a proteger a las democracias contra los ultrafalsos y otro contenido sintético malicioso.

Las empresas tecnológicas más importantes también son partícipes: el sistema FakeCatcher de Intel asegura ser capaz de identificar videos ultrafalsos con una precisión del 96 por ciento, en parte por medio del análisis de píxeles en busca de marcas sutiles de circulación sanguínea en los rostros humanos.

Dentro del gobierno federal, la Agencia de Proyectos de Investigación Avanzados de Defensa planea invertir casi 30 millones de dólares este año para desplegar Semantic Forensics, un programa que desarrolla algoritmos para identificar automáticamente ultrafalsos y determinar si son maliciosos.

Hasta OpenAI, que impulsó con creces el auge de la inteligencia artificial cuando lanzó su herramienta ChatGPT a finales del año pasado, está trabajando en servicios de detección. En enero, la empresa con sede en San Francisco presentó una herramienta gratuita que ayuda a distinguir entre los textos redactados por humanos y los escritos por inteligencia artificial.

OpenAI enfatizó que, si bien la herramienta era una versión mejorada de otros prototipos anteriores, aún “no es totalmente confiable”. La herramienta identificó con certeza el 26 por ciento de los textos generados artificialmente, pero se equivocó al marcar el 9 por ciento de los textos creados por humanos como generados por computadora.

La herramienta de OpenAI padece de las mismas fallas que suelen encontrarse en los programas de detección: se le dificultan los textos breves y los que no están escritos en inglés. En contextos educativos, las herramientas de detección de plagio como TurnItIn han sido acusadas de clasificar equivocadamente ensayos escritos por estudiantes como generados por chatbots.

Es natural que las herramientas de detección vayan siempre un paso atrás de la tecnología generativa que intentan detectar. Para cuando un sistema de defensa es capaz de reconocer el trabajo de un nuevo chatbot o generador de imágenes, como Google Bard o Midjourney, los desarrolladores ya están ideando una nueva versión que pueda evadir esa defensa. La situación se ha descrito como una carrera armamentista o una relación virus-antivirus en la que uno engendra al otro, una y otra vez.

“Cuando Midjourney lanza Midjourney 5, ese es el disparo de salida para mí y empiezo a trabajar para ponerme al corriente, y mientras yo hago eso, ellos están desarrollando Midjourney 6”, describió Hany Farid, profesor de Informática en la Universidad de California, campus Berkeley, quien se especializa en el análisis forense digital y participa en la industria de la detección de IA. “Es un juego inherentemente antagonista en el que, mientras yo trabajo en el detector, alguien más está construyendo una mejor ratonera, un mejor sintetizador”.

Pese a este constante correteo, muchas empresas han visto que la demanda de detección de IA ha crecido entre las escuelas y los educadores, dijo Joshua Tucker, profesor de Política en la Universidad de Nueva York y codirector de su Centro para Redes Sociales y Política, quien también cuestionó si surgiría un mercado similar antes de las elecciones de 2024.

“¿Acaso veremos el desarrollo de una especie de rama paralela de estas empresas para ayudar a proteger a los candidatos políticos, de modo que sepan cuando les están afectando estas cosas?”, especuló.

Los expertos afirman que los videos generados con datos sintéticos aún son bastante torpes y fáciles de identificar, pero la clonación de audio y la generación de imágenes están mucho más avanzadas. Separar lo real de lo falso requerirá tácticas de análisis forense digital como búsquedas en reversa de imágenes y rastreo de direcciones IP.

Los programas de detección existentes se están poniendo a prueba con ejemplos que son “muy distintos a lanzarse al mundo salvaje de la actualidad, donde las imágenes que circulan se han modificado, recortado, compactado, transcodificado, anotado y quién sabe qué otras cosas más”, comentó Farid.

“Ese lavado de contenido dificulta mucho nuestra labor”, agregó.

La Content Authenticity Initiative, un consorcio de 1000 empresas y organizaciones, es uno de los grupos que intenta hacer que la tecnología generativa sea evidente desde el inicio. (Está liderado por Adobe, y entre sus miembros se encuentran The New York Times y actores del sector de la inteligencia artificial como Stability AI). En lugar de reconstruir pieza por pieza el origen de una imagen o un video en una etapa posterior de su ciclo de vida, el grupo busca establecer parámetros que apliquen credenciales rastreables a las obras digitales en el momento de su creación.

c.2023 The New York Times Company