Anuncios
Mercados abrirán en 7 h 36 min
  • F S&P 500

    5,848.50
    +10.75 (+0.18%)
     
  • F Dow Jones

    42,664.00
    -74.00 (-0.17%)
     
  • F Nasdaq

    20,323.25
    +102.75 (+0.51%)
     
  • E-mini Russell 2000 Index Futur

    2,227.30
    +0.60 (+0.03%)
     
  • Petróleo

    71.62
    +0.85 (+1.20%)
     
  • Oro

    2,740.50
    +11.10 (+0.41%)
     
  • Plata

    34.10
    +0.27 (+0.79%)
     
  • dólar/euro

    1.0793
    +0.0007 (+0.06%)
     
  • Bono a 10 años

    4.2420
    -4.2040 (-49.78%)
     
  • Volatilidad

    19.24
    +1.04 (+5.71%)
     
  • dólar/libra

    1.2930
    +0.0011 (+0.08%)
     
  • yen/dólar

    152.3200
    -0.3770 (-0.25%)
     
  • Bitcoin USD

    67,294.56
    +264.47 (+0.39%)
     
  • XRP USD

    0.53
    +0.00 (+0.31%)
     
  • FTSE 100

    8,258.64
    -47.90 (-0.58%)
     
  • Nikkei 225

    38,148.88
    +44.02 (+0.12%)
     

Deepfakes, AI y el contenido sintético: la siguiente frontera de riesgos tecnológicos

Depositphotos.

Hoy en día, con la inteligencia artificial en avance acelerado, es muy sencillo recrear textos, imágenes, voces e incluso videos de momentos, personajes e historias que de verdad no existieron.  La categoría ya tiene un nombre: contenido sintético –o deepfakes en inglés– y se está convirtiendo en una verdadera pesadilla por las implicaciones que tiene no solo en el mundo de los ciberataques, sino también en el jurídico, o incluso su rol en la paz mundial.

Los líderes mundiales se han pronunciado al respecto, asegurando que hay una carrera global por las armas con Inteligencia Artificial (AI) en camino.  Vladimir Putin, de Rusia asegura que quien lidere el camino de AI gobernara el mundo, mientras que China asegura que se convertirá en el centro de innovación de Inteligencia Artificial para 2030.

Hace unos días tuvo lugar en San Francisco la renombrada conferencia de ciberseguridad RSA 2024, los expertos en distintos campos del avance de la Inteligencia Artificial se dieron cita para discutir en términos muy concretos como el contenido sintético afecta el día de hoy ya nuestras vidas.

Si nunca has visto un video de deepfake te invito a que le des un vistazo al video «This is not Morgan Freeman», para que puedas entender lo que está pasando hoy.

Pero estos deepfakes, además de crear un universo paralelo en el cual hacer marketing es mucho más fácil y barato, crear contenidos es sumamente ágil y de creatividad ilimitada, pero qué tal que se usa para propósitos maliciosos, y se emite una “orden” para pedir a tus soldados que se retiren del campo de batalla en Ucrania como el siguiente video.

Ejemplos como este son para poner los pelos de punta.


RSA reunió a cuatro expertos desde el FBI hasta abogados para preguntarles que les quita el sueño con los deepfakes y cuál sería su peor pesadilla, en adelante algunas de las conclusiones más interesantes, y de cuidado:

Los 4 usos maliciosos de deepfakes más preocupantes

  1. Evidencia en juzgados. Hoy el sistema jurídico estadounidense y sus jueces no están habilitados para identificar un contenido sintético de uno verídico, y, día tras día el riesgo de presentar fotos y videos creados con AI es real. California ya está pasando una ley para que existan peritajes de la veracidad de estos contenidos, sin embargo no es tarea fácil, ya que en sistemas jurídicos basados en jurados, las implicaciones de exponerse a un contenido sintético en video son irreversibles.

  2. Robos de identidad. La herramientas que hoy permiten a usuarios maliciosos recrear pasaportes con tus datos, licencias, y todo tipo de identificaciones apócrifas en muchos países del mundo, son ya de lo más común, permitiendo de facto robar tu identidad y recrearla en minutos y con unos cuantos dólares. Las implicaciones de robo de identidad con identificaciones físicas apócrifas (como pasaportes, licencias, etc.) abren posibilidades muy graves para actores maliciosos quienes pueden utilizar dicha identidad para múltiples actos dañinos para el afectado; desde identificarse falsamente para cometer un delito, hasta obtener millonarios préstamos a tu nombre, las posibilidades para los atacantes son muchas.

  3. Intromisión en elecciones, y grupos radicales. Desde 2016, con la presunta intervención de Rusia en las elecciones de los Estados Unidos, empezamos a ver una probadita de lo que la desinformación puede crear de confusión y polarización electoral. Tan solo en 2024, unos 3,000 millones de personas en el mundo elegirán un cambio de presidente, y las herramientas de hoy permiten en todo momento crear y distribuir información sintética a favor o en contra de cualquier candidato basados en mentiras donde la imaginación es el límite. En India en 2024, con 1,000 millones de electores –800,000 de ellos con smartphone– todos los días se distribuye contenido sintético recreando a las más grandes celebridades de Bollywood avalando o atacando frontalmente a sus candidatos, distribuido mayor mente por sistemas de mensajería (Whatsapp, Telegram). El ciudadano simplemente no tiene manera de discriminar la veracidad de este contenido, que sobra decir que de la boca de tu celebridad favorita es altamente creíble.

  4. Robots asesinos. La mezcla de armas autónomas, manejadas por un piloto que es Inteligencia Artificial, es la peor pesadilla en cualquier escenario de confrontación bélica. No hay un “soldado” que cuidar, y el margen de potencial error es casi nulo. Según Patrick Huston, general brigadier retirado y asesor de IA de Estados Unidos.

El tema es tan grave que el mismo FBI y la CISA (Cybersecurity and Infrastructure Security Agency) han emitido recomendaciones que puedes seguir aquí, e incluso, apenas el 1 de agosto 2024 nombraron a Lisa Einstein como la primera Chief Artificial Intelligence Officer de CISA, dentro de la NSA de Estados Unidos.

Como podemos ver los deepfakes desde ya pueden ser sumamente disruptivos en varios campos, no solo la ciberseguridad, sino también nuestro sistema jurídico, y si, incluso, la paz mundial;  las medidas para evitar ser engañado por este tipo de contenidos todavía no existen o son muy prematuras y la línea de lo que es real y lo que es sintético está cada vez más tenue, por lo que nos vienen años muy confusos donde la precaución y un gran escepticismo serán herramientas útiles para navegar un futuro donde engañarnos es cada vez más fácil.


* Manuel Rivera es CEO y socio fundador de NEKT, empresa especializada en servicios de ciberseguridad.

Las opiniones publicadas en esta columna son responsabilidad del autor y no representan ninguna posición por parte de Business Insider México.

Descubre más historias en Business Insider México

Consulta a más columnistas en nuestra sección de Opinión