Anuncios
U.S. markets open in 5 hours 6 minutes
  • F S&P 500

    5,121.50
    +39.25 (+0.77%)
     
  • F Dow Jones

    38,348.00
    +60.00 (+0.16%)
     
  • F Nasdaq

    17,756.00
    +188.50 (+1.07%)
     
  • E-mini Russell 2000 Index Futur

    1,993.80
    +0.60 (+0.03%)
     
  • Petróleo

    83.84
    +0.27 (+0.32%)
     
  • Oro

    2,359.00
    +16.50 (+0.70%)
     
  • Plata

    27.74
    +0.38 (+1.40%)
     
  • dólar/euro

    1.0743
    +0.0010 (+0.10%)
     
  • Bono a 10 años

    4.7060
    +0.0540 (+1.16%)
     
  • Volatilidad

    15.51
    +0.14 (+0.91%)
     
  • dólar/libra

    1.2519
    +0.0008 (+0.06%)
     
  • yen/dólar

    156.4290
    +0.8490 (+0.55%)
     
  • Bitcoin USD

    64,399.04
    +319.25 (+0.50%)
     
  • CMC Crypto 200

    1,389.34
    -7.20 (-0.52%)
     
  • FTSE 100

    8,118.94
    +40.08 (+0.50%)
     
  • Nikkei 225

    37,934.76
    +306.28 (+0.81%)
     

Los tipos de deepfake más utilizados para atacar a empresas e individuos, según Kaspersky

El número de deepfake o videos falsos crece a un ritmo anual del 900%, de acuerdo con el Foro Económico Mundial. Y es que el uso de redes neuronales y del Deep Learning (de ahí el término deepfake) permite prácticamente a cualquiera persona usar imágenes, videos y audio para crear contenidos multimedia realistas, en los que se altera digitalmente el rostro o cuerpo de una persona para que parezca otra.

Los analistas de la firma de ciberseguridad Kaspersky descubrieron que los cibercriminales ofrecen sus servicios en la darknet para crear deepfakes, y encontró que los siguientes son los más usados para estafar a empresas e individuos.

1. Deepfake de fraude financiero

Los ciberdelincuentes pueden utilizar deepfakes para hacerse pasar por celebridades, políticos y empresarios para realizar fraudes financieros.

PUBLICIDAD

Un ejemplo de ello es un deepfake del CEO de Tesla, Elon Musk. En este, el falso Musk prometía grandes ganancias si se seguían una serie de consejos para invertir en criptomonedas.

El contenido se volvió viral y muchos usuarios perdieron su dinero. Para crear deepfakes como este, los estafadores utilizan imágenes de personas de interés o combinan videos antiguos y publican videos o transmisiones en vivo en redes sociales, prometiendo algún beneficio.

2. Deepfake pornográfico

Con la foto de una persona, los cibercriminales pueden crear contenido en la que su víctima aparezca en una situación comprometedora. De hecho, el FBI emitió a principios de mes una advertencia sobre la manipulación de fotos y videos publicados en la red para la creación de contenido explícito y esquemas de extorsión.

En varias ocasiones se han detectado videos de este tipo utilizando rostros de celebridades; sin embargo, las víctimas también pueden ser personas anónimas que pueden ver dañada su reputación y sus derechos vulnerados.

Deeptrace Labs, que crea herramientas de detección de medios sintéticos, reportó en 2019 que 96% de los deepfake son pornográficos, con la mayoría de estos atacando a mujeres.

3. Deepfake que imita empresarios

Los deepfakes también pueden utilizarse para atacar a empresas mediante extorsión, chantaje o espionaje industrial.

En una ocasión, los ciberdelincuentes engañaron al gerente de un banco de Emiratos Árabes Unidos con este método, robando 35 millones de dólares (mdd). A partir de una pequeña grabación de voz, lograron estafar al responsable de la entidad.

En otro caso, los criminales trataron de burlar a la mayor plataforma de criptomonedas del mundo, Binance. Generaron un deepfake de uno de sus directivos y lo utilizaron para realizar una estafa de criptomonedas.

Hace unos meses, un estafador en China utilizó inteligencia artificial para crear un deepfake que modificó su apariencia y voz para hacerse pasar por el amigo de un empresario, a quien consiguió robar más de 600,000 dólares.

Además, los departamentos de recursos humanos también están expuestos a los deepfake. Esto debido a que los cibercriminales pueden crear perfiles falsos para solicitar trabajo a distancia, según otra advertencia del FBI. En el caso de Binance, los atacantes también utilizaron imágenes de personas que encontraron en internet para crear videos falsos y añadirlos a aplicaciones de trabajo.

“Uno de los grandes peligros de los deepfake para las empresas no es sólo el robo de datos. Los riesgos reputacionales pueden tener consecuencias muy graves. Basta con la publicación de un video en donde, aparentemente, un ejecutivo hace declaraciones sesgadas de temas delicados. Esto puede provocar, por ejemplo, la caída de la compañía en la bolsa de valores”, explica Dmitry Anikin, experto senior de seguridad en Kaspersky.

“Es importante estar al tanto de los detalles que pueden indicar que un video es falso y mantener siempre una actitud escéptica. También hay que asegurarse de que los empleados entiendan qué es un deepfake y cómo pueden reconocerlo”, agrega.

¿Cómo puedes protegerte de esta ciberamenaza?

Países como Estados Unidos y China ya están implementando leyes que puedan abordar la amenaza que representan los deepfakes.

Por ejemplo, en el estado de California —mediante dos proyectos de ley aprobados el año pasado— se ilegalizaron determinados aspectos de los deepfakes. La ley AB-602 prohibe el uso de la síntesis de la imagen humana para crear pornografía sin el consentimiento de las personas representadas; la AB-730 prohibe la manipulación de imágenes de candidatos políticos en un plazo de 60 días antes de unas elecciones.

China también ha estado intensificando el escrutinio de herramientas de inteligencia artificial en medio de un aumento en el fraude impulsado por la tecnología, que involucra principalmente la manipulación de datos faciales y de voz.

Frente a ello, China adoptó a principios de enero de este año nuevas reglas diseñadas para frenar el uso de los deepfake y proteger legalmente a las víctimas.

Mexicanos sin un marco legal

México, desafortunadamente, aún no cuenta con un marco legal que proteja a los individuos de esta tecnología. Esto a pesar de que en los últimos dos años hubo un aumento del 300% en la detección de deepfake de voz en el país, según datos del INAI.

Sin embargo, varias empresas tecnológicas ya desarrollan tecnología para detectar deepfake de manera eficiente, como FakeCatcher de Intel. Esta tecnología se enfoca en detectar flujos de sangre en la cara para discernir si la persona que habla en un video fue alterada digitalmente. La herramienta ha tenido una eficacia de 96% para detectar deepfakes.

Afortunadamente, los deepfake todavía se encuentran en una etapa en la que uno mismo puede detectarlos. Para ello, hay que fijarse en las siguientes características mientras se vea un video:

  • Movimiento brusco

  • Cambios de iluminación de un fotograma al siguiente

  • Cambios en el tono de la piel

  • Parpadeo extraño o ausencia del mismo

  • Falta de sincronía de los labios con el habla

Sin embargo, Kaspersky advierte que a medida que mejoren los deepfake, seremos menos capaces de detectarlos con nuestros propios ojos y dependeremos más de nuevos sistemas de ciberseguridad.

AHORA LEE: Consumidores sobrevaloran su capacidad para detectar deepfakes, según estudio

TAMBIÉN LEE: 72% de los mexicanos no sabe qué es un deepfake, revela Kaspersky

Descubre más historias en Business Insider México

Síguenos en FacebookInstagramLinkedInTwitterTikTok y YouTube

AHORA ESCUCHA:

AHORA VE: