Anuncios
U.S. markets closed
  • S&P 500

    5,277.51
    +42.03 (+0.80%)
     
  • Dow Jones

    38,686.32
    +574.84 (+1.51%)
     
  • Nasdaq

    16,735.02
    -2.06 (-0.01%)
     
  • Russell 2000

    2,070.13
    +13.53 (+0.66%)
     
  • Petróleo

    77.18
    -0.73 (-0.94%)
     
  • Oro

    2,347.70
    -18.80 (-0.79%)
     
  • Plata

    30.56
    -0.98 (-3.10%)
     
  • dólar/euro

    1.0854
    +0.0019 (+0.17%)
     
  • Bono a 10 años

    4.5140
    -0.0400 (-0.88%)
     
  • dólar/libra

    1.2738
    +0.0006 (+0.05%)
     
  • yen/dólar

    157.2900
    +0.5210 (+0.33%)
     
  • Bitcoin USD

    67,697.91
    +33.12 (+0.05%)
     
  • CMC Crypto 200

    1,424.44
    -4.13 (-0.29%)
     
  • FTSE 100

    8,275.38
    +44.33 (+0.54%)
     
  • Nikkei 225

    38,487.90
    +433.77 (+1.14%)
     

Demuestran cómo se puede engañar a un sistema de atención telefónica con una voz sintética

Un periodista demostró cómo puede engañar a un sistema bancario de validación biométrica por voz con una grabación, abriendo la puerta a estafas generadas con voces sintéticas
Un periodista demostró cómo puede engañar a un sistema bancario de validación biométrica por voz con una grabación, abriendo la puerta a estafas generadas con voces sintéticas - Créditos: @Shutterstock

“El banco pensó que me estaba hablando a mí; la voz generada por IA ciertamente sonaba igual”, cuenta el periodista Joseph Cox, del medio VICE. Cox trataba de ingresar a su cuenta bancaria del Lloyds Bank en el Reino Unido mediante una llamada telefónica. El sistema exige reconocer la voz para poder consultar saldos o incluso utilizar ciertos servicios bancarios. Se trata de una modalidad que existe en Europa y en Estados Unidos, pero no en Argentina. El periodista tuvo una idea: utilizar una inteligencia artificial que imita su forma de hablar.

“El miércoles, llamé a la línea de servicio automatizado de mi banco. Para empezar, el banco me pidió que dijera con mis propias palabras por qué estaba llamando. En lugar de hablar en voz alta, hice clic en un archivo en mi computadora portátil cercana para reproducir un clip de sonido: “verifique mi saldo”, dijo mi voz. Pero esta no era en realidad mi voz. Era un clon sintético que había hecho usando tecnología de inteligencia artificial fácilmente disponible”, explica.

“Luego me pidió que ingresara o dijera mi fecha de nacimiento como la primera pieza de autenticación. Después de escribir eso, el banco dijo “por favor diga, ‘mi voz es mi contraseña’”, relata en un extenso artículo. “Nuevamente, reproduje un archivo de sonido desde mi computadora. El sistema de seguridad del banco tardó unos segundos en autenticar la voz. Y le dio el okey. Con eso, pudo ingresar.

PUBLICIDAD

Los bancos de EE.UU. y Europa utilizan este tipo de verificación de voz para permitir que los clientes inicien sesión en su cuenta por teléfono. Algunos bancos promocionan la identificación por voz como equivalente a una huella digital, una forma “segura y conveniente” para que los usuarios interactúen con su banco. No existe en la Argentina algo similar, según lo relevado por LA NACION. Aunque alguien que hoy es CISO (Chief Information Security Officer, o jefe de seguridad de los datos de una empresa) de una importante institución señala que varias veces “se barajó esta opción”.

El problema es que con distintas herramientas de Inteligencia Artificial (ElevenLabs -que incluso permite entrenar voces- es una de las más utilizadas) cualquier persona podría entrenar alguno de estos sistemas y recrear su propia voz, o la de un tercero, con las fuentes de audio suficientes. Contrariamente, los bancos suelen promocionar esta opción con la siguiente leyenda: “Tu voz es como tu huella dactilar y es única para ti”. ¿Será siempre así? Lo cierto es que el periodista demostró la vulnerabilidad de un sistema que no estaba preparado para una nueva era: la de la inteligencia artificial.

En la Argentina

Si bien no hay registros de instituciones financieras en el país que utilicen el reconocimiento de voz para el acceso, es lógica la pregunta que se abre a partir de este caso. ¿Se podrá falsear lo biométrico -la voz, el rostro- para ingresar a una cuenta? “Es lógico que los criminales usen los mismos avances porque es tecnología abierta, disponible para todos, por lo tanto, la inteligencia artificial y potencialmente los robots o cualquier innovación va a ser usada como herramienta para un ataque”, explica Sebastián Stranieri, CEO de VU Security.

Stranieri agrega que el formato más seguro de validación “resulta del conjunto de la utilización de tu dispositivo, la verificación al mismo tiempo de tu rostro o de la voz, y al mismo tiempo la ubicación y el tipo de transacciones que uno hace. Si estás haciendo una transferencia en una zona que nunca estuviste, eso debería requerir un tipo de verificación más sofisticado”, ejemplifica. Y agrega: “Los métodos de validación biométricos en el celular no son lo suficientemente seguros porque solo validan que vos tenés acceso al teléfono”. Por último, señala que el desafío será estar preparado para aquello falso, como los “deepfakes o aquellas herramientas sintéticas realizadas para generar identidad”.

La preocupación del uso de inteligencia artificial y los delitos informáticos no es nueva. También están siendo utilizadas para escribir emails de phishing y estafas más convincentes.