Anuncios
U.S. markets closed
  • S&P 500

    5,460.48
    -22.39 (-0.41%)
     
  • Dow Jones

    39,118.86
    -45.20 (-0.12%)
     
  • Nasdaq

    17,732.60
    -126.08 (-0.71%)
     
  • Russell 2000

    2,047.69
    +9.35 (+0.46%)
     
  • Petróleo

    81.46
    -0.28 (-0.34%)
     
  • Oro

    2,336.90
    +0.30 (+0.01%)
     
  • Plata

    29.43
    +0.18 (+0.61%)
     
  • dólar/euro

    1.0716
    +0.0007 (+0.06%)
     
  • Bono a 10 años

    4.3430
    +0.0550 (+1.28%)
     
  • dólar/libra

    1.2648
    +0.0006 (+0.05%)
     
  • yen/dólar

    160.8350
    +0.1150 (+0.07%)
     
  • Bitcoin USD

    60,885.69
    +204.38 (+0.34%)
     
  • CMC Crypto 200

    1,267.61
    -16.22 (-1.26%)
     
  • FTSE 100

    8,164.12
    -15.56 (-0.19%)
     
  • Nikkei 225

    39,583.08
    +241.54 (+0.61%)
     

Los "hermanos malvados" de ChatGPT: cómo se usa la inteligencia artificial para robarte plata y datos

En el vertiginoso mundo de la tecnología, la inteligencia artificial (IA) revoluciónó diversos campos, pero también abrió la puerta a nuevos desafíos y riesgos.

Una de las tendencias más preocupantes es el uso malicioso de chatbots basados en IA, como ChatGPT, que están siendo aprovechados por ciberdelincuentes para crear 'malware' y campañas de phishing.

Los chatbots creados para el mal

Recientemente apareció FraudGPT, una herramienta de IA generativa que usada por ciberdelincuentes para crear malware y campañas de phishing.

A diferencia de ChatGPT, que fue desarrollado por OpenAI y tiene filtros de seguridad para prevenir abusos, FraudGPT es una versión maliciosa que se vende en la darkweb y canales de Telegram.

PUBLICIDAD

Los ciberdelincuentes han encontrado en la IA generativa y los 'chatbots' una oportunidad para aprovechar sus capacidades de programación en la creación de software malicioso.

Aunque los responsables de ChatGPT han implementado filtros de seguridad, investigaciones recientes de Check Point y Forcepoint han demostrado que esta tecnología sigue siendo vulnerable a usos maliciosos.

La IA también se usa para diseñar hackeos más sofisticados
La IA también se usa para diseñar hackeos más sofisticados

La IA también se usa para diseñar hackeos más sofisticados

Otra versión maliciosa que surgió es WormGPT, considerado el "primo malvado" de ChatGPT.

Diseñado específicamente para ayudar a los delincuentes, WormGPT carece de los candados de seguridad presentes en otras variantes de chatbots, como ChatGPT, lo que permite que responda a solicitudes maliciosas.

Además, WormGPT fue alimentado con datos relacionados con malware, lo que facilita a los ciberdelincuentes la creación de virus y estrategias para llevar a cabo sus delitos cibernéticos.

En alerta

El uso de ChatGPT y sus variantes maliciosas plantea graves riesgos para la ciberseguridad.

Muchos usuarios expresaron preocupaciones sobre la posibilidad de que ChatGPT pueda codificar software malicioso capaz de espiar pulsaciones de teclado o crear ransomware

La facilidad para crear correos electrónicos de phishing persuasivos y personalizados con estas herramientas podría conducir a un aumento en las estafas online y a una mayor sofisticación de los ataques cibernéticos.

Aunque OpenAI y otros investigadores han establecido barreras de control para evitar el abuso de ChatGPT, los ciberdelincuentes han demostrado su capacidad para evadir estas restricciones y utilizar estas herramientas para sus propios fines delicitivos.