Anuncios
U.S. markets closed
  • F S&P 500

    5,553.00
    +7.00 (+0.13%)
     
  • F Dow Jones

    39,511.00
    -39.00 (-0.10%)
     
  • F Nasdaq

    20,088.50
    +49.00 (+0.24%)
     
  • E-mini Russell 2000 Index Futur

    2,063.80
    +3.70 (+0.18%)
     
  • Petróleo

    81.94
    +0.20 (+0.24%)
     
  • Oro

    2,332.60
    -4.00 (-0.17%)
     
  • Plata

    29.19
    -0.07 (-0.23%)
     
  • dólar/euro

    1.0700
    -0.0009 (-0.09%)
     
  • Bono a 10 años

    4.2880
    -0.0280 (-0.65%)
     
  • Volatilidad

    12.24
    -0.31 (-2.47%)
     
  • dólar/libra

    1.2632
    -0.0010 (-0.08%)
     
  • yen/dólar

    160.9820
    +0.2620 (+0.16%)
     
  • Bitcoin USD

    61,445.92
    +574.30 (+0.94%)
     
  • CMC Crypto 200

    1,280.72
    +14.58 (+1.15%)
     
  • FTSE 100

    8,179.68
    -45.65 (-0.55%)
     
  • Nikkei 225

    39,590.03
    +248.49 (+0.63%)
     

OpenAI y Microsoft desbarataron a banda hacker que usaba inteligencia artificial para atacar

OpenAI, el desarrollador detrás del chatbot de inteligencia artificial (IA) ChatGPT, colaboró con su principal inversor, Microsoft, para prevenir cinco ciberataques vinculados a diferentes actores maliciosos.

OpenAI y Microsoft: cómo se desarrolló la investigación

Según un informe publicado el miércoles, Microsoft vigiló a grupos de hackers vinculados a la inteligencia militar rusa, la Guardia Revolucionaria iraní y los gobiernos chino y norcoreano, que, según afirma, exploraron el uso de grandes modelos lingüísticos (LLM) de IA en sus estrategias de hackeo.

"Hemos desbaratado el uso de nuestra plataforma por parte de cinco ciberdelincuentes afiliados a un Estado. Trabajo realizado en colaboración con el Centro de Inteligencia de Amenazas de Microsoft", resaltó.

PUBLICIDAD

OpenAI informó que los cinco ciberataques procedían de dos grupos asociados a China: Charcoal Typhoon y Salmon Typhoon. Los ataques se vincularon a Irán a través de Crimson Sandstorm, a Corea del Norte a través de Emerald Sleet y a Rusia a través de Forest Blizzard.

Los grupos intentaron emplear ChatGPT-4 para investigar herramientas de la empresa y de ciberseguridad, depurar código, generar scripts, realizar campañas de phishing, traducir documentos técnicos, eludir la detección de malware y estudiar la tecnología de comunicación por satélite y radar, según OpenAI. Las cuentas se desactivaron tras la detección.

La empresa reveló el descubrimiento mientras aplicaba una prohibición general a los grupos de hackers respaldados por el Estado que utilizan productos de IA. Aunque OpenAI evitó eficazmente estos sucesos, reconoció el reto que supone evitar cualquier uso malintencionado de sus programas.

Pese a los esfuerzos, los hackers encontraron métodos para manipular el chatbot para producir contenido malicioso

Tras una oleada de deepfakes y estafas generadas por IA después del lanzamiento de ChatGPT, los responsables políticos intensificaron el escrutinio de los desarrolladores de IA generativa. En junio de 2023, OpenAI anunció un programa de becas de ciberseguridad de un millón de dólares para mejorar y medir el impacto de las tecnologías de ciberseguridad basadas en IA.

A pesar de los esfuerzos de OpenAI en ciberseguridad y la implementación de salvaguardas para evitar que ChatGPT genere respuestas dañinas o inapropiadas, los hackers han encontrado métodos para eludir estas medidas y manipular el chatbot para producir dicho contenido.

Más de 200 entidades, entre ellas OpenAI, Microsoft, Anthropic y Google, colaboraron recientemente con la Administración Biden para crear el AI Safety Institute y el United States AI Safety Institute Consortium (AISIC).

Los grupos se crearon a raíz de la orden ejecutiva del Presidente Joe Biden sobre la seguridad de la IA a fines de octubre de 2023, cuyo objetivo es promover el desarrollo seguro de la IA, combatir las deepfakes generadas por la IA y abordar los problemas de ciberseguridad.