Ganaron 123 mil dólares de premio usando Inteligencia Artificial para detectar errores de códigos en artefactos conectados a Internet

·2  min de lectura
Ganaron 123 mil dólares de premio usando Inteligencia Artificial para detectar errores de códigos en artefactos conectados a Internet
Ganaron 123 mil dólares de premio usando Inteligencia Artificial para detectar errores de códigos en artefactos conectados a Internet

El bot de inteligencia artificial ChatGPT ha despertado inquietudes acerca de cómo los hackers podrían emplearlo y a herramientas similares para atacar más rápidamente y de forma efectiva, aunque las vulnerabilidades más perjudiciales hasta el momento han surgido en laboratorios.

En su versión actual, ChatGPT, desarrollado por OpenAI, una startup de IA respaldada por Microsoft Corp., está entrenado principalmente para procesar y generar texto. Para responsables de seguridad, esto implica que los correos de phishing escritos por bots podrían ser más convincentes que aquellos enviados por hackers cuyo primer idioma no es el inglés.

Dustin Childs, jefe de concienciación sobre amenazas en Zero Day Initiative de Trend Micro Inc., señala que ChatGPT es demasiado impredecible y propenso a errores como para ser un arma confiable. “Estamos a años de que la IA encuentre vulnerabilidades y haga exploits por su cuenta”, dijo Childs. Aun así, reconoce que no siempre será así.

Dos investigadores de Claroty Ltd., empresa de ciberseguridad, afirmaron que ChatGPT los ayudó a ganar el hack-a-thon de Zero Day Initiative en Miami. Noam Moshe, investigador de vulnerabilidades en Claroty, explicó que la IA generativa, algoritmos que crean texto o imágenes realistas basados en datos de entrenamiento, puede complementar el conocimiento de los hackers.

Durante el evento de tres días, llamado Pwn2Own, Moshe y su compañero utilizaron ChatGPT para escribir código y encadenar errores, ahorrando horas de desarrollo manual. En el concurso, tuvieron éxito en 10 intentos, ganando $123,000.

OpenAI y otras compañías con bots de IA generativa están agregando controles y filtros para evitar abusos. Sin embargo, algunos actores maliciosos intentarán eludir las barreras de ciberseguridad que se les enseña a los bots, según Christopher Whyte, profesor asistente de ciberseguridad y seguridad nacional en la Virginia Commonwealth University.

Editorial: Gaming / Facebook / Twitter / Cobertura / Instagram / Discord

FUENTE