Anuncios
U.S. markets close in 1 hour 29 minutes
  • S&P 500

    5,540.68
    -47.59 (-0.85%)
     
  • Dow Jones

    40,729.08
    -469.00 (-1.14%)
     
  • Nasdaq

    17,822.29
    -174.63 (-0.97%)
     
  • Russell 2000

    2,206.30
    -33.37 (-1.49%)
     
  • Petróleo

    82.84
    -0.01 (-0.01%)
     
  • Oro

    2,456.60
    -3.30 (-0.13%)
     
  • Plata

    30.16
    -0.22 (-0.73%)
     
  • dólar/euro

    1.0903
    -0.0038 (-0.35%)
     
  • Bono a 10 años

    4.1810
    +0.0350 (+0.84%)
     
  • dólar/libra

    1.2950
    -0.0059 (-0.45%)
     
  • yen/dólar

    157.2120
    +1.0350 (+0.66%)
     
  • Bitcoin USD

    63,564.00
    -946.70 (-1.47%)
     
  • CMC Crypto 200

    1,317.64
    -11.87 (-0.89%)
     
  • FTSE 100

    8,204.89
    +17.43 (+0.21%)
     
  • Nikkei 225

    40,126.35
    -971.34 (-2.36%)
     

ChatGPT y otras herramientas al alcance del usuario y cómo protegerse

ChatGPT fue lanzado en noviembre de 2022 y llegó a 1 millón de usuarios en una semana. Foto: suministrada Infobip.
ChatGPT fue lanzado en noviembre de 2022 y llegó a 1 millón de usuarios en una semana. Foto: suministrada Infobip.

Vea más en: Valora Analitik

ChatGPT no almacena la información de los usuarios, ni tiene acceso a información personal, a menos que se le proporcione.

ChatGPT se ha convertido en el tema de conversación por la innovación que supone gracias a su facilidad de uso.  Es un modelo de lenguaje de inteligencia artificial desarrollado por OpenAI para procesar lenguaje natural y responder a preguntas y conversaciones en línea. Si bien esta es una herramienta valiosa para muchas personas y organizaciones, también presenta riesgos potenciales en términos de seguridad cibernética.

Aunque ChatGPT no almacena información de los usuarios ni tiene acceso a información personal, a menos de que se le proporcione, los ciberdelincuentes pueden utilizar técnicas de ingeniería social y otras tácticas para engañar a los usuarios y obtener información confidencial. “Como modelo de lenguaje basado en la inteligencia artificial, ChatGPT es una herramienta atractiva para los ciberdelincuentes, ya que puede ser utilizada para acceder a información personal y confidencial. Esto puede incluir información de inicio de sesión, detalles de la cuenta, direcciones de correo electrónico y otra información sensible”, comenta Adib Manssur, Sales Engineer Manager de Hillstone Networks para la región NOLA.

PUBLICIDAD

De acuerdo con el ejecutivo: “Todas las herramientas tecnológicas, por buenas que sean, pueden ser usadas para fines negativos. Con respecto a ChatGPT, los ciberdelincuentes pueden aprovechar la herramienta para crear mensajes de phishing aún más creíbles, para robar los datos sensibles de las personas”.

Para reducir los riesgos de seguridad cibernética asociados con ChatGPT es importante seguir algunas prácticas de seguridad recomendadas, como no proporcionar información personal confidencial a ChatGPT, no hacer clic en enlaces sospechosos que se envíen a través de la plataforma y mantener actualizado el software de seguridad en su dispositivo.

Vulnerabilidades de ChatGPT

Según analistas, ChatGPT también puede ser utilizado para crear malware. Sin embargo, en este punto, Adib Mansur explica que “No solo con ChatGPT se puede crear malware, sino es algo que existe en la dark web (red profundad) donde se venden todo tipo de herramientas para que los cibercriminales realicen los ataques. Ante ello, no se puede pensar que por usar ChatGPT se va a incrementar este tipo de mercado. El malware y ransomware como servicio ya existen y en un flagelo que crece día tras día”.

Recomendado: El ChatGPT y su relevancia de cara a brindar una mejor experiencia al cliente

En este sentido, Adib Manssur va más allá. “Si bien ChatGPT puede ser usado de manera negativa, no debemos estigmatizar esta herramienta ni las que han surgido como DALL-E 2, Microsoft Bing, Chatsonic y más. Lo positivo es que cada vez hay desarrollos de IA al alcance de los usuarios. Esta es solo una aplicación práctica, pero la IA hace aportes más profundos”.

Justamente en el uso de la IA en ciberseguridad, las técnicas de IA son muy prometedoras en las áreas de análisis, detección y respuesta a las amenazas. Su capacidad para aplicar técnicas avanzadas de análisis y basadas en la lógica puede aliviar en gran medida la carga de los administradores de seguridad y permitirles tomar medidas razonables y eficaces en respuesta a los ataques y amenazas.

El análisis del comportamiento de usuarios y entidades (UEBA), por ejemplo, puede ayudar a detectar a personas internas malintencionadas, así como a atacantes externos hostiles que se infiltran en la red y sus activos.

El análisis del tráfico de la red es otra área en la que la IA puede brillar; el volumen del tráfico de la red suele ser masivo y llevar a cabo un análisis exhaustivo y continuo que sólo con esfuerzos humanos sería no solo difícil, sino imposible.

Las técnicas avanzadas de IA y ML, como el análisis de big data, pueden ayudar a detectar el malware y las amenazas avanzadas con un gran grado de precisión, incluidas las mutaciones y variantes.

De esta manera, IA y la variedad de aplicaciones demuestran que esta tecnología está cambiando muchos procesos y será un aliado para los usuarios. “Lo importante es ser consciente de que siempre debe haber un componente de seguridad para protegernos”, concluye el ejecutivo.

Enlace: ChatGPT y otras herramientas al alcance del usuario y cómo protegerse publicado en Valora Analitik - Noticias económicas, políticas, bursátiles y financieras.. Todos los derechos reservados.