5 ciberamenazas que los criminales pueden generar con ayuda de ChatGPT

ChatGPT, la Inteligencia Artificial generativa que salió a finales de noviembre de 2022, ha generado preocupaciones legítimas sobre su potencial para amplificar la gravedad y complejidad de las ciberamenazas. De hecho, muchos expertos en seguridad habían predicho, desde que Open AI anunció su lanzamiento, que sólo sería cuestión de tiempo para que los ciberdelincuentes comenzaran a utilizar este chatbot de IA para escribir malware y permitir otras actividades maliciosas.
Y no ha pasado mucho tiempo para que se confirmaran sus sospechas, ya que se ha descubierto que los ciberdelincuentes ya han empezado a utilizar esta herramienta basada en el modelo de lenguaje por Inteligencia Artificial GPT-3 para recrear cepas de malware y llevar a cabo distintos tipos de ataques. Y es que, para realizar sus planes, los cibercriminales solo necesitan tener una cuenta en Open AI, que pueden crear de forma gratuita desde su web, y realizar su consulta.
¿Qué pueden hacer los cibercriminales con ChatGPT?
Los ciberdelincuentes pueden aprovechar la Inteligencia Arificial generativa de ChatGPT para generar actividades malintencionadas, entre las que se incluyen:
-
Phishing:
Los autores de las amenazas pueden utilizar el Modelo de Lenguaje Amplio (LLM) del sistema de ChatGPT para alejarse de los formatos universales y automatizar la creación de correos electrónicos de phishing o spoofing únicos, con gramática perfecta y patrones de habla naturales adaptados a cada objetivo. Esto quiere decir, que los ataques por correos electrónicos redactados con ayuda de esta tecnología parecen mucho más creíbles, haciendo más difícil la detección y prevención por parte de los destinatarios, que pueden hacer clic en enlaces maliciosos que pueden contener malware.
-
Robo de identidad:
Además del phishing, los criminales pueden hacer uso de ChatGPT para suplantar la identidad de una institución confiable, gracias a la capacidad de la IA de replicar el tono y la forma de hablar de una empresa como un banco o una empresa, para luego utilizar estos mensajes en redes sociales, SMS o vía email para conseguir información privada y financiera de las personas. Con esta capacidad, también pueden escribir a través de las redes sociales como si fueran celebridades.
-
Ataques de ingeniería social:
En la misma línea, los ciberdelincuentes también pueden llevar a cabo ataques de ingeniería social. De esta forma, pueden utilizar el modelo para crear perfiles falsos en las redes sociales y hacer que parezcan muy realistas para luego engañar a las personas y persuadirlos a hacer clic en enlaces maliciosos o hacer que compartan información personal.
-
Creación de bots maliciosos:
ChatGPT puede ser utilizado para crear chat bots, ya que cuenta con una API que permite alimentar otros chats. Su interfaz amigable, diseñada para usos beneficiosos, puede ser utilizada para engañar personas y realizar estafas persuasivas, así como para difundir spam o llevar a cabo ataques de phishing.
-
Malware:
ChatGPT puede ayudar en una tarea que, por lo general, requiere de conocimientos elevados de programación: la generación de código en diversos lenguajes de programación. Sin embargo, con este modelo un actor malicioso no necesita tener experiencia en esta área para escribir malware. Con solo conocer la funcionalidad que debe tener el malware, ChatGPT lo escribirá.
A su vez, es posible que los cibercriminales más sofisticados utilicen esta tecnología para mejorar la eficacia de su actividad o cubrir lagunas que pueda tener. Un ejemplo del uso de ChatGPT para la creación de malware es un código basado en Python, que compartió un criminal en un foro, que permite buscar, copiar y extraer 12 tipos de archivos comunes, como documentos de Office, PDF e imágenes de un sistema infectado. Es decir, si encuentra algún archivo de interés, el malware lo copia en un directorio temporal, lo comprime y lo envía a través de la web. El mismo autor también mostró cómo había utilizado ChatGPT para escribir código Java para descargar el cliente PuTTY SSH y telnet, y ejecutarlo de forma encubierta en un sistema a través de PowerShell.
Amenazas avanzadas requieren soluciones avanzadas
Las ciberamenazas avanzadas deben enfrentarse con soluciones que estén a la altura. WatchGuard EPDR incluye funcionalidades de protección de endpoints (EPP) y de detección y respuesta (EDR) en una única solución. De esta forma, gracias a sus modelos de IA nuevos y emergentes de aprendizaje automático y aprendizaje profundo, WatchGuard EPDR protege contra amenazas avanzadas, amenazas avanzadas persistentes (APT), malware de día cero, ransomware, suplantación de identidad, rootkits, vulnerabilidades en la memoria y ataques sin malware, además de ofrecer visibilidad completa de los endpoints y los servidores y supervisar y detectar la actividad malintencionada que puede eludir la mayoría de las soluciones de antivirus tradicionales.
Del mismo modo, monitoriza continuamente todas las aplicaciones y detecta comportamientos maliciosos, incluso aunque provengan de aplicaciones licitas. Asimismo, es capaz de orquestar una respuesta automatizada y, a su vez, brindar la información forense necesaria para investigar a fondo cada intento de ataque a través de los indicadores avanzados de ataque (IoA).
En definitiva, la innovación de una herramienta como ChatGPT puede ser positiva para el mundo y cambiar los paradigmas actuales, pero también puede hacer mucho daño si cae en las manos equivocadas. Contar con la solución de ciberseguridad adecuada puede evitar que la cara negativa de las herramientas prometedoras como esta, alcancen tu organización por los malos usos que se pueden hacer de ellas.
Si quieres saber más sobre ChatGPT, los riesgos de ciberseguridad que puede entrañar el uso de la IA y cómo evitarlos, no te pierdas estos podcast del equipo de Threat Lab de WatchGuard: