5 ciberamenazas que los delincuentes pueden generar con la ayuda de ChatGPT
Por Manu Santamaría Delgado, Senior Global Product Manager de WatchGuard Technologies.
ChatGPT, la IA generativa pública que salió a la venta a finales de noviembre de 2022, ha planteado preocupaciones legítimas sobre su potencial para amplificar la gravedad y la complejidad de las ciberamenazas. De hecho, tan pronto como OpenAI anunció su lanzamiento, muchos expertos en seguridad predijeron que solo sería cuestión de tiempo antes de que los atacantes comenzaran a usar este chatbot de IA para crear malware o incluso aumentar los ataques de phishing.
Y sus sospechas no han tardado en confirmarse, ya que se ha descubierto que los ciberdelincuentes ya han comenzado a utilizar esta herramienta basada en el modelo de lenguaje de IA GPT-3 para recrear cepas de malware y perpetrar diferentes tipos de ataques. Los ciberdelincuentes simplemente necesitan tener una cuenta OpenAI, que pueden crear de forma gratuita desde su sitio web, y luego realizar una consulta.
¿Qué pueden hacer los ciberdelincuentes con ChatGPT?
Los atacantes pueden aprovechar la inteligencia artificial generativa de ChatGPT para crear actividades maliciosas, que incluyen:
- Suplantación de identidad:
Los atacantes pueden usar el modelo de lenguaje grande (LLM) del sistema ChatGPT para alejarse de los formatos universales y automatizar la creación de correos electrónicos únicos de phishing o suplantación de identidad, escritos con una gramática perfecta y patrones de habla natural adaptados a cada objetivo. Esto significa que los ataques de correo electrónico elaborados con la ayuda de esta tecnología parecen mucho más convincentes, lo que dificulta que los destinatarios los detecten y eviten hacer clic en enlaces maliciosos que pueden contener malware.
- El robo de identidad:
Además del phishing, los delincuentes pueden utilizar ChatGPT para hacerse pasar por una institución de confianza, gracias a la capacidad de la IA para replicar el tono corporativo y el discurso de un banco u organización, y luego explotar estos mensajes en las redes sociales, SMS o correos electrónicos para obtener información privada y financiera de las personas. Los actores maliciosos también pueden escribir publicaciones en las redes sociales haciéndose pasar por celebridades al explotar esta capacidad.
- Otros ataques de ingeniería social:
También se pueden lanzar ataques de ingeniería social donde los actores usan el modelo para crear perfiles falsos en las redes sociales, haciéndolos parecer muy realistas, y luego engañar a las personas para que hagan clic en enlaces maliciosos o persuadirlos para que compartan información personal.
- Creación de bots maliciosos:
ChatGPT se puede usar para crear chatbots, ya que tiene una API que puede alimentar otros chats. Su interfaz fácil de usar, diseñada para usos beneficiosos, se puede utilizar para engañar a las personas y ejecutar estafas persuasivas, así como para difundir spam o lanzar ataques de phishing.
- Malware:
ChatGPT puede ayudar a realizar una tarea que generalmente requiere habilidades de programación de alto nivel: generar código en varios lenguajes de programación. El modelo permite a los actores de amenazas con habilidades técnicas limitadas o sin habilidades de codificación desarrollar malware. ChatGPT lo escribe simplemente sabiendo qué funcionalidad debería tener el malware.
A su vez, los ciberdelincuentes sofisticados también podrían usar esta tecnología para hacer que sus amenazas sean más efectivas o para cerrar las lagunas existentes. En un caso compartido por un delincuente en un foro, se explotó ChatGPT para crear malware utilizando un código basado en Python que puede buscar, copiar y filtrar 12 tipos de archivos comunes, como documentos de Office, PDF e imágenes de un sistema infectado. En otras palabras, si encuentra un archivo de interés, el malware lo copia en un directorio temporal, lo comprime y lo envía a través de la web. El mismo autor de malware también mostró cómo había usado ChatGPT para escribir código Java para descargar el cliente PuTTY SSH y telnet y ejecutarlo de forma encubierta en un sistema a través de PowerShell.
Las amenazas avanzadas requieren soluciones avanzadas
Las ciberamenazas avanzadas deben enfrentarse con soluciones que estén a la altura. WatchGuard EPDR combina capacidades de protección de punto final (EPP) y detección y respuesta (EDR) en una única solución. Gracias a sus nuevos y emergentes modelos de inteligencia artificial de aprendizaje automático y aprendizaje profundo, WatchGuard EPDR protege contra amenazas avanzadas, amenazas persistentes avanzadas (APT), malware de día cero, ransomware, phishing, rootkits, vulnerabilidades de memoria y ataques sin malware, además de proporcionando una visibilidad completa del punto final y del servidor y controlando y detectando actividad maliciosa que puede evadir la mayoría de las soluciones antivirus tradicionales.
También monitorea continuamente todas las aplicaciones y detecta comportamientos maliciosos, incluso si se originan en aplicaciones legítimas. También es capaz de orquestar una respuesta automatizada y, a su vez, proporcionar la información forense necesaria para investigar a fondo cada intento de ataque a través de indicadores avanzados de ataque (IoA).
En definitiva, la innovación de una herramienta como ChatGPT puede ser positiva para el mundo y cambiar los paradigmas actuales, pero también puede causar graves perjuicios si cae en malas manos. Contar con la solución de ciberseguridad adecuada puede evitar que el lado negativo de herramientas prometedoras como esta llegue a su organización a través del mal uso que pueden hacer de ellas los malhechores..-