La gente ya está tratando de hacer que ChatGPT escriba programas maliciosos

gettyimages-1245391800.jpg

El chatbot de IA ChatGPT ha creado mucha emoción en el poco tiempo que ha estado disponible, y ahora parece que ha sido enlistado por algunos en sus intentos de generar código malicioso.

ChatGPT es una herramienta impulsada por la inteligencia artificial de procesamiento de lenguaje natural que interactúa con los usuarios de manera conversacional, similar a la de los humanos. Entre otras cosas, se puede utilizar para ayudar en tareas como la redacción de correos electrónicos, ensayos y código.

También: ¿Qué es ChatGPT y por qué importa? Lo que necesitas saber

La herramienta de chatbot fue lanzada por el laboratorio de investigación de inteligencia artificial OpenAI en noviembre y ha generado un amplio interés y discusión sobre cómo se está desarrollando la inteligencia artificial y cómo se podría utilizar en el futuro.

Pero como cualquier otra herramienta, en manos equivocadas se puede utilizar con fines maliciosos; y los investigadores de ciberseguridad de Check Point dicen que los usuarios de comunidades de hacking clandestinas ya están experimentando con cómo se puede utilizar ChatGPT para ayudar a facilitar ataques cibernéticos y apoyar operaciones maliciosas.

"Los actores delictivos con muy poco conocimiento técnico, hasta cero conocimiento, podrían ser capaces de crear herramientas maliciosas. También podría hacer que las operaciones diarias de los ciberdelincuentes sofisticados sean mucho más eficientes y fáciles, como la creación de diferentes partes de la cadena de infección", dijo Sergey Shykevich, gerente del grupo de inteligencia de amenazas en Check Point a ZDNET.

Los términos de servicio de OpenAI prohíben específicamente la generación de malware, que define como "contenido que intenta generar ransomware, registradores de teclas, virus u otro software con la intención de causar algún tipo de daño". También prohíbe intentos de crear spam, así como casos de uso dirigidos al cibercrimen.

Sin embargo, el análisis de la actividad en varios foros de hacking subterráneos importantes sugiere que los ciberdelincuentes ya están utilizando ChatGPT para desarrollar herramientas maliciosas – y, en algunos casos, ya está permitiendo a los delincuentes cibernéticos de bajo nivel sin habilidades de desarrollo ni codificación crear malware.

También: El futuro aterrador de internet: cómo la tecnología del mañana presentará amenazas de ciberseguridad aún mayores

En un hilo de foro que apareció a finales de diciembre, el autor describió cómo estaban usando ChatGPT para recrear cepas de malware y técnicas descritas en publicaciones de investigación y descripciones sobre malware común.

Al hacer esto, han podido crear un malware basado en Python que roba información, el cual busca archivos comunes como documentos de Microsoft Office, PDF e imágenes, los copia y luego los carga en un servidor de protocolo de transferencia de archivos.

El mismo usuario también demostró cómo utilizó ChatGPT para crear malware basado en Java, que utilizando PowerShell podría ser aprovechado para descargar y ejecutar de manera encubierta otro malware en sistemas infectados.

Los investigadores señalan que el usuario del foro que publica estos hilos parece ser "orientado a la tecnología" y comparte los mensajes para demostrar a los ciberdelincuentes menos capacitados técnicamente cómo utilizar herramientas de Inteligencia Artificial para fines maliciosos, con ejemplos reales de cómo hacerlo.

Un usuario publicó un script de Python, el cual afirmó que era el primer script que había creado. Después de discutir con otro miembro del foro, afirmó que ChatGPT le ayudó a crearlo.

El análisis del script sugiere que está diseñado para cifrar y descifrar archivos, lo que, con algo de trabajo, podría convertirse en un ransomware, lo que potencialmente llevaría a la perspectiva de que los delincuentes informáticos de bajo nivel desarrollen y distribuyan sus propias campañas de extorsión.

"Todo el código antes mencionado, por supuesto, se puede utilizar de manera benigna. Sin embargo, este script se puede modificar fácilmente para cifrar completamente la máquina de alguien sin ninguna interacción del usuario. Por ejemplo, podría convertir el código en ransomware si se solucionan los problemas de script y sintaxis," dijo Check Point.

"Requerirá algunas mejoras en el código y la sintaxis, pero conceptualmente, cuando esté operativa, esta herramienta podría llevar a cabo acciones similares a las del ransomware", dijo Shykevich."

También: Ciberseguridad: Estas son las nuevas cosas sobre las que preocuparse en 2023

Pero no solo se trata del desarrollo de malware para lo que los ciberdelincuentes están experimentando con ChatGPT; en Nochevieja, un miembro del foro clandestino publicó un hilo demostrando cómo había utilizado la herramienta para crear scripts que podrían operar un mercado automatizado en la red oscura para comprar y vender detalles de cuentas robadas, información de tarjetas de crédito, malware y más.

El criminal cibernético incluso mostró un fragmento de código que fue generado usando una API de terceros para obtener precios actualizados de criptomonedas como Monero, Bitcoin y Ethereum, como parte de un sistema de pago para un mercado en la dark web.

Es difícil decir si la actividad cibernética maliciosa generada con la ayuda de ChatGPT está funcionando activamente en la naturaleza, porque como explica Sykevich, "desde un punto técnico es extremadamente difícil saber si un malware específico fue escrito usando ChatGPT o no".

Pero a medida que aumenta el interés por ChatGPT y otras herramientas de inteligencia artificial, también atraerán la atención de ciberdelincuentes y estafadores que buscan explotar la tecnología para ayudar a llevar a cabo campañas maliciosas a bajo costo y con el menor esfuerzo posible. ZDNET ha contactado con OpenAI para obtener comentarios, pero aún no ha recibido respuesta en el momento de la publicación.

Artículos relacionados

Ver más >>