✅ ÚNETE a la Comunidad de IP@P ⏩ ENTRA AQUÍ
📅 Tal día como hoy 02 de febrero... ¿QUÉ PASÓ?
Cursos Gratis
Ganar Dinero Internet
Android
Windows
iOS
MacOS
Linux
Facebook
Amazon
Netflix
Whatsapp
Twitch
Instagram
YouTube
Gmail
TikTok
Arduino
Telegram
Raspberry Pi

¡El peligro de la IA! ChatGPT es utilizado para crear un malware polimórfico que aterroriza a los expertos en ciberseguridad

¡No todo es lo que parece! Aunque ChatGPT de OpenAI se presentó como una óptima herramienta de IA que transformaría las búsquedas en Internet y más, varias investigaciones hechas por expertos en ciberseguridad comprueban que los riesgos de esta tecnología son altos y hasta puede crear malware polimórfico

Saharay Pérez
Autor: Saharay Pérez
Fecha: 20 enero, 2023 a las 19:26

A través de un informe compartido por CyberArk con Infosecurity, el pasado 18 de enero, se conoció que ChatGPT ha creado una nueva línea de malware polimórfico tras realizar interacciones basadas en texto con investigadores de seguridad cibernética pertenecientes a la empresa CyberArk. En el escrito, señalan que el malware desarrollado con este chatbot de OpenAI, es capaz de evadir fácilmente los productos de seguridad y obstaculizar la mitigación con poca inversión o poco esfuerzo por parte del atacante.

Desde sus inicios, ChatGPT ha sido bastante controversial. Por un lado, muchos expertos en informática aseguran que esta tecnología revolucionará el futuro del aprendizaje y formará mejores profesionales. Por otra parte, han resaltado que el nuevo chatbot de OpenIA es una aberración que te enseña a robar en tiendas y crear explosivos, ya que ofrece respuestas muy dañinas y violentas, al igual que información falsa. Por ende, también se publicó que ChatGPT es la herramienta de inteligencia artificial que crea rumores falsos en Internet y amenaza el negocio de Google.

publicidad

Utilizan ChatGPT para crear un malware polimórfico

Utilizan ChatGPT para crear un malware polimorfico

Un malware polimórfico es un tipo de malware que cambia sus características identificables constantemente, para evadir la detección. En consecuencia, el polimorfismo de emplea para eludir la detección de coincidencia de patrones en la que se basan las soluciones de seguridad (como, por ejemplo, el software antivirus). Generalmente, entre las formas más comunes de malware polimórficas, se incluyen los virus, troyanos, gusanos, bots y registradores de pulsaciones de teclas.

Recientemente, el proveedor de seguridad de cuentas privilegiadas con sede en Massachusetts (Estados Unidos), CyberArk, presentó un informe en el que asegura que se puede usar ChatGPT para crear malware polimórfico con gran facilidad. A través de Infosecurity, el pasado 18 de enero, publicaron su informe técnico y mediante este, señalan que ChatGPT podría “evadir los productos de seguridad con simplicidad y dificultar la mitigación con muy poco esfuerzo o inversión por parte del adversario”.

En otras palabras, este descubrimiento apunta a que el chatbot creado por OpenAI ha logrado crear una nueva línea de malware polimórfico, lo cual se detectó después de hallar interacciones basadas en texto con investigadores de seguridad cibernética que forman parte del equipo de CyberArk.

Específicamente, los expertos se centraron en plantearle la misma pregunta a ChatGPT una y otra vez, con más autoridad. Así notaron que, cuando se usa la versión API del chatbot, el sistema no emplea su filtro de contenido (a diferencia de la versión web).

“Curiosamente, al pedirle a ChatGPT que hiciera lo mismo usando múltiples restricciones y pidiéndole que obedezca, recibimos un código funcional”.

Eran Shimony, investigador de seguridad de CyberArk.

De tal modo, encontraron que su capacidad para escribir malware sofisticado que “no contiene” código malicioso es bastante avanzada. Lo peor, es que los investigadores pudieron hacer uso de ChatGPT para mutar el código original y crear múltiples variaciones del mismo. En otras palabras, lograron cambiar la salida a su antojo y hacerla única cada vez, lo cual hace que la vida de los productos de seguridad existentes sea más compleja a la hora de realizar su labor.

En consecuencia, una de las poderosas capacidades de ChatGPT que resulta atrayente para los ciberdelincuentes, consiste en su capacidad de crear y mutar fácil y continuamente inyectores. Por lo tanto, al consultar al chatbot una y otra vez, se recibe una pieza de código única y esto, es lo que ayuda a crear un programa polimórfico que es altamente evasivo y difícil de detectar para los expertos en seguridad cibernética.

“No está claro por qué es así, pero facilita mucho nuestra tarea, ya que la versión web tiende a atascarse con solicitudes más complejas”.

Omer Tsarfati, investigador de seguridad de CyberArk.

Los expertos en ciberseguridad están aterrados

Después de comprobar este descubrimiento, los expertos en ciberseguridad que hacen parte de CyberArk y la comunidad en general, mostraron su preocupación por las capacidades de ChatGPT respecto a generar malware polimórfico. Por consiguiente, la investigación encabezada por CyberArk recientemente, tiene una clara intención: Crear conciencia acerca de los riesgos potenciales de este chatbot y fomentar una mayor investigación sobre el mismo.

Shimony y Tsarfati de CyberArk, confirmaron que ampliarán y elaborarán más sobre esta investigación, además, intentarán publicar parte del código fuente con fines de aprendizaje.

En otro estudio basado en las capacidades y contras de ChatGPT, un grupo de investigadores comprobaron que este chatbot también se puede utilizar para crear un malware que recopile archivos de Microsoft Office o PDF, así como también, imágenes del sistema. Tras realizar esto, el ciberdelincuente copia el archivo en un directorio temporal para comprimirlo y compartirlo mediante la web, sin añadir cifrado. Como resultado, los archivos también podrían terminar en manos de terceros, al carecer de dicho sistema de seguridad.

Entre otros peligros que causan preocupación en el ámbito de la ciberseguridad, es que ChatGPT es capaz de generar un correo electrónico que contamine o robe datos, por tratarse de una inteligencia artificial que está diseñada para imitar el lenguaje humano. En otras palabras, varias empresas de ciberseguridad descubrieron que el prototipo de OpenAI puede generar un email con un archivo fraudulento que contenga un virus y robe datos.

Por si fuera poco, una empresa de ciberseguridad con sede en Helsinki, WithSecure, emitió un informe en el que asegura que los malos actores podrían jugar con ChatGPT averiguando cómo hacer preguntas maliciosas, con el objetivo de alimentar intentos de phishing, acoso cibernético y noticias falsas. Por todo esto y más, los expertos del medio han quedado asombrados con las capacidades de este chatbot, las cuales pueden profundizar los hackers para perpetrar sus ataques con facilidad.

“Esta herramienta de IA será usada por una amplia gama de actores malvados, desde cibercriminales hasta quienes quieran intoxicar la opinión pública, para que su trabajo logre resultados más realistas”.

Steve Grobman, vicepresidente y responsable de tecnología de McAfee.

🔥ÚNETE🔥 A LA NUEVA COMUNIDAD DE IP@P ¡APÚNTATE AQUÍ!

Si te quedaste con alguna duda, déjalas en los comentarios, te contestaremos lo antes posible, además seguro que será de gran ayuda para más miembros de la comunidad. Gracias! 😉

Temas

Saharay Pérez
Autor: Saharay Pérez

Mi pasión es la tecnología y las redes sociales, investigo y documento las últimas noticias y trucos de Facebook, Twitter, Instagram, Whatsapp y cualquier red social.

Publicidad

Últimas Noticias

Deja un comentario