📅 Tal día como hoy 21 de noviembre... ¿QUÉ PASÓ?
Cursos Gratis Stories
Ganar Dinero Internet
Android Stories
Windows Stories
iOS Stories
MacOS Stories
Linux Stories
Facebook Stories
Amazon Stories
Netflix Stories
Whatsapp Stories
Twitch Stories
Instagram Stories
YouTube Stories
Gmail Stories
TikTok Stories
Arduino Stories
Telegram Stories
Raspberry Pi Stories

Los ciberdelincuentes utilizan una herramienta de IA inspirada en ChatGPT para mejorar sus ataques informáticos

Esta herramienta se presenta como una alternativa blackhat a los modelos GPT, diseñada específicamente para actividades maliciosas, lo cual les permite hacer sus ataques más difíciles de evitar

Mario José
Autor: Mario José
Fecha: 15 julio, 2023 a las 22:27

La inteligencia artificial generativa (IA) se ha convertido en la tendencia del momento, y no sorprende que esta tecnología esté siendo utilizada de manera maliciosa por actores malintencionados para su propio beneficio, abriendo paso a un acelerado aumento del cibercrimen.

Recientes hallazgos de SlashNext revelan la existencia de una nueva herramienta de cibercrimen basada en IA generativa, llamada WormGPT, la cual ha sido anunciada en foros clandestinos como una forma para los adversarios de llevar a cabo sofisticados ataques de phishing y compromiso de correo electrónico empresarial (BEC).

publicidad

Así es WormGPT; la IA que ayuda a los ciberdelincuentes a diseñar ataques más sofisticados

Así es WornGPT; la IA que ayuda a los ciberdelincuentes a diseñar ataques más sofisticados

Daniel Kelley, investigador de seguridad, señaló que "Esta herramienta se presenta como una alternativa blackhat a los modelos GPT, diseñada específicamente para actividades maliciosas. Los ciberdelincuentes pueden utilizar esta tecnología para automatizar la creación de correos electrónicos falsos altamente convincentes, personalizados para el destinatario, aumentando así las posibilidades de éxito del ataque".

El autor de este software lo ha descrito como el "mayor enemigo del conocido ChatGPT" que "permite hacer todo tipo de cosas ilegales".

Es importante resaltar que herramientas como WormGPT, en manos de actores maliciosos, podrían convertirse en armas poderosas, especialmente considerando que OpenAI ChatGPT y Google Bard están tomando medidas para combatir el abuso de grandes modelos de lenguaje (LLMs) en la generación de correos electrónicos de phishing convincentes y la generación de código malicioso.

Según un informe de Check Point, "las restricciones contra el abuso en ciberseguridad de Bard son significativamente más bajas en comparación con las de ChatGPT. En consecuencia, es mucho más fácil generar contenido malicioso utilizando las capacidades de Bard".

En febrero pasado, la empresa de ciberseguridad israelí reveló cómo los ciberdelincuentes están evadiendo las restricciones de ChatGPT aprovechando su API. Además, se ha detectado el comercio de cuentas premium robadas y la venta de software de fuerza bruta para hackear cuentas de ChatGPT mediante el uso de extensas listas de direcciones de correo electrónico y contraseñas.

El hecho de que WormGPT opere sin límites éticos subraya la amenaza que representa la IA generativa, ya que incluso los ciberdelincuentes novatos pueden lanzar ataques rápidos y a gran escala sin tener los conocimientos técnicos necesarios.

Para empeorar las cosas, los actores de amenazas están promoviendo "jailbreaks" para ChatGPT, diseñando comandos e instrucciones especializadas destinadas a manipular la herramienta para generar resultados que podrían implicar la divulgación de información confidencial, producir contenido inapropiado y ejecutar código dañino.

Daniel Kelley advirtió: "La IA generativa puede crear correos electrónicos con una gramática impecable, haciéndolos parecer legítimos y reduciendo la probabilidad de que se consideren sospechosos".

El uso de la IA generativa democratiza la ejecución de sofisticados ataques BEC, incluso para atacantes con habilidades limitadas, convirtiéndola en una herramienta accesible para un amplio espectro de ciberdelincuentes.

¿Qué hacer para evitar que la IA sea utilizada por los ciberdelincuentes?

En este contexto preocupante, es fundamental que las autoridades tomen medidas para evitar que esta tecnología caiga en manos de piratas informáticos. Se sugieren las siguientes acciones:

  • Implementar regulaciones y leyes actualizadas que aborden el mal uso de la IA generativa en el cibercrimen.
  • Fomentar la colaboración entre empresas, investigadores de seguridad y agencias gubernamentales para compartir información y combatir conjuntamente estas amenazas.
  • Fortalecer la seguridad de los modelos de IA generativa mediante el desarrollo de métodos de detección y mitigación de contenido malicioso.
  • Establecer programas de concienciación y capacitación en ciberseguridad para los usuarios, destacando los riesgos asociados con la manipulación de herramientas de IA generativa.
  • Promover la investigación y el desarrollo de contramedidas avanzadas para combatir el uso malicioso de la IA generativa.

Es crucial que se tomen medidas proactivas para salvaguardar la integridad de la IA generativa y proteger a los usuarios de posibles ataques cibernéticos cada vez más sofisticados. Solo mediante la cooperación y la atención continua a la seguridad cibernética podremos mitigar efectivamente esta creciente amenaza.

🔥ÚNETE🔥 A LA NUEVA COMUNIDAD DE IP@P ¡APÚNTATE AQUÍ!

Si te quedaste con alguna duda, déjalas en los comentarios, te contestaremos lo antes posible, además seguro que será de gran ayuda para más miembros de la comunidad. Gracias! 😉

Temas

Mario José
Autor: Mario José

Licenciado en periodismo, especializado en investigación, busco la verdad de todas las cosas. Ahora centrado 100% sobre temas de tecnología, informática e Internet.

Publicidad

Últimas Noticias

Deja un comentario