Lo Último en IP@P
- Los mejores reproductores de vídeo para Android que puedes descargar gratis - Lista 2023
- iPhone 15: Descubre toda la innovación en un solo vistazo que te ofrece Apple
- ¿Cuáles son las mejores páginas webs para escribir y enviar la carta de los Reyes Magos por Internet? Lista 2023
- ¿Cuáles son las mejores páginas webs para comprar cestas de Navidad baratas y originales? Lista 2023
- ¿Cuáles son las mejores páginas webs para ver y comprobar el sorteo de la Lotería de Navidad? Lista 2023
La inteligencia artificial generativa (IA) se ha convertido en la tendencia del momento, y no sorprende que esta tecnología esté siendo utilizada de manera maliciosa por actores malintencionados para su propio beneficio, abriendo paso a un acelerado aumento del cibercrimen.
Recientes hallazgos de SlashNext revelan la existencia de una nueva herramienta de cibercrimen basada en IA generativa, llamada WormGPT, la cual ha sido anunciada en foros clandestinos como una forma para los adversarios de llevar a cabo sofisticados ataques de phishing y compromiso de correo electrónico empresarial (BEC).
Así es WormGPT; la IA que ayuda a los ciberdelincuentes a diseñar ataques más sofisticados
Daniel Kelley, investigador de seguridad, señaló que “Esta herramienta se presenta como una alternativa blackhat a los modelos GPT, diseñada específicamente para actividades maliciosas. Los ciberdelincuentes pueden utilizar esta tecnología para automatizar la creación de correos electrónicos falsos altamente convincentes, personalizados para el destinatario, aumentando así las posibilidades de éxito del ataque”.
El autor de este software lo ha descrito como el “mayor enemigo del conocido ChatGPT” que “permite hacer todo tipo de cosas ilegales”.
Es importante resaltar que herramientas como WormGPT, en manos de actores maliciosos, podrían convertirse en armas poderosas, especialmente considerando que OpenAI ChatGPT y Google Bard están tomando medidas para combatir el abuso de grandes modelos de lenguaje (LLMs) en la generación de correos electrónicos de phishing convincentes y la generación de código malicioso.
Según un informe de Check Point, “las restricciones contra el abuso en ciberseguridad de Bard son significativamente más bajas en comparación con las de ChatGPT. En consecuencia, es mucho más fácil generar contenido malicioso utilizando las capacidades de Bard”.
Últimas Noticias de Software y APPs
- ¿Por qué utilizar la estabilización de vídeo con IA para corregir vídeos?
- Todas las novedades de Google Chrome 117 que te harán amar este navegador
- La nueva "habilidad" de Google Chrome en desktop que te hará la vida más fácil
- ¡Es oficial! Pronto podrás usar Duolingo para aprender música de forma interactiva
- ¿Usas MacOS? Cuidado con esta nueva variante del malware XLoader en la aplicación OfficeNote
SÍGUENOS EN 👉 YOUTUBE TV
En febrero pasado, la empresa de ciberseguridad israelí reveló cómo los ciberdelincuentes están evadiendo las restricciones de ChatGPT aprovechando su API. Además, se ha detectado el comercio de cuentas premium robadas y la venta de software de fuerza bruta para hackear cuentas de ChatGPT mediante el uso de extensas listas de direcciones de correo electrónico y contraseñas.
El hecho de que WormGPT opere sin límites éticos subraya la amenaza que representa la IA generativa, ya que incluso los ciberdelincuentes novatos pueden lanzar ataques rápidos y a gran escala sin tener los conocimientos técnicos necesarios.
Para empeorar las cosas, los actores de amenazas están promoviendo “jailbreaks” para ChatGPT, diseñando comandos e instrucciones especializadas destinadas a manipular la herramienta para generar resultados que podrían implicar la divulgación de información confidencial, producir contenido inapropiado y ejecutar código dañino.
Lately, thinking about GPT-Worm:
A program that runs via compromised OAI API-keys, has access to the web, can phish people via email for CCs or API-keys, can use TTS and transcription to call and fake emergencies, replicate itself and coordinate to achieve high level goals.
— Vaibhav Kumar (@vaibhavk97) April 6, 2023
Daniel Kelley advirtió: “La IA generativa puede crear correos electrónicos con una gramática impecable, haciéndolos parecer legítimos y reduciendo la probabilidad de que se consideren sospechosos”.
El uso de la IA generativa democratiza la ejecución de sofisticados ataques BEC, incluso para atacantes con habilidades limitadas, convirtiéndola en una herramienta accesible para un amplio espectro de ciberdelincuentes.
¿Qué hacer para evitar que la IA sea utilizada por los ciberdelincuentes?
En este contexto preocupante, es fundamental que las autoridades tomen medidas para evitar que esta tecnología caiga en manos de piratas informáticos. Se sugieren las siguientes acciones:
- Implementar regulaciones y leyes actualizadas que aborden el mal uso de la IA generativa en el cibercrimen.
- Fomentar la colaboración entre empresas, investigadores de seguridad y agencias gubernamentales para compartir información y combatir conjuntamente estas amenazas.
- Fortalecer la seguridad de los modelos de IA generativa mediante el desarrollo de métodos de detección y mitigación de contenido malicioso.
- Establecer programas de concienciación y capacitación en ciberseguridad para los usuarios, destacando los riesgos asociados con la manipulación de herramientas de IA generativa.
- Promover la investigación y el desarrollo de contramedidas avanzadas para combatir el uso malicioso de la IA generativa.
Es crucial que se tomen medidas proactivas para salvaguardar la integridad de la IA generativa y proteger a los usuarios de posibles ataques cibernéticos cada vez más sofisticados. Solo mediante la cooperación y la atención continua a la seguridad cibernética podremos mitigar efectivamente esta creciente amenaza.