Lo Último en IP@P
- Stellar Data Recovery revoluciona la recuperación de archivos perdidos en discos duros externos
- Goblin Mine: La Estrategia Económica Detrás del Juego de Minería que está Fascinando a Todos
- Estos son los nuevos Cargadores UGREEN: potencia y portabilidad en dos versiones que no te puedes perder
- UGREEN Nexode Pro: El Cargador Ultradelgado que revoluciona la carga de dispositivos móviles
- La computación en la nube está transformando los juegos Online y estas son sus grandes ventajas
La inteligencia artificial generativa (IA) se ha convertido en la tendencia del momento, y no sorprende que esta tecnología esté siendo utilizada de manera maliciosa por actores malintencionados para su propio beneficio, abriendo paso a un acelerado aumento del cibercrimen.
Recientes hallazgos de SlashNext revelan la existencia de una nueva herramienta de cibercrimen basada en IA generativa, llamada WormGPT, la cual ha sido anunciada en foros clandestinos como una forma para los adversarios de llevar a cabo sofisticados ataques de phishing y compromiso de correo electrónico empresarial (BEC).
Así es WormGPT; la IA que ayuda a los ciberdelincuentes a diseñar ataques más sofisticados
Daniel Kelley, investigador de seguridad, señaló que "Esta herramienta se presenta como una alternativa blackhat a los modelos GPT, diseñada específicamente para actividades maliciosas. Los ciberdelincuentes pueden utilizar esta tecnología para automatizar la creación de correos electrónicos falsos altamente convincentes, personalizados para el destinatario, aumentando así las posibilidades de éxito del ataque".
El autor de este software lo ha descrito como el "mayor enemigo del conocido ChatGPT" que "permite hacer todo tipo de cosas ilegales".
Es importante resaltar que herramientas como WormGPT, en manos de actores maliciosos, podrían convertirse en armas poderosas, especialmente considerando que OpenAI ChatGPT y Google Bard están tomando medidas para combatir el abuso de grandes modelos de lenguaje (LLMs) en la generación de correos electrónicos de phishing convincentes y la generación de código malicioso.
Según un informe de Check Point, "las restricciones contra el abuso en ciberseguridad de Bard son significativamente más bajas en comparación con las de ChatGPT. En consecuencia, es mucho más fácil generar contenido malicioso utilizando las capacidades de Bard".
Últimas Noticias de Software y APPs
- Stellar Data Recovery revoluciona la recuperación de archivos perdidos en discos duros externos
- La computación en la nube está transformando los juegos Online y estas son sus grandes ventajas
- Actualizaciones del Programa de Afiliados de TEMU: ¡Hasta MX$500,000 al mes!
- ¿Por qué la gente opta por WPS Office en vez de continuar usando Microsoft Office?
- Según nuestro último estudio, estos son los mejores gestores de archivos para smartphones Android
SÍGUENOS EN 👉 YOUTUBE TV
En febrero pasado, la empresa de ciberseguridad israelí reveló cómo los ciberdelincuentes están evadiendo las restricciones de ChatGPT aprovechando su API. Además, se ha detectado el comercio de cuentas premium robadas y la venta de software de fuerza bruta para hackear cuentas de ChatGPT mediante el uso de extensas listas de direcciones de correo electrónico y contraseñas.
El hecho de que WormGPT opere sin límites éticos subraya la amenaza que representa la IA generativa, ya que incluso los ciberdelincuentes novatos pueden lanzar ataques rápidos y a gran escala sin tener los conocimientos técnicos necesarios.
Para empeorar las cosas, los actores de amenazas están promoviendo "jailbreaks" para ChatGPT, diseñando comandos e instrucciones especializadas destinadas a manipular la herramienta para generar resultados que podrían implicar la divulgación de información confidencial, producir contenido inapropiado y ejecutar código dañino.
Lately, thinking about GPT-Worm:
A program that runs via compromised OAI API-keys, has access to the web, can phish people via email for CCs or API-keys, can use TTS and transcription to call and fake emergencies, replicate itself and coordinate to achieve high level goals.
— Vaibhav Kumar (@vaibhavk97) April 6, 2023
Daniel Kelley advirtió: "La IA generativa puede crear correos electrónicos con una gramática impecable, haciéndolos parecer legítimos y reduciendo la probabilidad de que se consideren sospechosos".
El uso de la IA generativa democratiza la ejecución de sofisticados ataques BEC, incluso para atacantes con habilidades limitadas, convirtiéndola en una herramienta accesible para un amplio espectro de ciberdelincuentes.
¿Qué hacer para evitar que la IA sea utilizada por los ciberdelincuentes?
En este contexto preocupante, es fundamental que las autoridades tomen medidas para evitar que esta tecnología caiga en manos de piratas informáticos. Se sugieren las siguientes acciones:
- Implementar regulaciones y leyes actualizadas que aborden el mal uso de la IA generativa en el cibercrimen.
- Fomentar la colaboración entre empresas, investigadores de seguridad y agencias gubernamentales para compartir información y combatir conjuntamente estas amenazas.
- Fortalecer la seguridad de los modelos de IA generativa mediante el desarrollo de métodos de detección y mitigación de contenido malicioso.
- Establecer programas de concienciación y capacitación en ciberseguridad para los usuarios, destacando los riesgos asociados con la manipulación de herramientas de IA generativa.
- Promover la investigación y el desarrollo de contramedidas avanzadas para combatir el uso malicioso de la IA generativa.
Es crucial que se tomen medidas proactivas para salvaguardar la integridad de la IA generativa y proteger a los usuarios de posibles ataques cibernéticos cada vez más sofisticados. Solo mediante la cooperación y la atención continua a la seguridad cibernética podremos mitigar efectivamente esta creciente amenaza.