28
La inteligencia artificial Claude de Anthropic se ha convertido en una herramienta popular para programadores. Sin embargo, la empresa ha revelado un aspecto preocupante: el “hacking de vibras”. Recientemente, publicaron un informe que documenta cómo actores maliciosos han utilizado Claude para realizar actividades delictivas, incluyendo el desarrollo de ransomware.
Actividades Maliciosas Impulsadas por Claude AI
Según el Informe de Inteligencia de Amenazas de Anthropic de agosto de 2025, se ha detectado un uso inapropiado de Claude AI en varias operaciones maliciosas. Estas actividades incluyen amenazas de ransomware y extorsión de datos.
Claude AI ha atraído la atención no solo de programadores, sino también de ciberdelincuentes. Anthropic acuñó el término “hacking de vibras” para describir esta nueva tendencia. El informe menciona varios casos de uso indebido de esta inteligencia artificial.
1. Campaña de Extorsión de Datos
Primero, se identificó una compleja campaña de extorsión de datos. Los delincuentes, apodados GTG-2002, emplearon Claude AI para realizar reconocimiento, recolectar credenciales y penetrar redes. Utilizaron la información de la IA para determinar qué datos exfiltrar y cómo hacerlo de manera efectiva.
La IA no solo ejecutó operaciones en el teclado, sino que también analizó datos financieros para establecer montos de rescate. Creó notas de rescate en HTML que se mostraron en las computadoras de las víctimas.
Con esta técnica, los atacantes amenazaron a 17 organizaciones. En algunos casos, exigieron rescates superiores a $500,000, advirtiendo sobre la publicación de datos robados si no cumplían.
2. Fraude con Trabajadores Remotos
La segunda actividad fraudulenta involucró un esquema relacionado con trabajadores remotos. Este fraude fue atribuido a actores de Corea del Norte. Se hacían pasar por empleados remotos de empresas Fortune 500.
Los delincuentes crearon identidades falsas con detalles convincentes. Esto ayudó a respaldar su supuesta experiencia técnica en los empleos ofrecidos.
3. Modelos de Ransomware como Servicio
La explotación más alarmante de Claude AI involucra modelos de Ransomware como Servicio (RaaS). Este esfuerzo se vinculó a un grupo de cibercriminales del Reino Unido, denominado GTG-5004. Usaron Claude AI para todo el proceso, desde el desarrollo hasta la distribución de ransomware.
Los atacantes desarrollaron múltiples variantes de ransomware utilizando técnicas de cifrado avanzadas. A pesar de no tener conocimientos de programación, lograron vender ransomware generado por IA en la dark web.
Ante estas amenazas, Anthropic tomó medidas drásticas. Bloqueó las cuentas involucradas y reforzó sus protocolos de seguridad. El informe subraya la importancia de un uso ético y seguro de la inteligencia artificial en la evolución tecnológica actual.
Nos gustaría saber tu opinión en los comentarios.
Recibe actualizaciones en tiempo real sobre esta categoría directamente en tu dispositivo. Suscríbete ahora.
Como joven medio de comunicación independiente, Seguridad y Firewall necesita tu ayuda. Apóyanos siguiéndonos y marcándonos como favoritos en Google News. Gracias por tu apoyo.












