Hacker utilizó la IA para automatizar una ola de delitos cibernéticos "sin precedentes", dice Anthropic
- intelnatural
- 28 ago
- 3 Min. de lectura

La empresa detrás del chatbot Claude dijo que atrapó a un hacker que usaba su chatbot para identificar, hackear y extorsionar al menos a 17 empresas.
Un hacker ha explotado un chatbot líder de inteligencia artificial para llevar a cabo la operación ciberdelincuente de IA más completa y lucrativa conocida hasta la fecha, usándola para hacer de todo, desde encontrar objetivos hasta escribir notas de rescate.
En un informe publicado el martes, Anthroponic, la compañía detrás del popular chatbot Claude, dijo que un hacker sin nombre "usó la IA en lo que creemos que es un grado sin precedentes" para investigar, hackear y extorsionar a al menos 17 empresas.
La ciberextorsión, donde los hackers roban información como datos confidenciales de los usuarios o secretos comerciales, es una táctica criminal común. Y la IA ha hecho algo de eso más fácil, con estafadores que utilizan chatbots de IA para ayudar a escribir correos electrónicos de phishing. En los últimos meses, los hackers de todas las tendencias han incorporado cada vez más herramientas de IA en su trabajo.
Pero el caso que encontró Anthropic es el primer caso documentado públicamente en el que un hacker utilizó el chatbot de una empresa líder de inteligencia artificial para automatizar casi toda una juerga de delitos cibernéticos.
Según la publicación del blog, uno de los informes periódicos de Anthropic sobre amenazas, la operación comenzó con el hacker convenciendo a Claude Code, el chatbot de Anthropoc que se especializa en "codificación de víbicas" o en la creación de programación informática basada en simples solicitudes, para identificar empresas vulnerables a los ataques. Claude luego creó un software malicioso para robar información confidencial de las empresas. A continuación, organizó los archivos pirateados y los analizó para ayudar a determinar qué era sensible y qué podía usarse para extorsionar a las empresas víctimas.
Luego, el chatbot analizó los documentos financieros pirateados de las empresas para ayudar a determinar una cantidad realista de bitcoin a demandar a cambio de la promesa del hacker de no publicar ese material. También escribió correos electrónicos de extorsión sugeridos.
Jacob Klein, jefe de inteligencia de amenazas de Anthropoc, dijo que la campaña parecía venir de un hacker individual fuera de los Estados Unidos y ocurrió durante el lapso de tres meses.
"Tenemos salvaguardas sólidas y múltiples capas de defensa para detectar este tipo de mal uso, pero los actores decididos a veces intentan evadir nuestros sistemas a través de técnicas sofisticadas", dijo.
Anthropic se negó a nombrar a cualquiera de las 17 empresas, pero dijo que incluían un contratista de defensa, una institución financiera y múltiples proveedores de atención médica. Los datos robados incluían números de la Seguridad Social, datos bancarios e información médica confidencial de los pacientes. El hacker también tomó archivos relacionados con información confidencial de defensa regulada por los Estados Unidos. Departamento de Estado, conocido como Reglamento Internacional de Tráfico de Armas.
No está claro cuántas de las empresas pagaron o cuánto dinero ganó el hacker, pero las demandas de extorsión oscilaron entre alrededor de 75.000 dólares y más de 500.000 dólares, dijo el informe.
La floreciente industria de la IA no está regulada por el gobierno federal.
Anthropic, una empresa líder en inteligencia artificial, se considera ampliamente que toma en serio la seguridad. Se negó a decir cómo un hacker pudo explotar Claude Code tan severamente, pero dijo que había implementado algunas salvaguardas adicionales.
"Si bien hemos tomado medidas para prevenir este tipo de mal uso, esperamos que este modelo se vuelva cada vez más común a medida que la IA reduce la barrera de entrada para operaciones sofisticadas de ciberdelincuencia", encontró el informe.