Redacción: Hena M. Andrés Cuevas
Un grupo ligado a China usó una IA para lanzar un ciberataque casi automático, mostrando lo fácil que estas herramientas pueden volverse peligrosas si caen en manos equivocadas.
Al parecer, el mundo de la tecnología acaba de enfrentarse a un episodio que parece sacado de una película de ciencia ficción. Según la empresa Anthropic (una compañía estadounidense que se dedica a investigar inteligencia artificial), un grupo vinculado al Estado chino llevó a cabo lo que podría considerarse el primer gran ciberataque totalmente apoyado en IA y casi sin intervención humana significativa.
El ataque se detectó a mediados de septiembre y no se parece a los típicos hackeos que estamos acostumbrados a escuchar. En este caso, los atacantes usaron una plataforma de IA llamada Claude (desarrollada por Anthropic) para infiltrar “una treintena de objetivos” en distintos países: grandes empresas tecnológicas, instituciones financieras, industrias químicas y agencias gubernamentales.
Lo que hace este episodio tan especial es la forma de operar: la IA no solo ayudó en tareas auxiliares, sino que ejecutó gran parte del ataque de forma autónoma. De acuerdo con el informe, en más del 90 % de los casos la IA actuó sola, y la intervención humana se redujo a sólo entre un 4 % y 6 %. El modus operandi fue cuanto menos ingenioso: los atacantes dividieron el ataque en tareas pequeñas, aparentemente inofensivas, para que los mecanismos de seguridad de Claude no se dispararan. Hicieron creer al sistema que quien solicitaba las acciones era un empleado de una empresa de ciberseguridad haciendo pruebas defensivas.
Así, consiguieron que la IA recopilara datos, contraseñas, los analizara, y posteriormente generara programas de espionaje o sabotaje. Anthropic señala que este tipo de ataque marca un antes y un después en la seguridad informática: “supone una escalada en la piratería, que hasta ahora había dependido más de la intervención humana”. También advierte que mientras la IA se usa para estos fines maliciosos, las mismas compañías desarrollan herramientas más sofisticadas para defenderse.
Por su parte, la firma de seguridad Kaspersky ha identificado otros vectores de ataque emergentes: por ejemplo, programas maliciosos que se disfrazan de asistentes de IA legítimos y que te invitan a instalar software que luego redirige tu navegación o roba tus credenciales.
Este tipo de campañas muestran que no sólo los grandes jugadores están en riesgo: los usuarios comunes también pueden caer si descargan herramientas de IA de orígenes dudosos.
La IA ya no es sólo una herramienta de ayuda o diversión: también puede transformarse en arma. Y que las barreras de seguridad tradicionales pueden ya no ser suficientes si no se actualizan. Para los que usamos tecnología, esto implica: tener cuidado con qué instalamos, revisar que las herramientas sean de fuentes confiables, y estar atentos a novedades en seguridad.
Una compañía americana detectó que un grupo apoyado por China usó la IA de forma autónoma para atacar empresas e instituciones, engañando al sistema para que creyera que era algo legítimo. Es un aviso de que la ciberseguridad entra en una nueva fase, más compleja, más automatizada, y por lo tanto, más peligrosa si no estamos preparados.

¿Te gustó nuestra nota? ¡Contáctanos y deja tu comentario! AQUÍ
Conoce nuestra red ANCOP Network AQUÍ



Agregar comentario