Redactor: Sam Torne
El pasado 2 de diciembre, 166 países aprobaron una resolución en la Asamblea General de la ONU para debatir un marco legal que prohíba los sistemas de armas autónomas letales, conocidos como «robots asesinos». Este esfuerzo busca abordar los desafíos éticos y de seguridad asociados con estas tecnologías, que operan sin intervención humana significativa. Sin embargo, tres países (Rusia, Corea del Norte y Bielorrusia) votaron en contra, mientras que 15 se abstuvieron, incluyendo naciones con grandes inversiones militares en inteligencia artificial.
Según Human Rights Watch (HRW), estas armas representan una amenaza para la estabilidad global al permitir que máquinas tomen decisiones de vida o muerte. Además de los riesgos éticos, podrían intensificar conflictos y crisis humanitarias. António Guterres, secretario general de la ONU, calificó estas tecnologías como «moralmente repugnantes» e instó a su prohibición bajo el derecho internacional.
Obstáculos en el camino
El consenso es necesario para avanzar, pero potencias como Estados Unidos, India e Israel han dificultado acuerdos para iniciar negociaciones. Estos países prefieren medidas voluntarias o códigos de conducta en lugar de regulaciones estrictas, algo que críticos consideran insuficiente ante la urgencia del problema.
En 2025, se celebrarán nuevas rondas de consultas en Nueva York para avanzar en un tratado internacional. La comunidad científica, ONG y otros actores clave también participarán para crear un marco regulatorio sólido y evitar un futuro de guerras automatizadas. La discusión sobre los «robots asesinos» continúa siendo un tema prioritario, tanto para proteger derechos humanos como para garantizar la paz mundial.
¿Te gustó nuestra nota? ¡Contáctanos y deja tu comentario! AQUÍ
Conoce nuestra red ANCOP Network AQUÍ
Agregar comentario