La irrupción de la inteligencia artificial y los sistemas autónomos ha replanteado las reglas de la guerra. En medio de avances rápidos, el debate sobre la legitimidad moral, legal y estratégica de los drones armados autónomos se ha intensificado. Recientes reportes y análisis de organismos internacionales y medios especializados alertan sobre los desafíos que esto implica para la humanidad.

Alarmas lanzadas por organismos internacionales
En junio de 2025, la Oficina de Asuntos Políticos y Consolidación de la Paz de la ONU publicó un artículo alertando que los sistemas autónomos de armas representan un riesgo creciente para la estabilidad y el respeto de los derechos humanos. En él se subraya que “la delegación de decisiones letales a sistemas autónomos socava principios fundamentales de responsabilidad y protección civil” (ONU, 2025).
Del mismo modo, en una reseña sobre los principales debates de 2024, se analizó cómo la inteligencia artificial está transformando el panorama bélico, y advierte que “la tecnología avanza más rápido que las normas éticas y legales que regulan su empleo” (France 24, 2024).

Perspectiva de medios especializados
En un artículo de opinión publicado a comienzos de 2025, A21 México señaló que el despliegue de drones con capacidades autónomas e inteligencia artificial ha modificado radicalmente el escenario del conflicto. El autor sostiene que “en un solo año, el poder de proyección de fuerza ha sido redefinido por sistemas que operan con mínima intervención humana” (A21, 2025). Este cambio, según el artículo, no solo afecta la conducta bélica, sino las fronteras de la responsabilidad ética.
Tensiones principales en el debate ético
- Control humano vs autonomía absoluta: Uno de los puntos centrales del debate es qué grado de intervención humana debe mantenerse. Si se permite que la máquina actúe sin supervisión, ¿quién asume la culpa por errores, fallas o decisiones erróneas? El vacío de responsabilidad es una preocupación recurrente.
- Distinción, proporcionalidad y precaución: Bajo el Derecho Internacional Humanitario, los ataques deben distinguir entre combatientes y civiles, ser proporcionales y tomar precauciones. Cuando un algoritmo decide por sí mismo, surge la duda de si puede cumplir esos criterios con fiabilidad.
- Transparencia y fiabilidad algorítmica: Algoritmos complejos pueden ser opacos (“caja negra”), lo que dificulta auditorías posteriores. Sin transparencia, evaluar si una decisión fue legítima o errónea se complica.
- Deshumanización del conflicto: Si los sistemas matan sin intervención humana directa, podría reducirse el peso moral de la decisión de disparar. Algunos temen que esto banalice la guerra y favorezca su escalada.
- Carrera tecnológica y proliferación: A medida que más países desarrollen o adquieran estos sistemas, el riesgo de conflictos automatizados crece. Sin una regulación internacional, la carrera armamentista autónoma podría salirse de control.

¿Hacia una regulación global?
Expertos y organismos proponen que los Estados adopten normativas que garanticen un control humano significativo en uso de armas autónomas, así como mecanismos de supervisión, trazabilidad y rendición de cuentas.
Entre las propuestas están:
- Una convención internacional que prohíba armas con autonomía total para matar.
- Requisitos de certificación ética y legal para sistemas letales, antes de su despliegue.
- Auditorías independientes y transparencia en los algoritmos.
- Restricción del uso de drones autónomos solo en escenarios muy controlados con supervisión activa.
La discusión sobre drones armados y autónomos trasciende lo técnico: pone en juego valores esenciales como responsabilidad, dignidad humana y límites al poder bélico. Si bien la tecnología abre nuevas posibilidades estratégicas, su adopción sin normas estrictas podría acarrear consecuencias irreversibles. La comunidad internacional enfrenta un desafío urgente: diseñar marcos éticos, jurídicos y operacionales que equilibren innovación con humanidad.

Referencias
- Drones, IA y el nuevo escenario de guerra: un año de transformación tecnológica. (2025). A21. https://a21.com.mx/opinion/2025/01/09/drones-ia-y-el-nuevo-escenario-de-guerra-un-ano-de-transformacion-tecnologica
- Inteligencia artificial en la guerra: desafíos y preocupaciones. (2024). France 24. https://www.france24.com/es/programas/lo-m%C3%A1s-destacado-de-2024/20241219-inteligencia-artificial-en-la-guerra-desaf%C3%ADos-y-preocupaciones
- Organización de las Naciones Unidas. (2025). El uso de armas autónomas y los riesgos para los derechos humanos y la paz. https://news.un.org/es/story/2025/06/1539136

