Jorge Avila · 14 de abril de 2026
Por María José Velázquez Bañares*
Las tensiones geopolíticas se intensifican y los incentivos para el desarrollo de nuevas capacidades militares aumentan. Estados Unidos no parece tener intenciones de que esta dinámica cambie pronto. Al mismo tiempo, en los últimos meses han surgido declaraciones y propuestas que plantean una posible intervención en México para enfrentar la violencia, recordándonos que este eco de inestabilidad no está tan alejado de nosotros. En este contexto, no podemos ignorar un factor que ya está cambiando todo: las nuevas tecnologías, y en particular, la inteligencia artificial.
La inteligencia artificial ya se está utilizando en contextos de guerra: en la clasificación de objetivos, el rastreo de actividades sospechosas y el análisis de comportamiento del enemigo. Empresas como Anthropic ya han tenido que trazar límites explícitos al respecto, declarando públicamente que no permitirán que sus modelos tomen decisiones letales sin intervención humana. No porque la amenaza sea inminente, sino porque ya es lo suficientemente real como para requerir una posición.
Hace algunos años, pensar en una guerra entre robots sin humanos de por medio sonaba completamente descabellado. Hoy, la idea sigue sin ser inminente, pero ya no parece imposible. Hemos alcanzado niveles de automatización sin precedentes. Existen drones autónomos, sistemas de vigilancia automatizados y herramientas capaces de analizar grandes volúmenes de información en segundos. Sin embargo, la independencia total del factor humano todavía no se ve a la vuelta de la esquina. El costo de reemplazar completamente al ser humano sigue siendo demasiado alto, tanto en términos económicos como operativos.
Pero ese no es el escenario que más preocupa. El verdadero riesgo es el uso de la inteligencia artificial como una máquina de terror masivo. La IA es la herramienta perfecta para la creación rápida y eficiente de desinformación. Y, combinada con redes sociales, cualquier persona con acceso a internet puede generar caos en cuestión de minutos.Esto no es un escenario futurista. Ya está ocurriendo.
Durante el operativo para capturar a Nemesio Oseguera Cervantes, conocido como “El Mencho”, circularon múltiples contenidos generados con inteligencia artificial que sembraron miedo e incertidumbre sobre lo que estaba ocurriendo en el país. Videos falsos, imágenes manipuladas y audios generados comenzaron a difundirse rápidamente, alimentando la percepción de que la situación era más grave o más extendida de lo que realmente era.
El peligro surge cuando la desinformación se convierte en pánico y desorden social. Multitudes desorganizadas, saturación de servicios de emergencia, personas tomando decisiones con base en información falsa y exponiéndose a situaciones de riesgo. La inteligencia artificial no solo puede influir en la percepción de un conflicto, también puede alterar directamente el comportamiento social.
Además, surge un problema aún más complejo: si todo puede ser falso, ¿cómo sabemos qué es real? La inteligencia artificial también permite encubrir la violencia real. Actores responsables pueden argumentar que videos o imágenes son generados por IA para desacreditar evidencia legítima. Dada la escasez de métodos accesibles de verificación, esto deja a la sociedad en una posición de vulnerabilidad. Deepfakes, audios generados y noticias masivas no solo distorsionan la percepción de un conflicto: pueden deshumanizar grupos, justificar violencia y fracturar la cohesión social desde adentro. La inteligencia artificial no solo está transformando la guerra en el campo de batalla, sino que también está transformando la guerra en la información.
Sin embargo, seguimos sin reglas claras. Europa ha intentado responder con los instrumentos más ambiciosos que existen hoy: el AI Act, el Digital Services Act y el European Democracy Shield, creados para regular la inteligencia artificial y proteger procesos democráticos. Pero incluso allí, la presión de la industria ya está diluyendo las normas antes de que entren en vigor. Estados Unidos optó por el camino contrario: mínima regulación, con la apuesta de que el mercado se corrija solo. Y el resto del mundo, incluyendo México, observa sin un marco propio.
La guerra del futuro no será solo entre países o ejércitos. También será una guerra por la información, la percepción y el miedo. Y en esa guerra, la inteligencia artificial puede convertirse en una de las herramientas más poderosas y peligrosas.
Por eso, discutir la regulación del uso de la inteligencia artificial en contextos de guerra y desinformación no es una discusión tecnológica. Es una discusión de seguridad, estabilidad social y protección democrática.
México no es ajeno a esto. Ya vimos cómo la desinformación generada por IA puede encender el miedo en cuestión de horas. La pregunta que queda pendiente no es si esto volverá a ocurrir, sino si habremos construido, para entonces, alguna capacidad de respuesta: instituciones que detecten, ciudadanos que cuestionen, y reglas que protejan.
Esa conversación no puede seguir esperando.
*La autora es estudiante de la licenciatura en Ciencia de Datos en el Instituto Tecnológico Autónomo de México (ITAM) y colaboradora en el Seminario sobre Violencia y Paz de El Colegio de México.
Doy mi consentimiento a Animal Político para publicar mi texto en el blog.