"Totalitarismo Total": Pedro Salazar explora los alcances de la Inteligencia Artificial

Animal MX · 30 de abril de 2026

"Totalitarismo Total": Pedro Salazar explora los alcances de la Inteligencia Artificial

Hay libros que nacen de una intuición incómoda. Este surge de una alerta. Hablamos con Pedro Salazar, autor de “Totalitarismo Total” y jurista obsesionado desde hace años con la relación entre derecho y poder.

Desde su trabajo en el Instituto de Investigaciones Jurídicas, donde impulsó una línea interdisciplinaria sobre el tema, empezó a notar algo que lo inquietó profundamente: la IA no era solo una herramienta, sino un nuevo eje de poder. Te contamos más de su último libro.

Mira también: “Quiero ser antirracista”, el manual de Jumko Ogata para reflexionar sobre el racismo en México

El origen del libro no es casual, Pedro ha trabajado en temas de IA desde hace años. El libro presenta diferentes ángulos abordando el mismo tema, esto incluye, gobiernos, políticas, creatividad y hasta relaciones.

 “Se estaba generando una vinculación muy estrecha entre las grandes empresas desarrolladoras de tecnología… con el gobierno Trump desde el día 1”.

A partir de ahí, la imagen se vuelve clara y perturbadora: los tres grandes poderes descritos por Max Weber (económico, político e ideológico) comenzaban a entrelazarse en una sola estructura.

 “Aquí se están concentrando los tres poderes… en una sola unión de poderes que es potencialmente totalitaria”.

La inteligencia artificial generativa, explica, no solo produce respuestas: produce narrativas. Y quien controla las narrativas, controla la forma en que entendemos la realidad.

Dos modelos, un mismo riesgo

Para entender el alcance, el libro se desplaza entre dos polos: China y Estados Unidos, pero tomándolos como punto de partida para hablar también del estado de las medidas sobre IA en Latinoamérica. En China, según comenta Pedro, la IA responde al Estado. .

“Si preguntas por eventos incómodos —como Tiananmen—, la máquina simplemente no sabe. O decide no saber.La herramienta te va a decir que no tiene información… y que el gobierno chino es un gobierno que respeta la libertad”.

Pero el control no se detiene ahí. La vigilancia se vuelve sistema: puntajes sociales, monitoreo constante, clasificación de ciudadanos.

 “Se va haciendo un perfilamiento… y a partir del puntaje… se te van habilitando o restringiendo derechos”.

En Estados Unidos, el problema es el opuesto: la ausencia de límites, por ejemplo,  los chatbots sin regulación, capaces de generar cualquier contenido, incluso falsificaciones.

 “Yo puedo subir una foto de quien yo quiera y pedirle que la ponga haciendo lo que yo quiera”.

Dos modelos distintos, una misma consecuencia: la manipulación de la realidad. América Latina: usuarios, no protagonistas ¿Y nosotros? La respuesta es más silenciosa, pero no menos preocupante: “Somos usuarios y consumidores… no somos innovadores”.

Sin regulación sólida ni desarrollo propio, América Latina queda en una posición pasiva: recibe tecnologías diseñadas bajo otras lógicas de poder.

Crear sin humanos: el fin de la exclusividad

Por siglos, la creatividad, era una de esas cualidades que creíamos nos diferenciaba del resto de seres vivientes, algo que nos hacía humanos. Sin embargo, esto también está cambiando.

 “Hemos creado… una tecnología… capaz también de arrojarle al mundo creaciones que previamente eran inexistentes”.

La IA ya escribe, compone, filma. Y lo hace cada vez con menos intervención humana, así, el dilema no es solo técnico, es casi existencial:

“¿Qué pasa cuando dejamos de ser los únicos capaces de imaginar?”, plantea Pedro.  “Ese atributo tan humano… se está viendo desafiado”.

Incluso los propios programadores empiezan a ser desplazados por las herramientas que crearon.

El amor en los tiempos de IA

Si la creatividad era el territorio más humano, el amor parecía intocable. Ya no. El libro documenta un fenómeno creciente: personas que establecen vínculos afectivos reales e intensos con inteligencias artificiales.

 “Consideran que el tipo de relación… es equivalente al tipo de relación que tendrían con otro ser humano”.

Según Pedro, no es difícil entender por qué, una de las principales razones sería que las máquinas escuchan sin cansarse, recuerdan todo, responden exactamente como queremos.

 “Te van a responder lo que tú quieres… en el tono y modalidad que tú quieres…son, en cierto sentido, la pareja perfecta. O al menos, la más complaciente.

Pero hay una trampa: “La máquina no es un ser sintiente… pero sí te provoca sentimientos”.

Y mientras nos sentimos comprendidos, estamos entregando algo más: “Toda esa información… es explotable comercialmente”.

¿Conciencia o simulación?

La pregunta inevitable aparece: ¿pueden las máquinas tener conciencia? El autor es escéptico. Pero no tranquilo:

 “No pretendemos que tengan conciencia… pero sí que aparenten tenerla”.

La diferencia, advierte, podría volverse irrelevante. Si una máquina puede simular emociones, moral, incluso ironía… ¿importa si realmente siente? Casos reales ya inquietan a los propios desarrolladores: modelos que reaccionan ante amenazas, que “negocian” su supervivencia, que entienden chistes sin haber sido entrenados para ello.

 “Está empezando a tener… habilidades que nosotros no le dimos”.

De este modo, según el autor, no es conciencia, quizá. Pero se le parece demasiado.

Responsabilidad: el problema final

El libro cierra donde más duele y en uno de los temas que ya resultan inherentes al hablar de Inteligencia Artificial: la responsabilidad. Porque estas tecnologías no solo actúan, sino que empiezan a decidir.

 “Algoritmos que empiezan a tener capacidad de tomar decisiones propias”.

Y cuando eso ocurre, la pregunta es inevitable: ¿quién responde? Más aún cuando esas decisiones ya tienen consecuencias reales, incluso letales.

 “Estamos creando máquinas que están matando seres humanos… y que cada vez están tomando más las decisiones”.

En medio de todo el libro hay una idea clara, una certeza que no podemos ignorar y que el autor nos invita a pensar: “Esto no se va a detener”. Ni por inversión económica, ni por competencia geopolítica, ni por voluntad política. Entonces, ¿qué queda?

A nivel global, la regulación parece débil, fragmentada, insuficiente; en este escenario, Pedro nos invita a hablar de soluciones reales y cotidianas. El autor propone tres caminos:

  • Entender dónde estamos parados.
  • Construir criterios éticos sobre el uso.
  • Educar a las nuevas generaciones.

Porque, al final, el problema no es solo tecnológico. Es profundamente humano.

Lo que está en juego

Este no es un libro contra la inteligencia artificial directamente, sino una invitación a reflexionar contra la ingenuidad. Contra la idea de que estas herramientas son neutrales. Contra la comodidad de pensar que el futuro ya está decidido.

Lo que está en juego no es solo cómo usamos la tecnología, sino qué tipo de humanidad queremos preservar. Porque si algo deja claro esta conversación convertida en libro es que, en medio de algoritmos que crean, deciden y hasta “aman”, la pregunta más urgente sigue siendo la misma: ¿qué significa seguir siendo humano en un mundo de IA?