Guadalupe Fuentes · 9 de abril de 2026
Las etiquetas para los contenidos generados con inteligencia artificial se han convertido en una apuesta de las plataformas digitales para ofrecer transparencia sobre el origen de videos, fotografías y otras publicaciones que circulan en redes sociales.
Sin embargo, estas etiquetas no siempre son colocadas por los creadores ni detectadas de manera automática por las plataformas, lo que fomenta la desinformación.
Ejemplo de ello fue una imagen presentada por la presidenta Claudia Sheinbaum, en enero pasado, en la que supuestamente Ryan Wedding, exatleta olímpico acusado de tráfico de drogas por Estados Unidos, se encontraba afuera de la embajada estadounidense en Ciudad de México. Según la mandataria, esta prueba corroboraba que el ciudadano canadiense —objetivo prioritario del FBI— se entregó voluntariamente y su arresto no fue consecuencia de un operativo conjunto con agentes estadounidenses dentro de México, como se sugirió desde Washington.
No obstante, como te contamos en esta verificación, la imagen mencionada fue generada con inteligencia artificial.
Te puede interesar: Iniciativa de Ley General de feminicidio busca homologar investigaciones y aumentar penas, pero familiares de víctimas llaman a atender la impunidad
En 2024, la empresa Meta anunció la implementación de etiquetas específicas para identificar contenidos fotorrealistas generados con inteligencia artificial. Según la compañía, estas etiquetas se mostrarán cuando se detecten señales estándar de IA en una imagen o cuando un usuario declare que el contenido fue creado con herramientas de inteligencia artificial al momento de publicarlo.
Dichas etiquetas no solo dependen de la detección automática, sino también permite que las personas que publican contenido generado o alterado con IA marquen voluntariamente esa condición al subirlo, lo que activa una etiqueta visible para las personas que lo vean. Esto busca evitar confusiones sobre si un contenido presenta hechos reales o si ha sido fabricado digitalmente.
La plataforma ha anunciado que trabajará con estándares técnicos compartidos en la industria para mejorar la fiabilidad de estas etiquetas y expandirlas también a contenido de video o audio generado con IA, aunque reconoce que estas tecnologías todavía enfrentan retos técnicos y no siempre pueden identificar automáticamente todos los casos.
Al ser cuestionada sobre la autenticidad de la imagen referida líneas arriba, la presidenta Sheinbaum sostuvo que todas las plataformas de redes sociales tienen políticas que exigen que se indique cuando una publicación fue creada con inteligencia artificial y que esa señalización debe consistir en marcas visibles, aunque en el caso de la fotografía mencionada, no existía ningún indicativo de este tipo.
“Primero, toda red social tiene una política que cuando hay una fotografía o alguna información de inteligencia artificial, un video, tiene que tener las letras IA o AI, dependiendo si es en inglés o en español. En este caso no tiene ningún indicativo de que sea inteligencia artificial”, aseguró.
Sigue leyendo: SRE niega participación del Estado en desapariciones forzadas, pero hay evidencia oficial que documenta casos
Facebook, Instagram y Threads (propiedad de Meta) ya comenzaron a desarrollar mecanismos formales para etiquetar contenidos generados o alterados por IA, como imágenes, videos y audios con el fin de ofrecer mayor transparencia a los usuarios sobre el origen del contenido que consumen.
A las etiquetas se han sumado las llamadas “notas de la comunidad”, que consisten en aclaraciones escritas por los usuarios añadidas debajo de las publicaciones para advertir que estas pueden ser falsas o sacadas de contexto.
Como te contamos en este Te Explico, el alcance de esta herramienta es limitado, pues de acuerdo con un análisis del Consejo Asesor de Meta, factores como retrasos en su publicación, el bajo número de notas visibles y su dependencia del consenso entre usuarios dificultan que respondan a la velocidad con la que se viraliza la desinformación.
Por otra parte, Angie Drobnic Holan, directora de la Red Internacional de Datos (IFCN, por sus siglas en inglés), ha advertido que este sistema puede ser susceptible de manipulación, especialmente en contextos polarizados. Al depender de la participación de usuarios —y no de procesos profesionales de verificación—, las notas pueden reflejar dinámicas de poder dentro de las comunidades digitales o incluso reforzar narrativas dominantes, en lugar de corregirlas.
Cabe mencionar que sí hay ocasiones en las que dichas notas de la comunidad han funcionado para desmentir desinformación. Ejemplo de ello fue cuando el 18 de marzo pasado comenzó a circular en redes sociales un video en el que se observaba a una mujer tomando el sol en una de las ventanas de Palacio Nacional. La cuenta Infodemia Mx, una iniciativa del Sistema Público de Radiodifusión del Estado Mexicano, aseguró que se trataba de un contenido generado con inteligencia artificial; pero los usuarios aseguraron que no era IA, y a la postre resultó que tenían razón.
El 30 de marzo, la presidenta Sheinbaum confirmó, durante su conferencia matutina, que el video era real y explicó que la mujer que aparece en las imágenes era una funcionaria pública que posteriormente fue sancionada. Tras ello, Infodemia reconoció el error y ofreció una disculpa pública por haber difundido información incorrecta.
El alcance de este problema va más allá de la desinformación. El desarrollo de herramientas de inteligencia artificial ha facilitado la creación de los llamados deepfakes, es decir, videos, audios o imágenes manipulados para hacer que una persona parezca decir o hacer algo que nunca ocurrió. Estos contenidos pueden ser altamente realistas y difíciles de detectar. Una variante son los deepnudes, imágenes alteradas para simular desnudos sin consentimiento.
Organizaciones como Reporteros Sin Fronteras han advertido que estas tecnologías representan una amenaza creciente, particularmente para periodistas y figuras públicas. En México, además, su uso ha comenzado a vincularse con la violencia política en razón de género, donde este tipo de contenidos puede emplearse para desacreditar a mujeres en el espacio público o vulnerar su intimidad.
En ese contexto, el 11 de marzo de 2026 el gobierno mexicano presentó un acuerdo con empresas como Meta Platforms, Google y TikTok para atender la violencia digital, con énfasis en lo que afecta a mujeres en la política. El convenio, dado a conocer junto con autoridades electorales, contempla acciones como fortalecer los mecanismos de denuncia, agilizar la eliminación de contenido dañino y promover herramientas para identificar materiales manipulados, incluidos aquellos generados con inteligencia artificial.
No obstante, especialistas han advertido que estos compromisos son en gran medida voluntarios y dependen de la implementación de las propias plataformas, lo que limita su alcance frente a un problema que evoluciona rápidamente.
Así, aunque las etiquetas de “creado con IA” pueden ofrecer pistas sobre el origen de un contenido, no son una solución definitiva. Dependen de sistemas técnicos imperfectos, de criterios poco claros y de decisiones que no siempre son transparentes. En un entorno donde la inteligencia artificial permite producir contenidos cada vez más convincentes, distinguir entre lo real y lo manipulado sigue siendo una tarea que no puede delegarse únicamente a una advertencia visible en pantalla.