Grok difundió desinformación sobre el ataque a una escuela iraní: las imágenes de EFE sí son reales

Daniel Medrano · 3 de marzo de 2026

Grok difundió desinformación sobre el ataque a una escuela iraní: las imágenes de EFE sí son reales

Grok, la inteligencia artificial de X, antes Twitter, difundió desinformación al acusar a medios de comunicación como la agencia EFE de compartir información falsa sobre el bombardeo contra una escuela en Minab, Irán. Sin embargo, análisis de El Sabueso y otros verificadores como Maldita.es, EFE Verifica y Verificat muestran que la imagen difundida por la agencia de noticias sí muestra un bombardeo a la escuela iraní, el pasado 28 de febrero.

Luego de que ocurrieron los primeros bombardeos en contra de Irán, medios de comunicación como EFE y El País compartieron en redes sociales imágenes de los estragos que dejó un ataque a una escuela primaria para niñas, el cual dejó como saldo el fallecimiento de más de cien estudiantes.

Un análisis georreferencial realizado por El Sabueso confirma que la foto publicada por EFE corresponde a la escuela afectada en Minab. Además, videos publicados por periodistas locales y la agencia Mehr confirman que las fotos difundidas corresponden al ataque contra esta escuela el 28 de febrero.

Fuente: Captura de pantalla video de la agencia Mehr.
Fuente: Captura de pantalla video de la agencia Mehr.

Usuarios en X cuestionaron la veracidad de las imágenes y videos que se compartieron sobre los ataques al país de Medio Oriente; no obstante, cuando los usuarios preguntaban “¿Grok, esto es real?”, sobre la secuencia compartida por EFE, el modelo de IA mintió al asegurar que los clips eran de un ataque en un centro escolar de Kabul en mayo de 2021.

Grok impulsa la desinformación en los ataques en Irán

Después de que Grok calificó las imágenes compartidas por EFE como falsas, el medio de comunicación respondió y aclaró que “no es cierto que las imágenes de un edificio en ruinas tras un bombardeo fueron grabadas en Kabul, Afganistán, en 2021, como sentenciaron varios usuarios tomando como referencia la consulta realizada a Grok.

Entre las fotografías que difundió EFE y medios como El País y RTVE, se puede observar una infraestructura con muchos daños en su estructura y de la que emana humo, mientras varias personas caminan frente a la fachada del lugar en medio de escombros esparcidos por todo el suelo. 

Por su parte, El Sabueso llevó a cabo una búsqueda inversa en Google Lens con la fotografía que compartió EFE y los resultados nos llevaron a las notas y publicaciones en redes sociales hechas por la propia agencia de noticias y otros medios de comunicación que difundieron el material como parte de los ataques de Israel y Estados Unidos en contra de Irán que comenzaron el sábado 28 de febrero.

Por otro lado, no encontramos registros, comunicados, notas de prensa ni publicaciones en redes sociales que indiquen que la fotografía se hubiera difundido con anterioridad para ilustrar algún evento pasado, como señala Grok.

Incluso, realizamos una búsqueda en Google con las palabras clave “atentado en escuela”, “Kabul”, “Afganistán” y “2021”, pero ninguno de los resultados, imágenes y videos fechados en ese año eran los que compartieron los medios de comunicación como parte de las agresiones contra Irán.

Además, las imágenes del atentado en Kabul no coinciden con la fachada de la escuela bombardeada en Irán. El edificio en Kabul tenía una fachada de color naranja, tenía un solo piso y en el suelo se observa una zanja. Estos elementos son diferentes del escenario captado en Minab. 

Fuente: Captura de pantalla ataque en Kabul en 2021.
Fuente: Captura de pantalla ataque en Kabul en 2021.

Como parte de su proceso de verificación, la agencia EFE realizó una geolocalización del material gráfico, con lo que confirmó que las imágenes sí corresponden al ataque en Irán y no a un atentado yihadista en Kabul en 2021.

Detalles como la estructura de la construcción de la escuela, algunos árboles que se observan en la captura y la distribución del espacio fueron algunos de los elementos que la agencia compartió para argumentar su verificación.

Fuente: Captura de pantalla de Google Maps e imagen de la agencia EFE.
Fuente: Captura de pantalla de Google Maps e imagen de la agencia EFE.

Además, la Agencia AFP también compartió imágenes del mismo lugar el 28 de febrero como parte de los ataques en contra de Irán, aunque desde diferentes ángulos.

“Esta captura de imagen, tomada de la televisión estatal iraní y transmitida el 28 de febrero de 2026, muestra lo que se describe como el lugar de los mortíferos ataques estadounidenses e israelíes contra una escuela primaria femenina en Minab, en la provincia de Hormozgán, al sur de Irán”, es como AFP difundió las imágenes que agregó a su archivo.

Grok difunde desinformación de forma sistemática en un intento de ser un “verificador”

En varios momentos Grok ha compartido información o hecho declaraciones con desinformación. Uno de los casos más populares fue durante las protestas en Estados Unidos en contra de las redadas contra migrantes. Usuarios utilizaron al modelo de IA para “verificar” fotos de la Guardia Nacional durmiendo en el suelo, a lo que Grok señaló que las imágenes pertenecían a hechos antiguos en Afganistán; sin embargo, medios de comunicación y verificadores desmintieron los dichos y comprobaron que eran imágenes reales.

Al respecto, Ernesto Villegas, ingeniero en sistemas computacionales con una especialidad en Inteligencia Artificial Aplicada, explica a El Sabueso que no existe una garantía de veracidad en las afirmaciones que realiza Grok, los modelos de lenguaje son probabilísticos, es decir, generan textos coherentes, con buena expresión, pero eso no significa que todo lo que comparte sea fidedigno.

“Lo que hay que entender es que los modelos de inteligencia artificial no son buscadores de información, son generadores de contenido con base en patrones estadísticos, a partir de secuencias de palabras, por lo que es fundamental confirmar la información que comparten con fuentes confiables y que brinden información certera”, asegura el especialista.

Otro caso en el que también generó desinformación Grok fue tras el tiroteo masivo en Bondi Beach, en Australia, en diciembre de 2025, en donde este modelo de IA dio información incorrecta o atribuyó acciones a personas equivocadas, incluso describió videos reales como si fueran de otro contexto.

De acuerdo con el Laboratorio de Investigación Forense Digital (DFRLab), organización especializada en el combate a la desinformación, Grok dio respuestas inexactas y contradictorias a usuarios que le pidieron verificar eventos durante la guerra entre Israel e Irán en 2025.  

Ernesto Villegas señala que los chatbots de inteligencia artificial tienen como objetivo generar un texto convincente y con buena estructura. Que sea verdadero o falso lo que comparten no es relevante para estos.

“Estas herramientas no saben contrastar hechos en tiempo real ni entienden de procesos de verificación, no entienden lo que aseguran”, concluye Villegas.