Regina López Puerta · 18 de agosto de 2024
Esta nota podría no haber sido escrita por un humano. El uso de la Inteligencia Artificial (IA) se integra cada vez más a las redacciones y centros de noticias, ya no sólo como una herramienta para apoyar la investigación o corregir errores gramaticales, sino como generadora de contenido.
Y en ese proceso hay mejoras, aunque también dificultades y dudas. El New York Times inició una demanda en contra de Open AI en 2023 para defender sus derechos de autor, reclamando el uso indebido de sus materiales para entrenar a las IA. Aunque por otro lado ese mismo medio, el Washington Post incorporan esa tecnología en sus procesos de redacción y distribución de contenido.
La generación de contenidos con IA no sólo se ha limitado al periodismo, sino que también permea otros medios creativos como la escritura de ficción y las artes visuales como la pintura, fotografía y video.
Una parte significativa del contenido en la aplicación de inspiración visual, Pinterest, también está siendo creada con IA, y en redes como TikTok se han viralizado covers de canciones generados con estas tecnologías.
Pero si tenemos todas estas posibilidades, ¿quiere decir que dejaremos de ver contenido creado por humanos?
Instituciones ya tienen estudios sobre la interacción entre los periodistas y la Inteligencia Artificial. El proyecto de la London School of Economics (LSE), Journalism AI, analiza las preocupaciones asociadas con la Inteligencia Artificial generativa (Gen IA) pero también sus aspectos positivos y cómo está remodelando el periodismo.
En este proyecto, se encuestó a más de 105 medios provenientes de 46 países para entender sus prácticas en torno a la IA.
Dentro de los medios encuestados, el 80% admitió usar IA para facilitar la distribución de sus noticias. Utilizan las tecnologías para producir contenidos, elaborar resúmenes, titulares, storytelling o narrativas visuales y boletines informativos específicos, así como para evaluar distintas fuentes de datos.
El medio Newtral, parte de la Red Internacional de Fact-Checking (IFCN) como El Sabueso, utiliza una tecnología propia llamada ClaimCheck que desarrollaron y presentaron para el proyecto Journalism AI. Con esta herramienta, escuchan y transcriben contenidos para detectar declaraciones que suenan sospechosas, a fin de automatizar el proceso de identificación de frases para la verificación del discurso.
Por otro lado, Bloomberg y el Washington Post están dejando los contenidos breves para las IA y enfocando a sus periodistas en temas más complejos. Con BloombergGPT, un modelo lingüístico que está entrenado con datos financieros, resumen documentos y generan informes sobre las tendencias del mercado.
Heliograf del Washington Post crea artículos breves para temas financieros o resultados deportivos desde 2016, y tienen dos equipos, AI Taskforce y AI Hub, dedicados específicamente al desarrollo de distintas aplicaciones para la Gen IA dentro de su medio.
El Washington Post debutó a Heliograf para cubrir las olimpiadas de Río 2016, creando una cuenta de X, en ese entonces Twitter, para mostrar los resultados del medallero olímpico en cuestión de segundos. También utilizaron al bot para cubrir los resultados de las elecciones de ese año, teniendo información lista al instante sobre los resultados de 500 puestos de elección popular.
De acuerdo con el medio, el objetivo de estas tecnologías no es sustituír a los periodistas, sino generar eficiencia para dar información concisa al momento cuando se trata de temas breaking, y dejar que los periodistas se enfoquen en desarrollar piezas que necesitan un análisis más profundo.
En 2023, el medio The New York Times (NYT) presentó una demanda en contra de los creadores del programa de IA Chat GPT, Open AI, por usar miles de sus textos para entrenar a su modelo del lenguaje. En la demanda, piden a la empresa dejar de utilizar las piezas producidas por sus periodistas para entrenar a su modelo y argumentan que estas prácticas “están amenazando su sustento al robar efectivamente miles de millones de dólares en trabajo realizado por sus periodistas”.
Ian B. Crosby, uno de los abogados que están representando al NYT, explicó al medio AP que básicamente los bots están compitiendo contra el contenido que se ha usado para entrenarlos, por lo que la práctica afecta al periodismo. Hasta este momento se encuentran en pláticas para resolver el tema, el caso sigue abierto.
Y este medio no es el único que está demandando. Autores populares de novelas de ficción como George R. R. Martin, Jodi Picoult y John Grisham se han unido para presentar una demanda conjunta bajo los mismos argumentos que el NYT, considerando que entrenar a las inteligencias artificiales involucra el robo de su trabajo.
Como respuesta a estas demandas, Open AI se defendió diciendo que “entrenar modelos de IA usando materiales disponibles públicamente en internet es un uso legítimo, respaldado por precedentes de larga data y ampliamente aceptado”, y además aclararon que sería muy difícil que un modelo de lenguaje arroje como respuesta un texto copiado tal cual de algún medio o de alguno de los autores.
A pesar de las demandas, el NYT anunció en mayo de 2024 que ha comenzado a integrar la IA a su redacción, con un equipo pionero para desarrollar e implementar distintos usos de Inteligencia Artificial generativa (Gen IA) en su trabajo como apoyo a sus periodistas. Explican que están desarrollando distintos productos de IA para mejorar las experiencias de los lectores y para crear tácticas que faciliten el reporteo en cuanto a tiempos. Mientras que no han dado muchos detalles, aclararon que pequeños grupos de sus periodistas comenzarán a usar sus programas piloto, y poco a poco se irán poniendo a disposición del público.
El Sabueso habló con Lucas Ortiz, especialista en Sistemas Inteligentes, quien nos explicó un poco más sobre la Inteligencia Artificial generativa (Gen IA), que es como se le llama a los sistemas de inteligencia artificial capaces de generar texto.
“Las Gen IA no pueden hacer el trabajo solas, actualmente no pueden generar contenido por sí mismas, sino que las tienes que alimentar. Sin una instrucción clara, una inteligencia artificial no te va a dar lo que necesitas, y es ahí donde entra el aporte humano”.
Explica que es ahí donde sigue entrando la creatividad de los profesionales, a la hora de dar instrucciones y pedir al modelo de lenguaje que genere algo con las características deseadas. Además, los resultados también varían de acuerdo con las limitaciones que el creador le imponga a la hora de programar el modelo.
“Tenemos esta idea de que el IA funciona como magia, pero no es así. Una persona tiene que acotar al Gen IA hacia lo que quiere”, dijo el experto.
La diferencia se centra en un ejemplo sencillo: no es lo mismo pedirle a una inteligencia artificial, como Chat GPT, que escriba una “nota sobre la Inteligencia Artificial”, a pedirle que escriba una nota de mil 200 palabras con un “enfoque del uso de IA en generación y consumo de contenido noticioso, incluyendo ejemplos de cómo medios internacionales la usan y citando estudios de los últimos 5 años realizados por instituciones educativas como fuente”.
“El resultado va a depender de qué tan bien acotas ese input o que tan bien lo encaminas, y aún así, son propensas a cometer errores, así que ya que te da la información, la tienen que procesar, no es sólo copiar, pegar y compermiso”.
Explica que hay Gen IA buenos, pero si se van a utilizar en el periodismo, hay que revisar los productos y en casos corregirlos. Con el avance tecnológico en este momento, no se pueden deslindar por completo del trabajo humano pues podríamos contribuir con desinformación si publicamos contenidos que no han sido revisados.
En el tema de las preocupaciones, está la posibilidad de que la IA genere datos imprecisos y se le use para genera desinformación, siendo cada vez más complicado discernir qué es ‘humano’ y qué es inteligencia artificial.
El año pasado, una investigación del medio Futurism descubrió que la revista Sports Illustrated publicó varios artículos escritos por inteligencia artificial. Esto no sería un problema ya que, como mencionamos anteriormente, cada vez más medios están integrando estas prácticas, pero lo que generó reclamos es que atribuyeron esas piezas a periodistas falsos y les crearon perfiles de autor con imágenes generadas por IA.
El proyecto Journalism AI destaca que una de sus principales preocupaciones es justo el cómo impacta la desinformación indetectable para “exacerbar la discriminación y la inequidad social”. Esto es debido a que las tecnologías actuales se encuentran limitadas y por lo general no incluyen perspectivas de personas que tienden a ser marginadas, según encontró el estudio.
El Sabueso y el resto de los medios de verificación se enfrentan al reto de tratar de discernir qué puede ser IA y qué no. Por ejemplo el año pasado revisamos un audio que se atribuyó al jefe de gobierno de la Ciudad de México, Martí Batres. Aunque consultamos a dos especialistas y se utilizaron varias herramientas disponibles para detectar el uso de IA, las pruebas no fueron suficientes para asegurar con total certeza si el audio fue o no creado con inteligencia artificial.
En otros casos El Sabueso sí ha confirmado el uso de la IA para desinformar. Está el caso de imágenes de un supuesto arresto de Donald Trump. Otras imágenes que fueron creadas por inteligencia artificial se utilizaron para desinformar sobre una supuesta liberación de cocodrilos en el Río Bravo, para impedir el cruce de migrantes a EU.
El Papa Francisco ha sido en múltiples ocasiones el blanco de la generación de imágenes en IA, como estas en las que se le acusó de saludar a sacerdotes satánicos, de portar una chamarra de la marca Balenciaga, o una bandera del colectivo LGBT+.
Es un reto discernir qué es real y qué no lo es en la web, es importante fijarse en los detalles y el contexto, aquí te compartimos una guía de cómo detectar imágenes manipuladas.
Sí estamos viendo cómo aumenta el uso de la inteligencia artificial dentro de los medios y en otros ámbitos, pero por si te lo preguntabas: esta nota fue escrita al cien por ciento por una periodista humana.
Como experimento, le pedimos a ChatGPT 4 escribir sobre el mismo tema, con la instrucción: “Escribe una nota periodística enfocada en el uso de Inteligencia Artificial para generar y consumir contenido noticioso, incluyendo ejemplos de cómo medios internacionales la usan, explica sus desventajas y cita estudios de los últimos 5 años realizados por instituciones educativas como fuente”.
Aquí el resultado:
La Inteligencia Artificial (IA) ha transformado el periodismo en diversas áreas, desde la generación automática de contenido hasta la personalización de la experiencia del lector. Herramientas como Heliograf de The Washington Post y la tecnología de Automated Insights han permitido a los medios producir un gran volumen de artículos rápidamente. Esto ha liberado a los periodistas humanos para que se concentren en reportajes más profundos y analíticos. Sin embargo, este avance tecnológico también plantea inquietudes sobre la precisión, ética y el impacto potencial en el empleo dentro del sector.
A pesar de sus beneficios, la IA en el periodismo enfrenta desafíos importantes. Los algoritmos, aunque eficientes, pueden cometer errores y carecen del juicio humano necesario para el contexto social y cultural, crucial en la cobertura de temas delicados. La automatización podría reducir la necesidad de ciertos roles periodísticos, aunque también podría generar nuevos puestos, como especialistas en ética de IA. A nivel global, diversos medios están adoptando IA para optimizar sus procesos, como Bloomberg con su sistema Cyborg, MittMedia en Suecia, y el South China Morning Post en Hong Kong.
Investigaciones recientes han resaltado los beneficios y riesgos del uso de IA en el periodismo. Estudios de las universidades de Stanford, Oxford, y Harvard han señalado el sesgo algorítmico y la creación de burbujas de filtro como preocupaciones significativas. Estos problemas podrían limitar la diversidad de perspectivas y comprometer la ética periodística. También se plantea la necesidad de un marco regulatorio que asegure la transparencia y responsabilidad en el uso de algoritmos para decisiones editoriales.
A medida que la IA sigue evolucionando, su papel en el periodismo probablemente crecerá. Para integrar esta tecnología de manera ética y efectiva, los medios deben capacitar a sus periodistas, desarrollar marcos éticos robustos y garantizar la transparencia en el uso de algoritmos. Aunque la IA puede mejorar la eficiencia y personalización, es vital mantener el compromiso con la verdad y la responsabilidad social para no comprometer la confianza y credibilidad fundamentales del periodismo. Con un enfoque equilibrado, la IA tiene el potencial de enriquecer el periodismo, ampliando su alcance y calidad.