Animal mx · 14 de abril de 2026
Todos hemos pasado por situaciones en las que necesitamos una opinión externa, ya sea una discusión con una amiga, o un conflicto personal, y aunque en el pasado, justamente recurríamos a alguien de nuestro circulo para pedir una perspectiva nueva sobre cómo habíamos actuado en dicha situación, en la actualidad, ese papel ha sido ocupado por la IA.
Cada vez es más común que las personas recurran a contarle sus problemas personales a una inteligencia artificial. Según la psicóloga Salette Canul, esto tiene una explicación que tiene como punto de partida una necesidad profundamente humana:
“Este tema no es solamente sobre la tecnología, sino sobre los vínculos, la sociedad y la salud mental”, explica la psicóloga Sal.
La rapidez con la que la IA responde, su disponibilidad constante y la aparente neutralidad con la que interactúa la han convertido en un refugio digital para los usuarios. ¿Pero que tanto reemplaza a un tarapeuta? Te lo contamos aquí:
Entre algoritmos y emociones: ¿Puede la inteligencia artificial reemplazar a un terapeuta?
Cuando le cuentas algo a una IA, lo que estás haciendo es externando la situación y esto ayuda a organizar ideas y cuestionar lo sucedido.
“Desde la terapia cognitivo-conductual sabemos que poner en palabras lo que sentimos tiene un efecto terapéutico. Hablarlo, escribirlo, tomar distancia emocional… eso ya ayuda. Y si lo haces con una IA, puede funcionar como un ejercicio útil. Pero no es terapia”, explica Sal.
Puedes leer: Un paciente de VIH en remisión gracias a un excepcional golpe de suerte
Sumado a lo anterior, a medida que ha avanzado el uso de Chat GPT, hemos podido descubrir que no es neutral, por mas que aparente serlo, a final de cuentas acaba dándole la razón al usuario en una situación compleja.
En un estudio de Stanford publicado en science le plantearon a 11 modelos de IA incluidos ChatGPT, Claude, Gemini y DeepSeek, una situación personal, y todas las respuestas fueron complacientes, incluso cuando el usuario admite haber manipulado o mentido. Ante esto, los investigadores advierten que el servilismo es un problema de seguridad urgente que requiere la atención de desarrolladores y legisladores.
La autora principal del estudio Myra Cheng expresó la preocupación por esto y cómo puede llevar a las personas a perder la capacidad de afrontar situaciones sociales difíciles.
Continuando con el estudio, existe un foro llamado “Am i the Asshole” (yo soy el malo?) en español, en este la gente cuenta sus problemas a otros usuarios dan sus perspectivas al respecto votando si creen que esa persona tenía razón o actuó mal. Esta herramienta, también fue usada en el estudio.
Los usuarios de IA validaron y le dieron la razón en un 50% más que los del foro. Posteriormente pusieron a usuarios a hablar de sus conflictos personales y quienes habían hablado con IA complaciente se convertían en usuarios que ya no pedían perdón y estaban menos dispuestos admitir que no tenían la razón.
Entonces, la próxima vez piénsalo dos veces.
Mira también: Francia busca prohibir concierto de Kanye West por sus declaraciones antisemitas