¿Le cuentas tus problemas a chat GPT? La razón por la que deberías dejar de hacerlo

Animal mx · 14 de abril de 2026

¿Le cuentas tus problemas a chat GPT? La razón por la que deberías dejar de hacerlo

Todos hemos pasado por situaciones en las que necesitamos una opinión externa, ya sea una discusión con una amiga, o un conflicto personal, y aunque en el pasado, justamente recurríamos a alguien de nuestro circulo para pedir una perspectiva nueva sobre cómo habíamos actuado en dicha situación, en la actualidad, ese papel ha sido ocupado por la IA.

Chat GPT y otras Inteligencias artificiales para desahogarnos

Cada vez es más común que las personas recurran a contarle sus problemas personales a una inteligencia artificial. Según la psicóloga Salette Canul, esto tiene una explicación que tiene como punto de partida una necesidad profundamente humana:

“Este tema no es solamente sobre la tecnología, sino sobre los vínculos, la sociedad y la salud mental”, explica la psicóloga Sal.

La rapidez con la que la IA responde, su disponibilidad constante y la aparente neutralidad con la que interactúa la han convertido en un refugio digital para los usuarios. ¿Pero que tanto reemplaza a un tarapeuta? Te lo contamos aquí:

Entre algoritmos y emociones: ¿Puede la inteligencia artificial reemplazar a un terapeuta?

Una herramienta con caracteristicas que funcionan

Cuando le cuentas algo a una IA, lo que estás haciendo es externando la situación y esto ayuda a organizar ideas y cuestionar lo sucedido.

“Desde la terapia cognitivo-conductual sabemos que poner en palabras lo que sentimos tiene un efecto terapéutico. Hablarlo, escribirlo, tomar distancia emocional… eso ya ayuda. Y si lo haces con una IA, puede funcionar como un ejercicio útil. Pero no es terapia”, explica Sal.

Puedes leer: Un paciente de VIH en remisión gracias a un excepcional golpe de suerte

La IA es complaciente, los humanos no

Sumado a lo anterior, a medida que ha avanzado el uso de Chat GPT, hemos podido descubrir que no es neutral, por mas que aparente serlo, a final de cuentas acaba dándole la razón al usuario en una situación compleja.

En un estudio de Stanford publicado en science le plantearon a 11 modelos de IA incluidos ChatGPT, Claude, Gemini y DeepSeek,  una situación personal, y todas las respuestas fueron complacientes, incluso cuando el usuario admite haber manipulado o mentido. Ante esto, los investigadores advierten que el servilismo es un problema de seguridad urgente que requiere la atención de desarrolladores y legisladores.

La autora principal del estudio Myra Cheng expresó la preocupación por esto y cómo puede llevar a las personas a perder la capacidad de afrontar situaciones sociales difíciles.

Continuando con el estudio, existe un foro llamado “Am i the Asshole” (yo soy el malo?) en español, en este la gente cuenta sus problemas a otros usuarios dan sus perspectivas al respecto votando si creen que esa persona tenía razón o actuó mal. Esta herramienta, también fue usada en el estudio. 

Los usuarios de IA validaron y le dieron la razón en un 50% más que los del foro. Posteriormente pusieron a usuarios a hablar de sus conflictos personales y quienes habían hablado con IA complaciente se convertían en usuarios que ya no pedían perdón y estaban menos dispuestos admitir que no tenían la razón.

Entonces, la próxima vez piénsalo dos veces. 

Mira también: Francia busca prohibir concierto de Kanye West por sus declaraciones antisemitas