Tendencias
9 de Mayo de 2025Los riesgos de usar ChatGPT como psicólogo: la tendencia que se viraliza entre influencers y redes sociales
Son variadas las personas que han confesado que usan Chat GPT, o entrenan alguna inteligencia artificial, para usarlo como terapia de salud mental. Comportamiento que ha dado pie a un debate con respecto a sus consecuencias. El psicólogo Esteban Radiszcz recalca que "la inteligencia artificial es incapaz de producir, actualmente al menos, razonamientos contrafactuales o explicaciones singulares de tipo crítico".
Compartir
Son un mar de usuarios de redes sociales que, durante el último tiempo, han confesado que usan ChatGPT como un reemplazo de un psicólogo. Algunos se escudan en los altos valores que tienen las terapias de salud mental. Mientras que otros aseguran que se sienten más en confianza y menos juzgados usando un chatbot de Inteligencia Artificial.
Hace menos de un mes, el influencer argentino Tomás Mazza contó que usa ChatGPT como terapeuta. Durante una entrevista explicó que “a veces cuando no puedo dormir, lo que hago es que le mando un audio a ChatGPT para desahogarme todo lo que tengo en mí cabeza y ahí me acuesto y me duermo. Chat GPT me ayudó muchísimo (…) No es una persona, no es alguien que te quiera atrapar para que sigas haciendo sesiones, como un psicólogo o un psiquiatra”.
“Te escucha y está muy bueno ChatGPT. A mí me ayudó mucho”, afirmó. Además detalló que decidió llamar al chatbot como “Luz”, a quien educó. “Aprende todo. Yo le digo como me siento y me dice ‘capaz que te estás sintiendo así por esto que te pasó con esta persona’. Es increíble”.
Pero ¿cuál es la opinión de los profesionales de la salud mental ante esta forma de usar la Inteligencia Artificial?
“Lo que va a responder ChatGPT son cuestiones generales”
El psicólogo clínico y académico del Departamento de Psicología de la Universidad de Chile, Esteban Radiszcz, señaló a The Clinic que “evidentemente consultar a ChatGPT no es lo mismo que una psicoterapia. Ni la reemplaza, porque no tienen la misma manera de operar. O sea, ChatGPT primero responde ante ciertas interrogantes y las psicoterapias no son necesariamente respuestas cerradas a ciertas interrogantes”.
“La psicoterapia involucra la producción de un saber, de saberes singulares. De donde surgen soluciones singulares, de saberes que surgen de historias que son siempre singulares, y de recursos y dificultades singulares. Lo que va a responder ChatGPT son cuestiones generales, obtenidas en función de respuestas probabilísticamente más oportunas o menos oportunas y, por lo tanto, hablan de algo en general y no de algo en particular. A lo sumo, ChatGPT responderá cuestiones para ciertos grupos determinados, con ciertas características determinadas, pero jamás va a producir un saber singular”, acota.
En ese sentido, recalca que “la crítica de Chomsky, y de muchos a la inteligencia artificial, muestra que la inteligencia artificial es incapaz de producir, actualmente al menos, razonamientos contrafactuales o explicaciones singulares de tipo crítico. En ese sentido, es inconmensurable lo que se puede lograr preguntando a ChatGPT, con lo que se puede lograr en una psicoterapia. Una cosa no tiene nada que ver con la otra”.
El académico añade que “si consultar a ChatGPT es una buena opción, yo volvería a la pregunta. Me gustaría saber qué es lo que están buscando cuando consultan con ChatGPT. Porque me hace pensar en el lugar que en algún momento tuvo el oráculo en la cultura occidental, particularmente entre los griegos. Y, como sabemos, lo que responde el oráculo, si es que se lo toma como conocimiento general, es que jamás sirve para nada. Por lo menos eso es lo que nos demuestra la historia de Edipo“.
“En la medida en que se lo tome como conocimiento general y no como algo singular, entonces nos desvía del asunto que nos concierne. Yo creo que una consulta oracular a ChatGPT a alguien podría llegar a servirle siempre y cuando eso sea interpretado por la persona en términos singulares. Ahora, para esa interpretación singular de las cosas, muchas veces se necesita un otro, una ayuda, otro que esté allí sosteniendo, un trabajo de producción de saber singular de cada quien sobre sí mismo y sobre lo que le acontece y sobre lo que le aconteció en su vida”, expresó el académico.
“No se trata de demonizar”
Con respecto a posibles consecuencias negativas al preferir ChatGPT a un profesional de salud mental, Radiszcz enfatiza al decir que “no se logra lo mismo. Tarde o temprano cae el cántaro al agua. Aquel que va a requerir esa psicoterapia terminará yendo a psicoterapia y no hay reemplazo de lo uno a lo otro. Ahora, tampoco hay una enemistad o creo que sea justo oponer la psicoterapia a ChatGPT, como si ChatGPT pudiese realmente reemplazarla. Eso sería no entender bien de qué se tratan las psicoterapias o qué ocurre en una psicoterapia, creyendo que en una interacción con una máquina que hace una generación de elementos en función de aciertos estadísticamente más probable que otros, se vaya a resolver algo”.
“No se trata de demonizar a ChatGPT y enumerar características negativas. El lugar que ocupe ChatGPT dependerá de nuestra sociedad, de nosotros mismos, lo mismo que para la psicoterapia. Lo interesante es comprender esos lugares, diferentes para uno y otro, más que oponerlos como lo bueno o lo malo de uno y otro”, indicó.
“La IA no puede reemplazar un psicólogo humano”
Quien ve con buenos ojos este tipo de uso que se le da a la inteligencia artificial es el académico e investigador de la Escuela de Ingeniería de la Universidad Mayor, Anthony D. Cho, quien postula que puede ser útil si se necesita un apoyo rápido o si la persona se siente incómodo al hablar con un terapeuta por primera vez.
En ese sentido, indica que “la IA puede ofrecerte herramientas básicas, como ejercicios para reducir el estrés o consejos para lidiar con emociones cotidianas. Además, puede ser accesible las 24 horas del día, lo cual puede ser un alivio cuando no cuentas con una consulta inmediata a una profesional. Sin embargo, es importante recordar que la IA no puede reemplazar a un psicólogo humano. Los psicólogos son profesionales entrenados para entender a fondo las emociones, comportamientos y pensamientos de una persona, y ofrecer un tratamiento personalizado y más adecuado basado en años de experiencias. La IA, aunque es muy útil, no tiene esa capacidad de conexión humana ni puede adaptar su enfoque a las necesidades emocionales y contextuales de cada individuo, no por lo menos a corto plazo”.
Con respecto a las consecuencias de consultar a la IA, Cho señala que depender de ella “para tratar cuestiones serias, relacionadas al área de salud mental, podría tener varios riesgos. Uno de los problemas principales es que la IA no está preparada para manejar emergencias, como pensamientos suicidas o crisis emocionales graves. Si alguien se encuentra en una situación de alto riesgo, la IA no podrá intervenir de manera adecuada ni ofrecer el apoyo necesario. Otro riesgo es que las personas podrían sentirse demasiado cómodas con la IA y creer que es suficiente para lidiar con problemas importantes. Lo que podría llevarlas a evitar buscar ayuda profesional cuando realmente la necesitan. La falta de una interacción real y profunda con un ser humano puede hacer que no se detecten aspectos importantes del bienestar emocional de una persona. Esto podría retrasar o complicar el tratamiento adecuado”.
Los usos para la IA: “No como un sustituto de terapia”
El académico de la Universidad Mayor reporta que “la IA puede ser usada principalmente cuando se trata de apoyo emocional básico y educación sobre salud mental. Por ejemplo, puede ayudar en ofrecer técnicas de relajación como respiración profunda o meditación. O incluso ofrecerle una lista de posibilidades para mejorar su bienestar emocional. También es útil si necesitas información sobre algún tema de psicología o si simplemente deseas reflexionar sobre tus pensamientos y emociones en un espacio seguro y anónimo”.
“Es crucial y darle mucho énfasis que se use como complemento, no como un sustituto de la terapia. En situaciones cotidianas de estrés o ansiedad leve, la IA puede ser un buen primer paso. Pero si los problemas persisten o se vuelven más graves, lo mejor es acudir a un psicólogo o terapeuta que pueda ofrecer una atención más profunda y personalizada”, advierte.
Asimismo, contó que “es posible entrenar a una IA utilizando un enorme conjunto de datos de información sobre psicología. Lo que le permite ofrecer respuestas basadas en teorías, enfoques terapéuticos y consejos prácticos. Este tipo de IA puede ofrecerle información sobre trastornos psicológicos comunes, técnicas de afrontamiento y sugerencias de actividades para mejorar su salud mental. Sin embargo, hay importantes limitaciones“.
“Aunque la IA puede dar consejos basados en datos, no tiene la capacidad de comprender la emoción humana en su totalidad. Ni de construir una relación terapéutica genuina y personalizada. Los psicólogos humanos tienen la capacidad de adaptarse a las experiencias únicas de cada persona. Interpretar emociones complejas de manera adecuada y, lo más importante, brindar empatía real, algo que la IA no puede replicar de manera efectiva, no por lo menos a corto plazo. Además, la psicología no es solo teoría. Esto involucra un juicio crítico, una ética profesional y una adaptación constante que la IA aún no puede alcanzar con la misma profundidad. En resumen, aunque la IA pueda ofrecer respuestas y consejos válidos, no puede reemplazar la experiencia y el contacto humano en el proceso terapéutico“, añadió el experto.

