El uso de modelos de inteligencia artificial generativa, como ChatGPT, se ha convertido en una práctica cada vez más frecuente en consultas sobre salud mental. Esta tendencia, según advierten los psicólogos, puede conllevar riesgos tanto de dependencia emocional como de fiabilidad y confidencialidad en las respuestas.

“La confianza, la intimidad y la confidencialidad forman parte esencial del vínculo terapéutico y eso no puede reemplazarlo una máquina”, ha subrayado el vocal de Psicología Clínica y de la Salud del Colegio Oficial de Psicología de Baleares (Copib), Xavier Revert, en declaraciones a Europa Press.

Revert ha destacado que “la accesibilidad y disponibilidad las 24 horas del día de estas herramientas las hace especialmente atractivas”. “Hoy en día, cuando tenemos una duda sobre cualquier tema, sacamos el móvil del bolsillo, escribimos nuestra pregunta y en pocos segundos tenemos una respuesta”, ha señalado.

El psicólogo ha explicado que “antes se utilizaba lo que vulgarmente se llamaba ‘doctor Google’ para buscar síntomas asociados a alguna enfermedad”, incluidos también los trastornos psicológicos o emocionales, y “ahora nos dan una respuesta rápida y accesible construida en base a la información disponible en las bases de datos y en Internet”.

Preguntado por si ha habido un aumento de pacientes que consultan herramientas como ChatGPT antes que acudir a un profesional, Revert ha afirmado que, desde su experiencia personal, diría que “sí ha habido un incremento”.

Dependencia emocional de ChatGPT

En este sentido, el vocal del Copib ha afirmado que la interacción con modelos como ChatGPT se caracteriza por la personalización progresiva de las respuestas, cosa que puede llevar a los usuarios a establecer una relación con la herramienta. “A medida que vamos interactuando con estas IA, van entendiendo cada vez más nuestras preferencias --por ejemplo, si queremos un estilo de respuesta más desenfadado--”, ha explicado.

Estamos diseñados para generar vínculos y, en ese sentido, podría llegar a ser algo que generara dependencia en algunas personas, sobre todo en aquellas con una personalidad más dependiente”, ha advertido.

Revert ha citado la película Her (2013), “un ejemplo fantástico de cómo un humano se enamora de una inteligencia artificial”. “Como en la película, todo depende del grado de dependencia que podamos establecer con ese diálogo”, ha afirmado.

Asimismo, ha asegurado que uno de los factores que impulsa el uso de la IA en este ámbito es la ausencia de juicio humano. “Las respuestas se van adaptando a nuestro estilo y, en algún momento, la dependencia se puede generar muy fácilmente”, ha indicado.

Así pues, ha alertado de que la falta de una respuesta crítica, como la que podría ofrecer un familiar o un terapeuta, limita la utilidad de estas interacciones. Para prevenir este riesgo, Revert ha instado a “una mayor educación” en el uso de tecnologías como ChatGPT.

Recomendaciones "genéricas"

En cuanto a los problemas más habituales que se consultan a la IA, el psicólogo ha apuntado que pueden abarcar “casi cualquier tipo de duda relacionada con la salud mental o emocional”, como dificultades para dormir, insomnio o episodios de ansiedad. Además, ha recordado que las recomendaciones suelen ser “bastante genéricas”.

Aun así, ha señalado que, desde el ámbito de la psicología, “si estas tecnologías funcionan como funcionan es, en parte, gracias a estudios de la ciencia y la psicología cognitiva, que están permitiendo estructurar estos modelos”.

Por otro lado, Revert ha subrayado que la fiabilidad de las respuestas es “uno de los riesgos más importantes”, ya que pueden no ser rigurosas o correctas. “Si confiamos ciegamente, sin criterio crítico, --porque son preguntas que hacemos precisamente por desconocimiento--, la situación se complica”, ha advertido, al recordar que la práctica profesional se apoya en formación y experiencia contrastadas.

El responsable del Copib ha incidido, además, en la importancia de la confidencialidad en la práctica psicológica frente a la opacidad en el uso de datos por parte de las plataformas tecnológicas. “Cuando acudimos a un profesional de la psicología existe confidencialidad y discreción sobre información muy sensible, algo que desconocemos cómo se maneja en el caso de estos modelos”, ha señalado.

Por todo ello, Revert ha recomendado tomar estas tecnologías como herramientas de autoayuda complementarias, pero nunca sustitutivas de la atención profesional. Ha recordado que, al igual que ocurre con los manuales de autoayuda, la información que aporta puede ser útil siempre que se entienda como genérica, con el añadido de que en el caso de la IA no existe un filtro editorial o científico previo.

En este sentido, considera un “peligro” pensar que la parte terapéutica es “solo tener herramientas --que es lo que nos dan las inteligencias artificiales generativas--, cuando lo importante es el vínculo con la otra persona, no los recursos que pueda dar”.

Asimismo, el psicólogo ha defendido que, pese a los avances en teleasistencia y a la posibilidad futura de interactuar con modelos que respondan con voz o incluso con apariencia física, “la relación humano-humano sigue siendo insustituible en la terapia”.

Además, ha aconsejado que si utilizamos tecnologías como ChatGPT, debemos hacerlo siempre “con la precaución de saber que hay un cierto grado de sesgo o de error en los respuestas”. “Incluso estaría bien que le preguntáramos a la inteligencia artificial dónde ha encontrado la información y, así, nosotros mismos podríamos profundizar un poco más en la respuesta que nos haya dado”, ha concluido.