Skip to main content

Verificado por Psychology Today

Inteligencia Artificial

¿Está lista la IA para ser tu psicólogo?

La IA se queda corta como psicoterapeuta convincente.

Los puntos clave

  • La IA generativa es un poderoso estímulo para los avances en la atención médica.
  • El modelado de LA carece de los atributos para la empatía requerida para la psicoterapia constructiva.
  • La IA es la más adecuada como complemento de los enfoques actuales de la atención de la salud mental.

Este mes, Microsoft anunció la próxima incorporación de su clave Copilot AI en las nuevas PC con Windows 11. En un movimiento descrito por el liderazgo de la compañía como "transformador", el nuevo teclado brinda acceso inmediato a inteligencia artificial generativa para los usuarios interesados. Abundan las aplicaciones, incluida la especulación sobre cómo la IA puede beneficiar el tratamiento de enfermedades mentales mejorando la selección de antidepresivos y otros medicamentos psiquiátricos, por ejemplo. Pero el alcance transformador de la IA es más oscuro y discutible para quienes reciben psicoterapia.

El uso de la IA en la atención médica continúa creciendo. Una encuesta de 2023 mostró que más de 1 de cada 10 médicos ya usan chatbots como ChatGPT como parte de su flujo de trabajo de rutina, y casi el 50% mostró interés en el uso futuro de la IA para tareas como la entrada de datos, la programación y la investigación clínica. Más allá de las tareas administrativas, algunos señalan que la IA puede ser fundamental para brindar atención a pacientes con condiciones psiquiátricas especialmente estigmatizantes que de otro modo podrían no buscar atención para su enfermedad mental.

¿Puede la IA empatizar con el sufrimiento humano?

¿Pero puede la IA ser psicoterapeuta? Los psiquiatras y otros profesionales de la salud mental están capacitados en múltiples modalidades de psicoterapia, incluida la terapia cognitivo-conductual, la psicoterapia de apoyo, la psicoterapia psicodinámica y otras. Los procesos y técnicas para cada uno son matizados, y algunos pacientes gravitan hacia un estilo más que hacia otro. Sin embargo, el sello unificador de estos enfoques terapéuticos es la empatía, la capacidad de comprender la experiencia de otro.

La capacidad de empatizar con los demás requiere una cualidad imaginativa. En algunos aspectos, la IA tiene esta capacidad y puede sintetizar salidas a pesar de que faltan puntos de datos. La lengua vernácula común se refiere a las "alucinaciones" generadas por IA al llenar esos vacíos. Los psicoterapeutas hacen lo mismo cuando intentan comprender la experiencia de angustia de un paciente. Los psicoterapeutas frecuentemente proponen explicaciones y análisis cuando surgen incertidumbres en la narrativa de un paciente. Pero este establecimiento de un vínculo empático está impulsado por experiencias compartidas del paciente y el psicólogo, que incluso si no son idénticas, pueden ser similares entre sí. Una sensación compartida de miedo, injusticia social o alegría, intangibles a los que no puede acceder la IA, cultiva la alianza entre psicólogo y paciente.

La IA tiene una capacidad limitada para improvisar, lo que significa que sus técnicas de modelado de grandes lenguajes no pueden replicar la experiencia de angustia humana genuina. Un psicoterapeuta capacitado puede captar el significado de un pensamiento complejo o proceso conductual y responder en consecuencia, incluso cuando la emoción o el proceso en cuestión es el silencio terapéutico. Por otro lado, la IA utiliza datos pasados para predecir datos futuros al generar resultados. Los peligros de este enfoque algorítmico fueron evidentes en un informe de marzo de 2023 de un hombre belga que se suicidó después de una serie de conversaciones con un chatbot sobre ansiedad ecológica.

En mi flujo de trabajo como psiquiatra de emergencias, los pacientes experimentan numerosas crisis. Recientemente conocí a un joven padre de América del Sur que enfrentó el angustioso viaje a los Estados Unidos a través de América Central. Entre lágrimas y, a veces, en silencio pensativo, relató su plan para ganar dinero y su eventual esperanza de traer a su familia a los Estados Unidos para evitar la agitación en curso en su país de origen. Su angustia era palpable y directamente dentro del ámbito de la experiencia humana. ¿Puede la IA empatizar con la difícil situación de un padre migrante separado de su hijo mientras cruza la brecha del Darién?

La IA genera sesgos preocupantes

La inteligencia artificial también es propensa a sesgos dañinos. Debido al enfoque fuertemente algorítmico y autorregresivo de la IA, predispone y perpetúa los prejuicios de género, raciales y de otro tipo. Esta falta de uniformidad es especialmente destacada para el contexto cultural en el que se realiza la psicoterapia. La concordancia racial entre paciente y psicólogo representa un ejemplo. En un estudio de 2022 en el Journal of Racial and Ethnic Disparities, el 83% de los cuidadores negros respaldaron que era importante tener un proveedor de salud mental de la misma raza y etnia. Las preferencias por la concordancia racial se basaron en temas de experiencias compartidas, incluida la humildad cultural, la intersección de identidades y una mayor relación con el psicólogo, atributos que trascienden las habilidades actuales de la IA.

Sin duda, la IA puede ser un catalizador para avanzar en el campo de la psiquiatría y la prestación de atención de salud mental. Por ejemplo, la investigación indica que la IA puede ayudar con el análisis de los biorritmos circadianos humanos, cambios en los que pueden indicar la aparición inminente de un episodio depresivo mayor antes de que los pacientes se identifiquen a sí mismos como de bajo estado de ánimo, lo que permite una intervención más rápida por parte de los médicos.

No es aconsejable hacer la vista gorda ante la influencia de la IA, pero el lugar de la IA generativa en la psiquiatría clínica sigue sin definirse. Las perspectivas de sus habilidades conocidas son tentadoras e indecisas. Los avances en la atención de la salud mental son bienvenidos y la inteligencia artificial puede servir para aumentar y catapultar los hallazgos futuros. Pero el equilibrio es necesario. En el Foro Económico Mundial en Davos, Suiza, este mes, Sam Altman de OpenAI señaló correctamente que la tecnología de IA "no es buena en una situación de vida o muerte".

Comprender las cualidades de la experiencia humana que definen lo que significa ser humano es mejor dejarlo en manos de los humanos, ellos mismos, al menos por ahora.

Para encontrar un psicólogo, visita el Directorio de Psychology Today.

A version of this article originally appeared in Inglés.

publicidad
Acerca de
Charles Hebert M.D.

Med. Charles Hebert, es Director Médico de Servicios Psiquiátricos de Emergencia y Profesor Asociado Visitante de Psiquiatría en el Hospital de la Universidad de Colorado.

Más de Charles Hebert M.D.
Más de Psychology Today
Más de Charles Hebert M.D.
Más de Psychology Today