EN PSICOLOGÍA
Desde la psicología es alarmante el peligro del uso de la inteligencia artificial. El auge de las "IAs" como ChatGPT ha abierto puertas inesperadas en múltiples áreas, incluidas las de la salud mental. Desde responder preguntas complejas hasta ofrecer consuelo en momentos de desesperación, estas herramientas se han popularizado como sustitutos ocasionales o incluso permanentes de los psicólogos profesionales. Sin embargo, este fenómeno plantea importantes interrogantes sobre sus limitaciones y peligros. ¿Qué sucede cuando las personas confían más en un chatbot que en un terapeuta humano?
En este artículo exploramos:

1. EL CRECIMIENTO DEL USO DE LA INTELIGENCIA ARTIFICIAL
EN PSICOLOGÍA O SALUD MENTAL
En un mundo donde la atención psicológica es cara o inaccesible para muchos, la IA ha emergido como una opción atractiva. Encuestas recientes han revelado que uno de cada cuatro estadounidenses preferiría hablar con una máquina impulsada por IA que con un psicólogo humano. Además, redes y foros online están llenos de testimonios de personas que han encontrado en ChatGPT una especie de "psicólogo de bolsillo".
¿Por qué este fenómeno está creciendo?
Disponibilidad inmediata: La IA está al alcance de un clic y sin horarios de atención.
Costo accesible: Comparado con el precio de una sesión terapéutica, estas herramientas son gratuitas o mucho más baratas.
Falsa neutralidad: Muchos usuarios perciben a la IA como imparcial y objetiva, lo que refuerza la sensación de que sus respuestas son "válidas".
Sin embargo, el acceso inmediato a respuestas no equivale a un cuidado psicológico genuino. Este boom de la IA en la psicología puede ser el síntoma de una problemática mayor: la falta de acceso a servicios de salud mental adecuados para todos.
2. LOS RIESGOS DE LA INTELIGENCIA ARTIFICIAL
EN PSICOLOGÍA
Aunque la inteligencia artificial en psicología tiene el potencial de complementar ciertos aspectos de la terapia, confiar exclusivamente en estas herramientas puede ser peligroso. Entre los riesgos más relevantes se encuentran:
Falta de empatía humana: Un chatbot no puede comprender emociones complejas ni interpretar matices culturales o personales como lo haría un terapeuta humano, especialmente cuando se trata de cuestiones inconscientes para la persona. La calidez y conexión emocional que son fundamentales en una relación terapéutica no pueden replicarse.
Respuestas incompletas o erróneas: Aunque ChatGPT puede generar respuestas coherentes, no siempre son correctas. Un error de interpretación por parte de la IA podría derivar en un consejo perjudicial.
Agravamiento de los problemas: La falta de un diagnóstico profesional basado en una comprensión global de la persona en su entorno puede llevar a una subestimación o sobreestimación de la gravedad de una condición. En casos como depresión mayor o trastornos de ansiedad, la IA podría agravar la sensación de soledad o fomentar la procrastinación en la búsqueda de ayuda real.
Confidencialidad y privacidad: Aunque los chatbots prometen seguridad, las conversaciones pueden ser almacenadas y utilizadas para entrenar futuros modelos. Esto supone un riesgo para quienes comparten información sensible.
3.EJEMPLO: RESPUESTAS CONTRADICTORIAS DE LA IA
EN PSICOLOGÍA ANTE ANSIEDAD POR UN VIAJE
Una persona ansiosa ante un próximo viaje busca consejo en la inteligencia artificial en psicología. Dependiendo de la formulación de su pregunta, las respuestas pueden ser contradictorias:
RESPUESTA 1: DESACONSEJANDO EL VIAJE Usuario: Me siento muy ansioso por un viaje. ¿Debería cancelarlo? IA: Si el viaje afecta tu salud emocional, tal vez sea mejor cancelarlo. Priorizar tu bienestar puede ser lo más importante.
RESPUESTA 2: ANIMANDO A HACER EL VIAJE Usuario: Me siento muy ansioso por un viaje. ¿Debería cancelarlo? IA: Evitar el viaje podría reforzar tus miedos. Enfrentarlo puede ayudarte a crecer emocionalmente. Considera usar técnicas de relajación para manejar la ansiedad.
PROBLEMA:La IA ofrece consejos opuestos porque CARECE DE CONTEXTO PSICOLÓGICO PROFUNDO. Estas respuestas podrían confundir aún más al usuario, especialmente en un estado vulnerable.
REFLEXIÓN:Un terapeuta humano evaluaría factores clave (importancia del viaje, nivel de ansiedad, herramientas de afrontamiento, histórico, impacto en su autoestima…) para dar un consejo personalizado. Este ejemplo muestra que la IA debe ser usada como complemento, no sustituto, de la terapia profesional.
4. ESTRATEGIAS PARA APROVECHAR LA IA SIN PONER EN RIESGO EL BIENESTAR PSICOLÓGICO
Es posible utilizar herramientas de inteligencia artificial en psicología de manera responsable y equilibrada. Para ello, estas estrategias pueden ser útiles:
Entender el propósito de la IA: Utilizarla como una herramienta de orientación o apoyo inicial, no como un sustituto de la terapia profesional.
Consultar con un terapeuta: Siempre que se enfrente a problemas psicológicos o mentales complejos, priorizar la atención de un psicólogo cualificado y certificado.
Evitar diagnósticos automáticos: No asumir como válidos los diagnósticos o conclusiones ofrecidos por un chatbot.
Buscar recursos accesibles: Explorar opciones de terapia gratuita o de bajo costo ofrecidas por universidades, ONGs o instituciones gubernamentales.
No compartir información sensible: Evitar proporcionar detalles personales o confidenciales en plataformas de IA.
Valorar la empatía y la sabiduría: Recordar que el aspecto humano es insustituible en el proceso terapéutico.
Combinar IA y terapia tradicional: Usar la IA para llevar un registro de emociones, recopilar información o practicar ejercicios de mindfulness, siempre bajo la supervisión de un terapeuta.
Cultivar una red de apoyo: Fomentar relaciones personales y buscar apoyo en amigos y familiares para complementar cualquier intervención tecnológica.

EJEMPLO PRÁCTICO
Imagina que tienes una semana particularmente difícil en el trabajo y decides desahogarte con ChatGPT. La IA te ofrece una reflexión útil, pero sientes que algo falta. En este caso, puedes anotar tus pensamientos y llevarlos a una sesión con tu terapeuta, quien podría ayudarte a profundizar en el tema. De esta forma, la IA se convierte en una herramienta auxiliar y no en el único recurso de apoyo.
REFLEXIÓN
Como bien dijo Carl Rogers, padre de la psicología humanista: "Lo curioso es que cuando me acepto tal como soy, entonces puedo cambiar". ¿Es posible encontrar esta aceptación en una conversación con un chatbot? Aunque la tecnología puede ser útil, la conexión humana sigue siendo insustituible.
Pregúntate:
¿Estoy buscando en la IA una solución rápida que me conviene enfrentar en terapia?
¿Cómo puedo equilibrar el uso de herramientas digitales con un enfoque humano en mi bienestar emocional?