El Bosque en contexto

¿Hablas con la inteligencia artificial sobre tu salud mental y no con tu psicólogo?

Autor: Comunicaciones

16 de Julio de 2025

Tiempo de lectura: 3 minutos

salud-mental-chatgpt-jovenes-universidad-elbosque
Más jóvenes recurren a chatbots, como ChatGPT, cuando no pueden acceder a un profesional en psicología. Exploramos los límites y alcances del acompañamiento digital.

Como en la película Her, donde una voz artificial ofrece escucha y compañía en un mundo solitario, cada vez más personas —especialmente jóvenes— dicen acudir a un chatbot como ChatGPT cuando atraviesan momentos de angustia o tristeza. En lugar de escribir a un amigo o pedir una cita con una persona profesional en psicología, deciden hablar con una herramienta de inteligencia artificial (IA). Este fenómeno, que a simple vista puede parecer curioso o inquietante, refleja transformaciones profundas en la forma en que buscamos acompañamiento emocional. 

Desde la Facultad de Psicología de la Universidad El Bosque, la docente Rubby Castro Osorio, investigadora en salud digital y bienestar, observa que estos espacios tecnológicos están cumpliendo una función real y legítima: la necesidad de sentir que nos escuchan, incluso por una inteligencia no humana.  

Te puede interesar: Investigación revela brechas en cuidados paliativos en zonas rurales

“No se trata de si su uso es ‘bueno’ o ‘malo’, sino de reconocer que responde a una necesidad real: la necesidad de sentirse escuchado, comprendido y acompañado, incluso por una inteligencia no humana”, afirma. 

Según la Organización Mundial de la Salud (OMS), 1 de cada 6 personas en el mundo se ve afectada por la soledad, un sentimiento que, cuando se prolonga, puede tener consecuencias graves para la salud física y mental. Se estima que más de 870.000 muertes anuales están asociadas a este fenómeno. Y si bien las tecnologías digitales ofrecen posibilidades de conexión, también plantean riesgos si reemplazan los vínculos humanos. En esta tensión se mueven muchas de las preguntas actuales sobre inteligencia artificial y salud mental. 

estadisticas-oms-salud-mental-universidad-elbosque

 

Entre oportunidades y límites 

En un país como Colombia, donde el acceso a servicios de salud mental sigue siendo desigual, la IA puede jugar un papel importante en la prevención y detección temprana de riesgos.  

“La IA puede ser una herramienta poderosa para ampliar la cobertura y reducir barreras estructurales en salud mental, particularmente en un país como Colombia, donde la distribución del talento humano en salud es desigual y los tiempos de atención suelen ser insuficientes”, señala la docente Castro. 

Sin embargo, también advierte que estamos lejos de reemplazar la atención humana. El acompañamiento emocional profundo requiere empatía, comprensión contextual y una capacidad de contención que, por ahora, sigue siendo exclusiva de las relaciones humanas. La IA puede complementar, pero no sustituir. Además, su implementación conlleva riesgos que deben gestionarse con responsabilidad: sesgos algorítmicos, baja precisión, dificultades de interoperabilidad y falta de regulación clara. 

También te puede interesar: Cómo proteger tu marca en el exterior: lecciones del caso Frisby

¿Qué se está usando y qué tan efectivo es? 

Actualmente existen múltiples herramientas tecnológicas aplicadas a la salud mental: aplicaciones móviles con ejercicios de autocuidado, plataformas de terapia digital, chatbots conversacionales y programas de realidad virtual para intervenciones específicas, como fobias o trauma. Algunas muestran resultados prometedores en contextos de bajo riesgo, como mejoras en el estado de ánimo o reducción de síntomas leves de ansiedad

Pero la evidencia también advierte sobre los retos. “La literatura indica una buena aceptación inicial de estas herramientas, sobre todo cuando están bien diseñadas, usan lenguaje accesible y ofrecen una experiencia personalizada. Lo que funciona mejor, según la evidencia, siguen siendo los modelos híbridos: tecnología más acompañamiento humano, no solo por eficacia, sino por confianza”, subraya la investigadora. 

El riesgo de sentirse acompañado… por una máquina 

Delegar el acompañamiento emocional a la IA sin supervisión puede generar confusión o incluso agravar el malestar. “Uno de los principales riesgos es la ilusión de contención emocional. Aunque los chatbots puedan simular una conversación empática, no experimentan emociones ni comprenden el contexto humano con la profundidad que implica un proceso terapéutico”, explica la profesora. 

 

Además, está el riesgo de que las personas sientan que deben resolver solas sus dificultades porque “ya tienen una herramienta”. Esto puede aislarlas aún más. Por eso, insiste en que estas herramientas deben diseñarse desde el principio de no daño, con mecanismos de derivación claros, límites explícitos y advertencias sobre sus alcances. 

¿Se están formando los futuros profesionales para estos escenarios? 

En Colombia, los sistemas de salud aún no están plenamente preparados para integrar la IA en contextos reales de atención psicológica o psiquiátrica. La falta de regulación, las brechas de infraestructura digital y la baja formación en salud digital entre el talento humano son obstáculos evidentes. Y eso pone un reto importante en el campo universitario. 

Consulta más sobre: Políticas migratorias de Estados Unidos: ¿qué deben saber los estudiantes?

Desde la perspectiva de la profesora Castro, las facultades de psicología deben liderar la discusión ética y formativa sobre estas tecnologías:

 “No se trata solo de incorporar cursos técnicos, sino de formar profesionales capaces de entender las implicaciones éticas, sociales y clínicas del uso de estas tecnologías”. 

Además, insiste en la importancia de generar evidencia local. “La formación en salud mental debe actualizarse no solo para entender la IA, sino para contribuir activamente a su diseño ético, inclusivo y centrado en la persona”, añade. 

Conexión social, salud y dignidad 

En mayo de 2025, la Asamblea Mundial de la Salud adoptó por primera vez una resolución sobre la conexión social como prioridad de salud pública. La OMS, en su informe más reciente, señala que la soledad y el aislamiento social tienen impactos comparables con factores de riesgo como el tabaquismo o la obesidad. Afectan la salud cardiovascular, aumentan el riesgo de ansiedad, depresión y suicidio, y tienen efectos económicos que se traducen en menor productividad y mayor gasto en salud. 

salud-mental-colombia-universidad-elbosque

Frente a este panorama, la docente Rubby Castro hace un llamado a promover una conversación pública más informada, que no caiga ni en el miedo ni en la idealización. “Promover una conversación pública equilibrada requiere tres cosas: evidencia, lenguaje accesible y participación diversa”, afirma y agrega que “el antídoto frente al miedo no es el optimismo ingenuo, sino la transparencia, el diseño participativo y la corresponsabilidad social en el uso de estas herramientas”. 

Su mensaje para quienes están pensando en hablar con un chatbot es claro: puede ser un primer paso, pero no debe ser el único.  “Un chatbot puede ayudarle a ordenar sus pensamientos, sentirse que algo ‘le escucha’ o aprender cosas nuevas sobre quién es. Pero no reemplaza una relación de confianza con una persona que pueda acompañar de verdad. (...) Y le diría que, si está pasando por algo difícil, que no se quede solo con el chatbot, que se lo cuente también a alguien de confianza, busque ayuda profesional si puede, o llame a una línea de atención”, concluye. 

Compartir noticia

Más Noticias

Te puede interesar

  • /sites/default/files/2025-04/Inscripciones.gif
    main_menu_inscripcions
    card-gif-sub-menu
  • /sites/default/files/2025-04/Programas.gif
    main_menu_programs
    card-gif-sub-menu
  • /sites/default/files/2025-04/Facultad.gif
    main_menu_faculties
    card-gif-sub-menu
  • /sites/default/files/2025-04/Vida%20Universitaria.gif
    main_menu_univers
    card-gif-sub-menu
  • /sites/default/files/2025-04/Nuestro%20Bosque.gif
    main_menu_ub
    card-gif-sub-menu
  • /sites/default/files/2025-04/Investigaciones.gif
    main_menu_investigation
    card-gif-sub-menu