Prensa

Cada vez más personas le cuentan sus emociones más íntimas a una inteligencia artificial. ¿Estamos frente a una revolución terapéutica o a una ilusión peligrosa?

Lo que empezó como una herramienta para resolver dudas técnicas o escribir textos, está evolucionando hacia algo más profundo y sorprendente: ChatGPT se está usando como confesor, consejero emocional y hasta como “psicólogo de bolsillo”.

Personas de todas partes del mundo han empezado a entablar vínculos emocionales con el chatbot. Le cuentan sus secretos, lo saludan con afecto, y lo consultan por decisiones de pareja, problemas de autoestima o crisis vitales.

¿Por qué ocurre esto?

Porque ChatGPT no juzga, no interrumpe, no se cansa, siempre está disponible y ha sido entrenado con grandes volúmenes de contenido emocional, incluyendo conceptos básicos de psicología. Esto lo convierte en un interlocutor empático, accesible y eficaz para muchas personas que no se sienten cómodas o no pueden acceder a un terapeuta humano.

¿Es esto bueno o malo? Depende de cómo lo usemos.

El fenómeno tiene claros beneficios:

  • Puede ser una puerta de entrada para personas que jamás se habrían planteado hablar con un psicólogo.
  • Ofrece disponibilidad inmediata cuando más se necesita (por ejemplo, a las 3 a. m.).
  • Facilita un primer espacio de reflexión, donde el usuario organiza sus ideas, nombra emociones y encuentra cierto alivio.

Pero también existen riesgos graves:

  • ChatGPT no puede interpretar silencios, miradas o matices emocionales sutiles.
  • No diagnostica, ni puede hacer un seguimiento clínico adecuado.
  • Puede emitir juicios o recomendaciones sin contexto personal.
  • Y lo más delicado: no activa ningún protocolo en casos de riesgo, como cuando se mencionan ideas suicidas o confesiones de delitos.

¿Qué pueden hacer los profesionales de la salud mental y la tecnología?

Aquí cinco claves para un uso ético e inteligente de ChatGPT en este nuevo escenario:

  1. Educar al usuario sobre qué puede y qué no puede ofrecer la IA
    Es esencial que las personas entiendan los límites de esta herramienta para evitar confusiones peligrosas.
  2. Incluir IA en los planes de estudio en salud mental y psicología
    Preparar a las nuevas generaciones de psicólogos para convivir, colaborar y diferenciarse de estas tecnologías.
  3. Desarrollar chatbots especializados en salud mental con filtros y protocolos de seguridad
    Sistemas que puedan derivar a un profesional ante señales de alerta o riesgo emocional.
  4. Fomentar la investigación clínica y social sobre el impacto de la IA en la salud mental
    Necesitamos datos reales para regular, adaptar e innovar con responsabilidad.
  5. Reforzar el valor del contacto humano en los procesos terapéuticos
    La IA puede escuchar, pero no puede contener emocionalmente. No puede sostener un silencio significativo, ni ofrecer una mirada comprensiva. Eso sigue siendo irremplazable.

La inteligencia artificial no reemplazará al psicólogo, pero ya está transformando la forma en que muchas personas buscan ayuda emocional.

¿Estamos preparados para acompañar este cambio desde la ética, la ciencia y el cuidado humano?

 

«En Starbien cuidamos el bienestar mental de las personas para fortalecer tu empresa». Descubre cómo podemos ayudarte en starbien.pro

Comparte en tus redes sociales

*Cualquier duda, consulta o ayuda, haz clic en el botón de asistencia y chatea con nosotr@s.