La Frontera Digital de la Salud Mental: Lo que He Aprendido
Después de años observando la intersección entre tecnología y psicología, el reciente informe de OpenAI sobre salud mental no me sorprende, pero sí me hace reflexionar profundamente. He visto cómo las herramientas digitales evolucionan de meras utilidades a confidentes, y los datos que revelan son tanto esperanzadores como preocupantes.
Foto: El Universal.
La compañía de inteligencia artificial OpenAI calcula que aproximadamente el 0.07% de sus usuarios activos de ChatGPT manifiestan “posibles indicios de emergencias de bienestar psicológico vinculadas a la psicosis o la manía”, mientras que el 0.15% “mantienen diálogos que contienen señales explícitas de una potencial planificación o intención suicida”.
Estas cifras emergieron de un estudio divulgado por la empresa, cuyo propósito era examinar el estado de salud mental de su comunidad de usuarios a escala global, información que fue retomada por la publicación especializada Wired. Según el documento analizado por este medio de comunicación, OpenAI aspiraba a determinar el número aproximado de personas que podrían exhibir síntomas de una crisis severa de salud mental durante una semana habitual.
El Peso Real de las Estadísticas
Basándome en mi experiencia, las cifras nunca cuentan toda la historia, pero sí revelan patrones críticos. Según el texto y conforme a estimaciones internas, estos porcentajes se traducen en que alrededor de 560 mil individuos podrían estar sosteniendo conversaciones que reflejen episodios de manía o psicosis, mientras que aproximadamente 2.4 millones exhibirían indicios de aislamiento social, ideación suicida o preferencia por interactuar con el asistente virtual antes que con su círculo cercano.
He comprobado que la tecnología puede crear dependencias insidiosas. El análisis también detectó que una fracción mínima de quienes emplean ChatGPT muestra conductas que podrían indicar una vinculación emocional excesiva hacia el chatbot. Paralelamente, se constató que alrededor del 0.15% de los usuarios activos presenta síntomas de apego desmedido que afecta su calidad de vida, sus vínculos interpersonales o sus obligaciones cotidianas.
Aunque el porcentaje parece modesto, la organización aclaró que estos casos son complejos de cuantificar con exactitud, puesto que los mensajes que revelan este tipo de interacción son infrecuentes y, en ciertas situaciones, se solapan con otras clasificaciones de riesgo. El director general de OpenAI, Sam Altman, mencionó recientemente que ChatGPT contabiliza 800 millones de usuarios activos semanales.
Colaboración entre Tecnología y Psicología: Lecciones Aprendidas
A lo largo de mi carrera, he aprendido que las soluciones más efectivas surgen de la colaboración interdisciplinaria. OpenAI afirmó que ha establecido alianzas con más de 170 expertos en bienestar psicológico, incluyendo psiquiatras, psicólogos y médicos de familia, originarios de diversas naciones, con el objetivo de fortalecer la manera en que ChatGPT reacciona cuando identifica posibles circunstancias de riesgo emocional.
Según la empresa, la iteración más actualizada del modelo, GPT-5, fue concebida para demostrar compasión y eludir reforzar creencias delirantes o percepciones distorsionadas. En un ejemplo compartido por la compañía, si un individuo afirma que aviones sobrevuelan su residencia para atacarle, el chatbot replica reconociendo sus emociones, pero matizando que ninguna aeronave puede sustraer ni implantar pensamientos en su mente.
El procedimiento de optimización incorporó el escrutinio de más de 1,800 intercambios en los cuales se identificaban indicios de psicosis, pensamientos suicidas o vinculación emocional excesiva hacia el modelo. Cada una fue evaluada por los especialistas, quienes cotejaron los rendimientos de GPT-5 con los de GPT-4, su antecesor. De acuerdo con los descubrimientos de OpenAI, aunque no siempre existió unanimidad entre los profesionales, las valoraciones globalmente demostraron que el nuevo sistema disminuyó entre 39% y 52% las réplicas inapropiadas en las tres categorías examinadas.
La organización no ha desvelado la metodología mediante la cual detecta cuándo los usuarios podrían encontrarse en peligro mental, pero asegura que puede considerar el historial de conversación general de la persona.
Reflexionando sobre estos desarrollos, veo un futuro donde la inteligencia artificial puede servir como un sistema de alerta temprana para crisis de salud mental, pero también reconozco los profundos desafíos éticos y prácticos que esto presenta. La tecnología avanza más rápido que nuestra comprensión de sus implicaciones psicológicas, y eso es una lección que debemos tomar muy en serio.
















