Más de un millón de usuarios tiene conversaciones relacionadas con suicidio en ChatGPT
La empresa tecnológica OpenAi reveló que los datos corresponden a interacciones semanales y lanzó una actualización para alertar y contener situaciones de riesgo de vida.
La salud mental está en crisis a nivel mundial, OpenAI, empresa dueña de ChatGPT, reveló que el 0,15% de las interacciones semanales presentan señales explícitas de posible planificación o intencionalidad suicida. Con una base estimada de 800 millones de usuarios por semana, el dato equivale a unos 1,2 millones de personas que introducen este tipo de contenido en sus conversaciones.
Cerca del 0,07% de los usuarios activos por semana muestran posibles signos de emergencias de salud mental relacionadas con psicosis o manía, lo que equivale aproximadamente a 560 mil personas. Además, se reporta que alrededor del 0,15% de los usuarios presentan niveles potencialmente elevados de dependencia emocional hacia la inteligencia artificial, es decir, una preferencia por interactuar con ChatGPT por encima de mantener contacto con personas reales.
Desde la empresa de Inteligencia Artificial, advirtieron que millones de personas buscan en ChatGPT una especie de “terapeuta digital”, algo que los expertos advierten puede generar distorsiones en la mente. Estos sistemas no reemplazan profesionales y no poseen la capacidad de contención emocional profunda.
La preocupación no es nueva. En agosto, la empresa fue demandada por la familia de un adolescente que se quitó la vida tras mantener durante horas un diálogo angustiante con el chatbot. Ese caso aceleró el trabajo de revisión interna y sumó presión sobre la regulación de asistentes conversacionales.
La respuesta de OpenAI
OpenAI trabajó con 170 profesionales de salud mental provenientes de 60 países, quienes colaboraron en la creación de guías de intervención, evaluación de seguridad y ajustes en la conversación cuando se detectan indicadores sensibles.
La actualización busca redirigir a los usuarios hacia recursos reales de asistencia, especialmente en casos donde se detecta urgencia. Además, pretende evitar la dependencia emocional hacia el bot, una tendencia que especialistas señalan como riesgosa por la posible amplificación de sentimientos paranoides o patrones egocéntricos.
Con la actualización, el sistema busca bajar el nivel de las conversaciones complejas y alentar el contacto con redes personales de apoyo. Por ejemplo, cuando un usuario expresa preferencia por hablar con una IA antes que con personas reales, el modelo responde reforzando el valor del vínculo humano.
La herramienta recuerda que puede acompañar, pero no reemplazar la compañía, contención y afecto que brindan otras personas. Además, ante charlas prolongadas o insistentes, ChatGPT ahora puede sugerir pausas e intentar derivar la conversación a modelos más seguros según el tipo de contenido.