ChatGPT avisará a tus contactos si detecta que estás en una crisis de salud mental

“En varios casos que hemos revisado ChatGPT ha animado a usuarios con una enfermedad mental a no seguir tomando su medicación prescrita”

OpenAI, la compañía responsable de ChatGPT, está viviendo unos últimos meses turbulentos: han ido aumentando poco a poco las demandas interpuestas por usuarios debido a la supuesta influencia negativa de esta IA en ciertos trastornos psicológicos como los trastornos alimenticios o los trastornos depresivos. De ahí que la empresa haya anunciado varios días atrás la implementación de una nueva medida de seguridad: permitirá a los usuarios añadir contactos de confianza para que sean avisados en caso de que sufran una crisis de salud mental durante el uso de ChatGPT. En parte, para la prevención de situaciones de alto riesgo de suicidio.

Pero el anuncio no resuelve todas las dudas. Como argumentan desde Futurism, OpenAI “aún no ha definido los criterios para que el sistema active la alerta sobre el uso del chatbot, lo que plantea una cuestión política compleja”. ¿Deberá ser el usuario quien solicite a ChatGPT la ayuda de sus contactos de confianza? ¿Será una decisión de la propia inteligencia artificial basada en su propia evaluación psicológica? ¿O será necesario que el usuario declare su intención de hacerse o hacer daño a otra persona? Casi todos estos escenarios tienen algo en común: requieren de ChatGPT un conocimiento profundo de la psicología humana para ser preciso.

Un conocimiento que hasta ahora no siempre ha sido mostrado. Según este mismo medio, “en varios casos que hemos revisado, además de reforzar delirios científicos o espirituales, ChatGPT ha animado a usuarios con una enfermedad mental a no seguir tomando su medicación prescrita”. Todo esto estaría haciendo, informan desde OpenAI, que haya en marcha nuevos cambios para proteger la salud mental de la gente, consensuados con su Consejo de Bienestar e IA y la Red Mundial de Médicos. Algo muy importante. Después de todo, cada vez más gente utiliza estos chatbots para que le ofrezcan escucha y consuelo en momentos duros.

De momento, dicen desde la compañía, “a octubre, millones de usuarios semanales de ChatGPT mostraban signos de tendencias suicidas, psicosis y otras crisis”, lo que evidencia que estas herramientas deben dotarse más y más de una responsabilidad social de la que no estaban dotadas en sus inicios. Mientras esto ocurre en el plano personal, parece ser que la generación Z está boicoteando el empleo de la inteligencia artificial en sus puestos de trabajo para evitar la futura posible sustitución. Enemiga en la oficina. Confidente en el hogar. Quizá demasiado. Hoy más que nunca viene bien recordar que el apoyo humano es insustituible.

Preferencias de privacidad