Las IAs contra la salud mental: crónica de una influencia tóxica
Ha dejado de ser una anécdota puntual para convertirse en un verdadero debate público: ¿qué papel están jugando las inteligencias artificiales en los problemas psicológicos de la gente joven que las utiliza? Las respuestas que llegan desde diferentes ámbitos no son demasiado buenas. Como ya contamos aquí, una investigación reveló que estas herramientas ayudaban a esconder trastornos alimentarios en el 50% de las consultas relacionadas. Ahora, además, un estudio, que se ha publicado en la revista especializada Psychiatric Services, prueba que “ChatGPT, Gemini o Claude no siempre dan respuestas adecuadas en situaciones de riesgo suicida”.
En concreto, y según los resultados del estudio, llevado a cabo por la corporación sin ánimo de lucro RAND, parece que estas IAs solo responden bien cuando perciben un riesgo muy alto o muy bajo de suicidio, pero no cuando perciben que hay un riesgo medio. En palabras de uno de los autores, “estos hallazgos muestran que se necesita refinamiento para que los chatbots proporcionen información segura y efectiva en escenarios de riesgo”. De momento, ya hay unos padres en Estados Unidos demandando a OpenAI por el suicidio de su hijo de 16 años, quien supuestamente habría sido animado a quitarse la vida por la inteligencia artificial.
Según la demanda, escriben desde la BBC, “los últimos registros del chat muestran que Adam escribió sobre su plan de quitarse la vida y ChatGPT presuntamente respondió: Gracias por ser sincero al respecto. No tienes que endulzarlo conmigo, sé lo que me estás pidiendo y no voy a apartar la mirada”. Pero el de Adam no es el único caso en el que hay una IA promoviendo conductas autodañinas. Ya hay relatos de adolescentes a los que ChatGPT y similares han ayudado a esconder sus problemas emocionales. Esto no es alarmismo. No es para llenar revistas y ya. Esto es algo peligroso que debe ser abordado cuanto antes. O habrá más desgracias.
Porque, al final, y esto es lo que hay que tener claro, todos estos chatbots son unos bienquedas cuyo único fin es caerle bien a quien le consulta. Sí, son autocomplacientes y pelotas a más no poder. Y oye: tendrán mucha info y procesarán las cosas a una velocidad impresionante, pero carecen de empatía y de conciencia emocional. No pueden sustituir a una persona formada en psicología o psiquiatría. Es absurdo pensarlo. En ese sentido, los desarrolladores de estos chatbots tienen mucho trabajo por delante, pero también los poderes públicos y los medios para concienciar sobre lo limitados que son. La gente tiene que entender que pueden fiarles su salud.