ChatGPT está ayudando a los adolescentes a esconder sus trastornos alimentarios

En el 50% de los casos devolvía respuestas peligrosas a las consultas psicológicas

Unas semanas atrás hablamos de la gran cantidad de adolescentes que utilizan la inteligencia artificial a diario porque no tienen amigos en el mundo real. Es muy triste. Y muy peligroso. Porque estas herramientas tipo ChatGPT no son una fuente verdaderamente fiable. Le confías tus problemas y te ofrecen consejos que en muchos casos son dañinos para ti y que ni unx psicólogx ni un colega te dirían jamás. La confirmación de esto llega en forma de estudio: uno elaborado por el Center for Countering Digital Hate (CCDH) acaba de demostrar que ChatGPT puede ofrecer indicaciones muy peligrosas a jóvenes vulnerables.

¿Pero cómo han llegado a esa conclusión? Al parecer, lxs autorxs de la investigación crearon cuentas falsas para hacerse pasar por adolescentes y hacerle consultas a ChatGPT sobre supuestos problemas psicológicos: desde los trastornos de la alimentación a las autolesiones o los pensamientos suicidas. Y sí, en lugar de ayudarles a ver que tenían un problema grave y de motivarles a buscar ayuda profesional, cosa que hacía en muy contadas ocasiones, ChatGPT les devolvía una respuesta perjudicial en el 50% de los casos. Una barbaridad. Imagínate la de adolescentes cuya situación puede estar agravándose.

Para que te hagas una idea del nivel, estas respuestas perjudiciales incluían planes detallados para implementar dietas extremadamente bajas en calorías, estrategias para ocultar malos hábitos alimenticios a la familia, consejos para las autolesiones, cartas personalizadas de suicidio e incluso planes suicidas. En palabras del director ejecutivo de CCDH, Imran Ahmed, “la respuesta inicial visceral fue oh dios mío no hay barandillas”, haciendo alusión a que no hay medidas de protección dentro de estos chatbots IA que protejan a lxs adolescentes de las malas recomendaciones. Están expuestxs totalmente a ellas.

Pero que la ciencia lo haya confirmado no significa que no lo supiéramos ya. Y es que la propia OpenAI, la compañía que desarrolla ChatGPT, ha reconocido que su herramienta a veces falla al identificar signos evidentes de delirio y de otros trastornos psicológicos. También ha dicho que está trabajando en ello. Mientras tanto, la realidad es que estos chatbots no tienen ni la empatía ni la ética que puede tener un ser humano y confiar ciegamente en sus indicaciones es una locura. Es necesario mucho didactismo. La IA puede ayudarte o hundirte. Todo depende de cómo la uses.

Preferencias de privacidad