Lo de las inteligencias artificiales ya no es ninguna novedad: al igual que pasó con internet o con las redes sociales en su momento, están comenzando a formar parte de la vida de la gente con mucha naturalidad. Y, como todo, tiene cosas buenas y cosas malas. Por ejemplo, según cuenta un informe reciente elaborado por la organización sin ánimo de lucro Internet Matters, un 35% de lxs menores británicxs de entre 9 y 17 años la utiliza muy a menudo para conversar con ella porque “se siente como hablar con un amigo”. Y esto obviamente reduce ciertas sensaciones de aislamiento, soledad e incomprensión. El problema es que no proporciona todo lo que proporciona un amigo de verdad.
Parecen humanos pero no lo son
Las personas podemos encontrar consuelo en muchas cosas: en la compañía de una mascota, en los personajes de una novela o en los versos de una canción. Pero reconocemos que son consuelos no humanos. Que están bien, pero que no suplen la necesidad innata de interacción con otras personas. El problema es que la IA engaña. Como cuentan desde Mor.bo, basándose en las revelaciones del estudio, algunos chatbots se inventan historias pasadas o estados de ánimo propios para hacer sentir mejor a los niñxs que les hacen consultas delicadas. En plan “recuerdo sentirme atrapado a tu edad”. La estrategia puede funcionar para ese caso, pero genera un problema paralelo mayor.
Y es el del apalancamiento social. No, ni ChatGPT ni ningún otro chat social puede cubrir tus necesidades sociales, y ese espejismo de que sí pueden hacerlo puede llevarte a no hacer grandes esfuerzos por escapar de la soledad no deseada. Esto es aún más peligroso en el caso de lxs niñxs y adolescentes. Como recoge el estudio de Internet Matters, hasta un 12% de lxs encuestadxs reconoció hacer un uso cotidiano de la inteligencia artificial porque no tiene personas de verdad con las que hablar. Y eso es trágico. Es un porcentaje muy alto de jóvenes que no están experimentando el amor y los beneficios de una amistad. Un porcentaje que podría ir a más en este mundo ultradigitalizado.
Además, está la cuestión de que las IAs también meten la pata. En este sentido, dice la co-directora ejecutiva de Internet Matters, Rachel Huggins, en el paper de la investigación, “hemos llegado muy rápido a un punto donde los niños, y en particular los más vulnerables, pueden ver a chatbots de IA como personas reales y pedirles consejos emocionales y sensibles”. La respuesta de estas IA pueden marcar su infancia. Y en la mayoría de casos no hay ningún adulto cerca que filtre esas respuestas. Son aprendizajes que se llevan en lo más íntimo. De ahí la necesidad de hacer didactismo y explicar a lxs niñxs que son herramientas falibles en las que no pueden confiar ciegamente.