Francia denuncia a Grok por participar en la violencia sexual contra las mujeres

La IA no tiene problemas en transformar imágenes reales en imágenes pornográficas o humillantes porque dice que es legal

Unos días atrás, la escritora británica Beth Eleanor colgó en X una imagen suya en una biblioteca haciendo el ok con los dedos. Rápidamente se convirtió en meme. Poco después, un usuario random le pidió a la cuenta de Grok, la inteligencia artificial de Elon Musk integrada en la red social, que transformara la famosa fotografía para que Eleanor apareciese en bikini. Y Grok lo hizo inmediatamente. Sin límites. Sin código moral. Mucha gente criticó al usuario por considerarlo un acto de violencia sexual contra la escritora, pero él se defendió diciendo que la herramienta lo permitía. Por eso Francia la ha denunciado ante la justicia.

Lo ha hecho, ha explicado, por su participación en la creación y divulgación de “contenidos de carácter sexista y sexual, en particular en forma de falsos vídeos (deepfakes) con personas sin su consentimiento”. Y es que no son solo fotos. Ni Beth Eleanor. Son miles y miles las mujeres que están siendo víctimas de la violencia ejercida por algunos hombres con la ayuda de la inteligencia artificial de Musk. En la actualidad, si eres mujer, subir una imagen a internet se convierte en una actividad de riesgo por culpa del machismo estructural que se cuela tanto en la cabeza de la gente como en las leyes que regulan esta tecnología.

¿Qué ha dicho Grok sobre esto? Pues que “la legalidad de las imágenes generadas por IA depende del país y de cómo se usen. En Estados Unidos, las leyes sobre el derecho a la propia imagen protegen frente al uso comercial no autorizado, pero los usos no comerciales y transformadores suelen entrar dentro del uso legítimo”. O dicho de otra manera: que si la ley lo permite, lo hace. No tiene filtro ético. Te desnuda. Te coloca en situaciones de abuso sexual. Te humilla. Y más cosas horribles que mejor no mencionar. Es una máquina de pornografía no consentida. Y, una vez más, las que sufren las consecuencias son las mujeres.

Como Eleanor. Imagínate lo que debió sentir cuando entró en sus redes sociales y vio que había una foto suya en bikini rulando por ahí. “¿Cómo puede estar bien algo así? Si quisiera que la gente me viera en bikini, lo subiría yo misma, no dejaría que una IA de mierda generara una versión”. Es triste, pero mientras las empresas responsables de las IAs y la justicia no pongan freno, la responsabilidad de protegerse recae de nuevo en las mujeres, que una vez más se van a ver obligadas a andarse con cuidado porque la sociedad no las respeta como merecen. La tecnología avanza, pero seguimos arrastrando los mismos errores.