‘Deepfake’ en el porno: el destroza vidas de famosas y chicas jóvenes

Famosas y streamers han sufrido suplantaciones virtuales de identidad que hacen sentir fatal a sus víctimas

Alguien te envía un link, te dice que sales en él. Y resulta que es un vídeo sexual donde apareces tú. Pero nunca has grabado ese vídeo, ni siquiera identificas a los hombres que aparecen contigo, con lo cual que tampoco ellos te han grabado porque nunca has estado allí. Una angustia se apodera de tu estómago cuando empiezas a imaginar que el vídeo puede estar rodando entre desconocidos y, peor aún, entre conocidos. ¿De dónde ha salido ese rostro idéntico al tuyo? Es exactamente lo que consigue la tecnología deepfake, elaborada con Inteligencia Artificial, en el porno: dar movimiento a una fotografía con tal que, incrustando su cara en otro cuerpo, parezca que esa persona que está ahí eres tú. Y eso destroza vidas.

Aunque, con la tecnología actual (que cada vez es más afinada), seguramente puedas darte cuenta de que se trata de una imagen falsa -algo más fácil de suponer en el caso de famosas-, las deepfakes tienen un alto poder destructivo. Emma Stone, Scarlett Johansson o Greta Thunberg son algunas de las famosas que han sufrido deepfake, pero el reciente caso de la streamer QTCinderella, que explicó entre lágrimas que lo había sufrido, tuvo un gran impacto en las redes. La streamer explicó recientemente a El País que verse así en internet es “como sentirse violada”. “No debería ser parte de mi trabajo tener que pagar dinero para que eliminen estas cosas”, añadió.

Los deepfakes son un peligro para la seguridad, muy fáciles de crear y capaces, por ejemplo, de hacer creer a alguien que una declaración es de un presidente de un país cuando a lo mejor es cualquier otra persona. Pero el daño es más profundo y personal en el caso del porno, que se multiplica a diario y es muy fácil de hallar en la red. Cada seis meses, el número de deepfakes se duplica y acaparan ya más de 130 millones.

La falta de regulación legal de la Inteligencia Artificial, además, comporta una gran dificultad a la hora de denunciar, investigar o incriminar a quien haya creado deepfakes porno. “Se crea una falsa realidad, por lo que no se puede acusar de revelación de secretos, sino de crear una imagen realista que perjudica a la integridad moral y al derecho a la propia imagen”, explicó a la cadena Cope el abogado Borja Adsuara.

Por tanto, aunque no esté regulada la propia tecnología, sí que lo está el delito contra la intimidad o contra la integridad moral. Aunque la imagen sea una copia y no real, un juez puede determinar que daña tu intimidad o tu integridad moral por el efecto que puede tener. Pero, más allá de las consecuencias legales, ¿cómo se podrá regular el uso de las deepfakes porno para destrozar vidas, un caso aún menos controlable que la pornovenganza?