Sin comunicación no hay red criminal que pueda sostenerse. Y el trabajo de la policía consiste principalmente en captar e interpretar esas comunicaciones para detectar los delitos y detener a quienes los cometen. Pero estos últimos no son tontos y en los últimos tiempos han comenzado a utilizar una jerga digital basada en memes y emojis que la policía no es capaz de comprender. Sobre todo porque cambia constantemente. Sí, a veces los equipos policiales descifran parte de esos códigos secretos, pero rápidamente mutan en otros diferentes. De ahí que la policía australiana haya puesto en marcha una inteligencia artificial descifradora de jerga joven.
Y es que muchos de los iconos que empleas habitualmente pueden esconder muchas otras interpretaciones dentro de determinadas redes. Sí, tu lista de iconos fav podría hacer referencia a drogas, a armas o a agresiones sin que lo sepas. Y sin que lo sepa la policía. De todas formas, esta IA va mucho más allá. Según cuenta el periodista especializado en tecnología Marcos Merino, basándose en la declaración reciente de Krissy Barret, nueva jefa de la Australian Federal Police, “la IA de la AFP no se limita a traducir emojis. Forma parte de un conjunto más amplio de herramientas que buscan automatizar el análisis de comunicaciones digitales y detectar patrones de explotación infantil, terrorismo o cibercrimen”.
Además, y como ha explicado la propia Barret, la nueva inteligencia artificial policial también podría ser de utilidad para la distinción entre las imágenes generadas por IA y las imágenes reales, un verdadero quebradero de cabeza para las autoridades. Algo que los gobiernos del mundo están tardando mucho en legislar: el contenido generado por IA debería incluir cierto indicativo de su origen. Preferiblemente externo para que la gente pueda saber que lo que ve no es real. O, al menos, interno, en su código o en lo que quiera que sea, de manera que la policía tecnológica pueda identificarlo rápidamente como fake. Pero eso da para otro artículo.
Lo que está claro es que los delitos tecnológicos se tienen que enfrentar con tecnología. No hay otra. En palabras de Merino, “al auge del crimen facilitado por IA - desde los deepfakes hasta el fraude de identidad o la extorsión digital- ha obligado a la policía australiana a adoptar un enfoque más tecnológico. Los departamentos de cibercrimen trabajan mano a mano con científicos de datos, lingüistas y psicólogos digitales”. De lo contrario estarían ciegos. Podrían estar ante un delito sin percatarse en absoluto de ello. Por supuesto, esto reabre otra vez el eterno debate sobre el equilibrio entre seguridad y privacidad. Nada nuevo bajo el sol.
