Un estudio confirma que la ultraderecha usa los videojuegos para captar adolescentes

Utilizan técnicas de comunicación que evaden las políticas de moderación

Es una de las cosas más raras que estamos viviendo últimamente: muchxs adolescentes, que históricamente solían tirar más hacia lo punk y lo revolucionario, están adoptando posturas cada vez más conservadoras. Y aunque la explicación debe ser muy compleja, y la sabremos cuando se analice todo en un futuro, hay un factor clave que es fácil reconocer: la ultraderecha está ocupando los espacios en los que lxs adolescentes pasan más tiempo. Eso incluye las redes sociales, las plataformas tipo Twitch con discursos como el de El Xokas y, según acaba de confirmar una nueva investigación, los videojuegos.

Publicado en la revista especializada Frontiers in Psychology, el estudio revela que “extremistas de extrema derecha están utilizando plataformas de videojuegos en directo para atacar y radicalizar a jugadores adolescentes”. Saben que están ahí. Saben que echan horas dentro de esos mundos. Y saben que son más vulnerables que lxs adultxs a los mensajes que puedan soltarles. Además, el paper de la investigación muestra que el target principal de estos grupos son los adolescentes varones. Y no es difícil imaginar por qué: son más susceptibles a los discursos antifeministas que las mujeres.

Es una campaña en auge. En palabras del doctor William Allchorn, “ha habido un esfuerzo más coordinado por parte de organizaciones de extrema derecha para reclutar jóvenes a través de eventos de videojuegos que surgieron durante el confinamiento”. A partir de ahí, pasan a formar parte de la esfera de influencia de estos grupos, principalmente a través de canales en Discord o grupos de Telegram. Y sí, tanto los videojuegos online como estas plataformas cuentan con sus políticas de moderación y demás historias, pero la manipulación llega en ocasiones en formatos difíciles de identificar y de censurar.

“Los moderadores afirmaron sentirse abrumados por el volumen y la complejidad del contenido dañino, incluyendo el uso de símbolos ocultos para eludir palabras prohibidas que serán detectadas por las herramientas de moderación automatizadas. Por ejemplo, una cadena de símbolos unidos para representar una esvástica”, cuentan desde The Guardian. Para que luego digan que no son neonazis. Que simplemente son antiwokes. Ante esto, parece que cada vez más plataformas confían en la inteligencia artificial para detectar estos contenidos. De todas formas, la clave aquí es la educación.

O se divulgan los valores de tolerancia o tendremos una generación ultraderechizada.