El aberrante programa que decide si eres un potencial criminal por la forma de tu rostro

La Universidad de Harrisburg (Estados Unidos) ha anunciado un programa de reconocimiento facial presuponiendo que la forma de tus rasgos dice algo de tu personalidad

En el siglo XIX analizar las formas y medidas de los rostros de las personas estaba de moda. El predominante racismo de la época victoriana, precursora del colonialismo más rancio, unido a la emergencia de la tesis darwinistas y sus implicaciones sociales, parecían el caldo de cultivo perfecto para la aparición de pseudociencias como la eugenesia o la frenología, es decir, la ciencia que perseguía determinar la maldad o bondad natural en un individuo a partir de las facciones del rostro y medidas del cráneo. No hace falta ser muy perspicaz para entender que estas pseudociencias señalaban a las “razas primitivas” o a individuos con problemas de salud mental como las más propensas al asesinato, las violaciones o la ociosidad estableciendo una firme barrera con el hombre blanco europeo y protestante que sería una especie de salvador de la civilización y la moral.

Pues bien, aunque parecía que todos esos prejuicios absurdos habían quedado atrás, el desarrollo de algoritmos de reconocimiento facial y su creciente aplicación en cada vez más ámbitos de nuestra sociedad ha propiciado la aparición de auténticos despropósitos que como ocurría hace más de un siglo pretenden venderse como ciencia. Eso es exactamente lo que podría haber ocurrido con el reciente comunicado de la Universidad de Harrisburg (Estados Unidos) en el que se anunció la inminente publicación de un estudio en la revista Springer Nature. El mismo consistiría nada más y nada menos que en un programa de reconocimiento facial que determinaría las probabilidades de un individuo de desarrollar una conducta criminal, es decir, de si sería bueno o malo para la sociedad y sus conciudadanos. Eso sí, sin caer en cuestiones raciales que la cosa no está para bromas.

"Con una precisión del 80% y sin prejuicios raciales, puede predecir si alguien es un criminal basándose únicamente en una imagen de su cara. El software está destinado a ayudar a la policía a prevenir el delito”, afirmarían los autores de la inteligencia artificial que habrían definido como una “red neuronal profunda” que ayudaría a la policía a prevenir un delito. Algo así como en la película de Minority Report pero en plan 2020 y con un tufo profundo a herramienta de control social. “Al automatizar la identificación de posibles amenazas sin prejuicios, nuestro objetivo es producir herramientas para la prevención del delito, la aplicación de la ley y para que las aplicaciones militares se vean menos afectadas por los prejuicios implícitos y las respuestas emocionales”, añadía la polémica nota de prensa de la universidad. Sin embargo, y como era de esperar, el revuelo no se ha hecho esperar.

Como explica un artículo de El Mundo una coalición de 1.700 investigadores se han sumado a una carta pública en la que condenan el estudio argumentando que estaría basado casi por entero en premisas y teorías pseudocientíficas ampliamente desacreditadas en las últimas décadas como, por ejemplo, las tesis del criminólogo italiano del siglo XIX Cesare Lambroso, uno de los precursores del darwinismo social y la frenología. De hecho, Lambroso creía que la criminalidad era algo hereditario por lo que habría linajes y etnias más propensas a la delincuencia que otras, ¿no os suena a ciertos discursos del fascismo italiano del siglo XX? Es más, los expertos señalan que la creación de algoritmos que reproducen los sesgos de quienes los crean ya habrían creado problemas de discriminación por raza, clase o género. Un ejemplo notable en este sentido fue la creación de un software similar en la Universidad de Jiao Tong de Shanghai o el de varios investigadores de Stanford para detectar la homosexualidad.

Aunque pudiera parecer mentira, las mismas falacias pseudocientíficas que dominaron la política y la sociedad en siglos pasados continúa muy presente incluso entre miembros de la comunidad científica. Al final, por mucho que el ser humano desarrolle tecnología cada vez más precisa de nada servirá si el objetivo de la misma y el uso que se le da continúa siendo el equivocado. Las herramientas de reconocimiento facial podrían ser muy útiles en casos concretos pero su aplicación a gran escala con la excusa de prevenir el crimen implica una vulneración de un principio tan básico en cualquier democracia como la presunción de inocencia y el derecho a la intimidad. Por suerte, la revista Springer Nature ha respondido ante la indignación de la comunidad científica anunciando que no hará público el estudio. Nadie lo echará de menos. 

CN