Tus antecedentes y tu actividad en redes sociales pueden delatarte antes de cometer otro delito

Minority Report Precog 640x360

Si piensas en la película ‘Minority Report’, probablemente te vengan a la mente dos avances tecnológicos importantes: uno es el reconocimiento gestual (algo en lo que se está trabajando bastante) y el segundo sería el concepto de «PreCrimen», que vendría a ser el saber que un crimen va a tener lugar antes incluso de que éste suceda. En la película son tres mutantes los que tienen visiones. Para nosotros, y a falta de mutantes, ¿por qué no usar sofisticados algoritmos?

En la Metropolitan Police de Londres se ha llevado a cabo un programa piloto con la colaboración de Accenture que ha durado varias semanas. En este periodo de tiempo han estado probando un algoritmo que utiliza el historial criminal de los miembros de las principales bandas de crimen organizado de la ciudad y lo mezcla con el historial en las redes sociales de cada uno de ellos y otros datos que no han llegado a trascender.

Accenture cree que combinando el historial criminal de una persona y la información de sus redes sociales, puede obtenerse una probabilidad de que reincida

¿El objetivo? Saber cuál será el que más probabilidades tiene de cometer un delito con el fin de poder distribuir mejor los recursos que tienen disponibles en los distintos cuerpos de policía. Si bien no han dado muchos detalles sobre cómo funciona el sistema, sí que han dado algunos ejemplos: si una persona dice algo negativo sobre algún miembro de una banda rival (o de la suya propia), quedaría registrado como tal dentro de los sistemas de la policía y se procesaría con dicho algoritmo.

¿Y funciona? Bueno, respecto a eso parece ser que nos quedaremos con la intriga. Lo que han hecho ha sido analizar todos estos datos que comentábamos correspondientes a un periodo de cuatro años. Después aplicaron el algoritmo para intentar predecir lo que ocurriría en el quinto y lo compararon con lo que realmente ocurrió. Por ahora los resultados no son públicos y parece que todo quedo en eso, un experimento piloto.

Cada vez se ven más iniciativas como ésta

Algo parecido, aunque con una aplicación distinta, está en plena fase de pruebas en Singapur. En este caso, y también con Accenture, se analiza el vídeo en directo que se recibe desde diversas localizaciones para detectar «preocupaciones para la seguridad pública». No sólo se detectan problemas que están sucediendo sobre la marcha, sino que además se aplica un «análisis predictivo» con el que son capaces de actuar antes de que se produzcan atascos, inundaciones u otras amenazas.

Y no solo hablamos de iniciativas actuales, sino también de algunas que tienen ya casi cuatro años. Richard Berk, criminólogo y profesor de la Universidad de Pennsylvania, ha diseñado un algoritmo que intenta detectar cuáles de las personas que están en libertad condicional tienen más posibilidad de reincidir o, peor aún, de ser asesinado, y todo ello a partir de un histórico de más de 60.000 delitos. Su software se utiliza ya en varios lugares de Estados Unidos, como Philadelphia, Baltimore y Washington DC.

Pero Berk ya avisa de que no es tan sencillo como vemos en las películas. Para empezar, el algoritmo tiene que ser personalizado en función de a quién se aplica (por ejemplo, una banda callejera) y a qué crímenes se refiere (no es lo mismo asesinato, robo o asalto). Los resultados, según dicho profesor, son bastante aceptables: «De la gente que disparará o va a ser disparada, el algoritmo predice dichos finales 75 veces de cada 100».

Berk compara estos algoritmos de anticipación de crímenes con lo que ocurre con el pronóstico del tiempo: «algunas veces te vas a equivocar, como con el tiempo, pero el objetivo es reducir esas equivocaciones». Eso sí, reconoce que todavía estamos lejos de ver un sistema tan avanzado como el de ‘Minority Report’ que, gracias a los precogs, tenía una tasa del 100% de aciertos.

Fuente: Xataka


Publicado

en

por