Protón SEGURIDAD

La policía quiere ver los crímenes del futuro

Como en Minority Report, fuerzas policiales de todo el mundo quieren usar la inteligencia artificial para mejorar la seguridad de sus sociedades

La policía quiere ver los crímenes del futuro

La policía quiere ver los crímenes del futuro

Avatar del

Por: Axel Marazzi

Philip K. Dick se preguntó hace más de 60 años cómo sería el mundo si existiese una tecnología que permitiera saber por adelantado si un humano cometería un crimen. Así es como creó The Minority Report, un relato corto que años más tarde sería llevado al cine por Steven Spielberg, protagonizado por Tom Cruise. En el libro hay mutantes, llamados precogs, que pueden predecir el futuro y son utilizados por las fuerzas de seguridad para combatir crímenes y asesinatos antes de que se lleven a cabo.

Si bien se trata de un relato de ciencia ficción, la obsesión por predecir el crimen viene de larga data y remite a la identificación con chinches en un mapa de papel de los lugares en que se produjeron delitos. Esta práctica policial es la que permite de un vistazo identificar zonas en las que los crímenes se dan con mayor frecuencia.

Pero dado el engorro de mapear a mano, desde hace años departamentos de policía en todo el mundo invierten para obtener esta capacidad de diagnóstico y predicción, ya no a través de mapas de papel y chinches sino de algoritmos. Sin ir más lejos, la policía de Reino Unido quiere predecir los delitos violentos utilizando inteligencia artificial con la intención de que a las personas que sean identificadas algorítmicamente se las asesore y acompañe para evitar posibles conductas delictivas.

El sistema se llama National Data Analytics Solution (NDAS) y usa una combinación de inteligencia artificial y estadística para tratar de evaluar el riesgo tanto de que alguien cometa un crimen –o se convierta en víctima de uno–, así como la posibilidad de que alguien caiga en manos de redes de trata. El proyecto es llevado a cabo por la policía de Midlands con la participación de las fuerzas de Londres y de Manchester y se estima que estará listo para ser utilizado por todas las autoridades de Reino Unido en marzo de 2019.

Este tipo de desarrollos no son casos aislados de innovación tecnológica en seguridad. Hace tiempo que se está evaluando el uso de inteligencia artificial para predecir el accionar de potenciales delincuentes. Por ejemplo, PredPol es un sistema desarrollado por la Universidad de Santa Clara en California que fue creado para identificar qué puntos en la ciudad es probable que sufran de más robos, también basándose en estadísticas. Otro sistema, usado en Los Angeles, asigna un puntaje a variables relacionadas a condenas anteriores o si son miembros conocidos de una pandilla. Usando esta tecnología las patrullas cambian sus recorridos para vigilar de cerca a las personas "más riesgosas".

Volviendo a Europa, los Países Bajos utilizan otra herramienta que analiza los datos sobre delitos y los datos sociales en áreas específicas, como las edades de las personas, sus ingresos y  si tienen planes sociales. Esta herramienta, también, es usada para predecir en qué lugar de una ciudad es más probable que vayan a ocurrir delitos.

Como ha de esperarse, el uso de este tipo de soluciones presenta una gran cantidad de incógnitas filosóficas. ¿Es un criminal alguien que todavía no cometió un delito? Y si no lo cometiera, ¿significa que esta tecnología está equivocada? ¿Hay que dejarlo libre si los algoritmos avanzan tanto para llegar a tener un porcentaje mínimo de error? ¿Tendrán este tipo de tecnologías la transparencia necesaria para poder ser auditada por terceros?

No toda innovación es buena

Como era lógico, la aplicación de esta tecnología generó dudas entre el mundo de la tecnología y filosofía. De hecho un grupo de expertos del Instituto Alan Turing, uno de los más importantes de Inglaterra relacionado a la inteligencia artificial con sede en Londres, publicó un paper al respecto que si bien reconoce el valor de estos desarrollos, cuestiona parte de su lógica subyacente.

"Entre nuestras preocupaciones están los peligros éticos de una predicción inexacta (falsos positivos o negativos) dado el estado del arte de la vigilancia predictiva. Creemos que el modelo de riesgo predictivo debe someterse a una evaluación rigurosa de la efectividad y el impacto ético, y que se debe incluir un programa sólido de monitoreo y evaluación", escribieron desde el Instituto.

Martin Innes, director del Instituto de Investigación de Crímenes y Seguridad de la Universidad de Cardiff, Reino Unido, dijo que es "escéptico" en relación al funcionamiento del sistema a nivel individual. Para él la herramienta será más útil para ubicar a las comunidades en riesgo en general como pasa en los Países Bajos.

"Entre nuestras preocupaciones están los peligros éticos de una predicción inexacta," dijo un grupo de expertos.

En noviembre de 2018 la primera fuerza policial británica que incorporó capacidad predictiva decidió abandonar el proyecto luego de 5 años. La policía de Kent, que utilizaba la solución PredPol, consideró que a pesar de que la herramienta cumplió con las expectativas, su uso no resultó en una baja notable de incidentes delictivos. Otros motivos fueron el alto costo (unos US$100 mil al año) y la dependencia de una empresa externa. A lo que aspiran es a eventualmente poder desarrollar este tipo de soluciones de forma interna.

Las preguntas que deberíamos hacernos en este tipo de casos es: ¿está bien usar avances tecnológicos que están lejos de ser perfectos y que podrían afectar directamente a las personas que viven dentro de las sociedades? Después de todo, no sería la primera vez que una inteligencia artificial discrimine por los sesgos que tienen sus creadores. Pasó en Amazon, donde se creó un algoritmo para mecanizar la búsqueda de los mejores talentos y esta tecnología entendió que los hombres eran mejores y empezó a discriminar mujeres. Lógicamente ya fue dada de baja, pero ni siquiera Philip K. Dick se imaginó ese escenario.

En esta nota:

Comentarios