Fort Myers
7 de septiembre de 2021

Transformación de la policía predictiva

Jamie Guterman

El uso de las redes sociales en línea para identificar a sospechosos y posibles delincuentes forma parte de un impulso de las fuerzas de seguridad hacia la vigilancia con macrodatos y el análisis policial predictivo. Sin embargo, los críticos advierten de que el uso de la policía predictiva puede potenciar la discriminación racial en el sistema de justicia penal.

Una mujer, de espaldas a la cámara, lleva una camiseta de "Black Lives Matter". A su lado hay una cámara de vigilancia.

Fotografía de Michael B. Thomas para Getty Images.

En respuesta al brutal asesinato de George Floyd a manos de la policía de Minneapolis en mayo de 2020, estallaron en todo el país las protestas Black Lives Matter. Gracias a las redes sociales, los manifestantes tomaron las calles, exigiendo el fin de la brutalidad policial en una de las manifestaciones por la justicia racial más publicitadas y organizadas de la historia de Estados Unidos. Las redes sociales y la tecnología de vídeo fueron los catalizadores de las protestas de BLM, pero los departamentos de policía han utilizado estas mismas tecnologías para crear nuevas y peligrosas oportunidades de vigilancia. Allie Funk, analista principal de investigación de Tecnología y Democracia, explicó cómo los departamentos de policía utilizaron realmente las redes sociales para vigilar a los manifestantes y organizadores de Black Lives Matter. En Cookville (Tennessee), agentes del FBI de la Fuerza de Tarea Conjunta contra el Terrorismo (JTTF) utilizaron las redes sociales para identificar a varios organizadores de las protestas de BLM. Los agentes federales se presentaron sin previo aviso en los domicilios y lugares de trabajo de los organizadores para interrogarlos sobre sus publicaciones en Facebook y sus planes de protesta. 

El uso de las redes sociales en línea para identificar a sospechosos y posibles delincuentes forma parte de la tendencia de las fuerzas de seguridad hacia la vigilancia basada en macrodatos y el análisis policial predictivo. El Brennan Center for Justice de la NYU Law explica la policía predictiva como "el uso de algoritmos para analizar cantidades masivas de información con el fin de predecir y ayudar a prevenir futuros delitos". Tras el 11-S, el intercambio de información se convirtió en una prioridad. La Ley de Seguridad Interior de 2002 hizo que los fondos federales se destinaran a desarrollar medidas policiales predictivas locales y estatales para evitar otro atentado terrorista a gran escala. Se crearon centros de vigilancia, denominados "Centros de Fusión", para promover la comunicación abierta entre organismos e incluir datos públicos y privados, registros policiales, fotografías y vídeos, de las fuerzas del orden y de ciudadanos particulares. La vigilancia en nombre de la prevención de la delincuencia no hizo sino aumentar a medida que se desarrollaba el análisis predictivo, y las fuerzas del orden empezaron a asociarse con el sector privado para recopilar, almacenar y analizar datos. En última instancia, la policía confía en las herramientas de vigilancia del sector privado porque tienen menos trámites burocráticos; hay menos controles legales y requisitos de información sobre los datos recopilados de forma privada. [1]

Las fuerzas del orden de todo Estados Unidos emplean una plétora de programas privados y herramientas algorítmicas con la esperanza de utilizar la vigilancia policial predictiva para detener la delincuencia antes de que se cometa. Las herramientas estándar de vigilancia algorítmica utilizadas para obtener datos, tanto privadas como directamente de las fuerzas del orden, son los lectores automáticos de matrículas (ALPR), el software de vigilancia de redes sociales, la tecnología de reconocimiento facial y el análisis de redes sociales. En todas estas herramientas, la información se extrae de la fuente y se utiliza para trazar relaciones sociales, identificar sospechosos y predecir comportamientos futuros[2]. [2] Un ejemplo de éxito es el programa NOLA for Life de la ciudad de Nueva Orleans, que utilizó programas predictivos como Palantir, una empresa privada de análisis de datos que recopila, almacena y analiza datos para abordar la delincuencia desde la perspectiva de la salud pública. La ciudad cartografió todo, desde las probables víctimas de delitos hasta los autores de riesgo, pasando por los lugares de reunión de las bandas, e intervino con 29 programas diferentes de servicios sociales. Entre 2011 y 2014, Nueva Orleans experimentó una reducción del 55% en los asesinatos cometidos por grupos y bandas, y el uso de datos para fundamentar las estrategias de reducción de la delincuencia fue un factor crucial[3]. [3] Aun así, críticamente, el público no fue informado del uso de las tecnologías Palantir en la ciudad, y, a menudo, estas tecnologías se utilizan para dirigir medidas punitivas en lugar de como parte de una estrategia holística. El uso de programas de vigilancia privada también produce una inmensa oportunidad de abusos y problemas de privacidad. Además, los críticos advierten de que el uso de la policía predictiva puede, de hecho, potenciar la discriminación racial en el sistema de justicia penal.

A menudo, los defensores de las estrategias policiales predictivas señalan la naturaleza imparcial de los datos, alegando que su uso puede reducir los prejuicios raciales en el sistema de justicia penal porque "los números son neutrales". A primera vista, esto parece cierto: las pruebas demuestran que la delincuencia se agrupa en lugares y entre personas. Por ejemplo, en Boston, el 70% de los tiroteos de un periodo de tres días se concentraron en el 5% de la ciudad, y los datos ilustran que los autores de delitos violentos tienen más probabilidades de ser hombres, jóvenes y con antecedentes penales juveniles[4]. [4] Teniendo esto en cuenta, la introducción de información sobre dónde y quién ha cometido delitos en el pasado debería ser una evaluación práctica y objetiva para predecir delitos futuros. Sin embargo, no podemos olvidar que las estructuras algorítmicas se crean dentro de las jerarquías de poder y las instituciones existentes. 

Sarah Brayne, en su libro Predict and Surveil: Data Discretion, and the Future of Policing, explica el lado social de los datos escribiendo que "las bases de datos están pobladas por información recopilada como resultado de decisiones humanas, analizada por algoritmos creados por programadores humanos, e implementada y desplegada en la calle por agentes humanos que siguen órdenes de supervisores y su propia intuición" (Brayne 135). Los datos no se crean en el vacío: los moldean las personas que dan forma a su recopilación, despliegue y gobernanza. Dicho esto, los prejuicios humanos se cuelan en las estructuras algorítmicas utilizadas en la actuación policial. El programa Operación LASER de la policía de Los Ángeles es un ejemplo de herramienta policial predictiva que reforzó la discriminación racial existente en el sistema de justicia penal, al tiempo que se escudaba en la apariencia imparcial de los datos. El programa se puso en marcha en 2011 para centrarse en las personas con más probabilidades de cometer un delito, calculadas en función de los antecedentes penales, las tarjetas de entrevistas sobre el terreno, las multas de tráfico, las patrullas diarias y las interacciones "de calidad" con la policía, etc. A cada individuo se le asignaba una puntuación de "riesgo" y se le incluía potencialmente en una lista de delincuentes crónicos, que se enviaba a los departamentos de policía. Los detractores del programa expresaron su preocupación por la posibilidad de que se produzcan bucles de retroalimentación: si una persona interactúa con la policía, su puntuación aumentará, lo que justificará de hecho una mayor interacción con esa persona, y el ciclo se repite. Además, aunque los datos parezcan imparciales, todas las cifras que se introducen en el programa proceden de registros anteriores, lo que significa que los prejuicios policiales anteriores podrían seguir filtrándose en los conjuntos de datos. Tras la presión ejercida por la coalición STOP LAPD Spying, el inspector general del Departamento de Policía de Los Ángeles llevó a cabo una auditoría interna sobre el programa LASER y descubrió irregularidades en el sistema de "delincuentes crónicos". La auditoría expuso que casi la mitad de los designados como "delincuentes crónicos" tenían cero o un solo arresto y que las interacciones con los "delincuentes crónicos" carecían de consistencia. En 2019, el Departamento de Policía de Los Ángeles cerró LASER a la luz de la información de la auditoría. 

Las herramientas predictivas agravan las desigualdades al utilizar datos de lugares tradicionalmente sobrepolopolizados. Los algoritmos incorporan conjuntos de muestras sesgados que perpetúan una actuación policial cargada de racismo, y estas herramientas se están utilizando como una forma de "lavar tecnológicamente" el omnipresente problema de los prejuicios raciales en los departamentos de policía. Estos problemas deben resolverse no sólo con datos, sino también con la intervención personal, la formación y la reestructuración de nuestros departamentos de policía. Aun así, no se puede negar que los datos tienen potencial para reducir la delincuencia. Cuando se recopilan de forma equitativa, pueden utilizar eficazmente los recursos policiales para identificar a los autores de los delitos y trazar las tendencias de la actividad delictiva. Entonces, ¿cómo podemos maximizar los beneficios de los programas predictivos minimizando al mismo tiempo sus rasgos discriminatorios? 

Sarah Brayne ofrece estrategias integrales para cambiar la forma en que los departamentos de policía utilizan los programas predictivos, incluido el uso de datos para "vigilar a la policía". Brayne escribe que "si se invierte la mirada del vigilante, los datos pueden utilizarse para rellenar agujeros en la actividad policial, arrojar luz sobre problemas existentes en las prácticas policiales, supervisar la actuación policial y los índices de aciertos, e incluso estimar y potencialmente reducir los sesgos en las identificaciones policiales" (Brayne 143). Los datos pueden aprovecharse para identificar y rastrear errores y tendencias en la actuación policial, así como para medir los costes de tácticas específicas. Dicho esto, las estructuras jurídicas que regulan el uso policial de los datos, en concreto los datos recopilados de forma privada, deben ser más sólidas y centrarse en la transparencia. En su mejor forma, creo que podemos utilizar los datos para que la actuación policial sea más eficiente y equitativa. 

Además, Brayne hace hincapié en la necesidad de que los organismos encargados de hacer cumplir la ley frenen antes de implantar herramientas de evaluación algorítmica, y estoy de acuerdo con su afirmación de que "la responsabilidad de justificar el uso de big data y nuevas herramientas de vigilancia antes de su despliegue masivo debería recaer en los organismos encargados de hacer cumplir la ley" (Brayne 142). Brayne señala que el único estudio de LASER revisado por expertos fue realizado por alguien de la empresa que lo diseñó. El uso de herramientas de análisis predictivo masivo debe ir precedido de la evaluación de organismos independientes, foros comunitarios y la colaboración entre agentes interdisciplinarios, incluidos abogados y expertos comunitarios, así como policías y arquitectos de programas. Dicho esto, las propias tecnologías tienen la responsabilidad de desplegar programas de interés público. Una estrategia consiste en añadir cierto grado de aleatoriedad a los programas predictivos, enviando agentes a lugares con distintos niveles de riesgo para reducir el sesgo en los conjuntos de datos. La herramienta de predicción policial HunchLab hace esto y más; la base de datos del programa sólo incluye delitos registrados públicamente, dejando fuera la actividad delictiva menor que se correlaciona con la pobreza e implica una mayor discrecionalidad de los agentes y un posible sesgo en los lugares. 

En última instancia, estas estrategias ayudarán a reducir los sesgos de las estructuras algorítmicas. Aun así, no podemos reformar el actual sistema predictivo sin preguntarnos primero cuál es para nosotros el objetivo de una actuación policial eficaz. ¿Se trata de reducir los índices de delincuencia? ¿Mantener la seguridad de las personas? Una actuación policial eficaz va más allá de los límites tradicionales de la aplicación de la ley; incluye abordar las causas profundas de la delincuencia, como la pobreza y la educación, y reconocer cuándo es legítimamente necesaria la intervención policial. Por ejemplo, reformar la actuación policial significa reestructurar las respuestas de emergencia a las crisis de salud mental, disminuyendo la intervención policial y recurriendo en su lugar a profesionales sanitarios. Los programas predictivos tienen capacidad para mejorar nuestra sociedad y mantener la seguridad de nuestras comunidades. Sin embargo, para que esos objetivos se hagan realidad, es necesario utilizar la analítica para diseñar soluciones sociales y, lo que es más importante, para crear intervenciones específicas para quienes los datos consideran "de riesgo". A fin de cuentas, la participación de la comunidad, la transparencia y la colaboración entre sociólogos, miembros de la comunidad, abogados y diseñadores de programas serán vitales para transformar la policía predictiva de modo que funcione para todos.

Referencias

[1] Predecir y vigilar: Data, Discretion, and the Future of Policing, de Sarah Brayne, Oxford University Press, 2021.

[2] Miles Kenyon, "Algorithmic Policing in Canada Explained", The Citizen Lab, modificado por última vez el 1 de septiembre de 2020, https://citizenlab.ca/2020/09/algorithmic-policing-in-canada-explained/.

[3] "A quién vigilamos: Person-Based Predictive Targeting". The Rise of Big Data Policing: Surveillance, Race, and the Future of Law Enforcement, de Andrew G. Ferguson, New York University Press, 2020, pp. 49-51, 55.

[4] "Situaciones pegajosas". Bleeding out: the Devastating Consequences of Urban Violence--and a Bold New Plan for Peace in the Streets, de Thomas Abt, Basic Books, 2019, pp. 35-46.