En la era digital en constante evolución, la inteligencia artificial (IA) y los algortimos se han convertido en una herramienta poderosa para diversos sectores, y uno de los campos que está experimentando una transformación significativa es el ámbito policial. Pero surgen muchas dudas, pues ¿son seguros los algoritmos policiales? ¿cómo se aplica la IA en la policía? A lo largo de esta serie de noticias publicadas en nuestro blog descubriremos sus pros y sus contras, como se usa la IA en el ámbito policial y que nos queda por mejorar.
Aún así, debemos esperar hasta finales del 2023, para poder ver el texto definitivo de la Ley de la Inteligencia Artificial de la UE desarrollado por la Comisión, el Consejo y el Parlamento Europeo.
La intersección entre la inteligencia artificial y la aplicación de la ley ofrece tanto desafíos como oportunidades únicas para mejorar la eficiencia, la precisión y la efectividad de las fuerzas de seguridad en todo el mundo. Pero la IA debe aplicarse de la mejor manera sin vulnerar leyes ni derechos, y este es el principal problema al quee se enfrentan.
¿Qué es la Inteligencia Artificial (IA)?
La IA es un campo de la informática que se centra en la creación de sistemas y programas capaces de realizar tareas que normalmente requieren inteligencia humana. A través de algoritmos y modelos matemáticos, la IA permite que las máquinas aprendan de datos y experiencias previas, mejoren su rendimiento con el tiempo y sean capaces de tomar decisiones autónomas en situaciones específicas.
En lugar de seguir instrucciones rígidas y predefinidas, los sistemas de inteligencia artificial son capaces de adaptarse y ajustarse a diferentes situaciones, lo que les permite abordar problemas complejos y diversas tareas.
La IA abarca una variedad de enfoques, desde el aprendizaje automático (machine learning), donde las máquinas mejoran su rendimiento a través de la experiencia, hasta la inteligencia artificial basada en reglas lógicas en la toma de decisiones. Pero ¿podemos fiar nuestra seguridad y los recursos policiales a estas decisiones?
¿Son seguros los algoritmos policiales? - IA en la policía
Mientras se redacta la ley, y se analizan las más de 3.000 enmiendas que se han presentado a raíz de la publicación del futuro Reglamento de la Inteligencia Artificial, las diversas instituciones están haciéndose eco de los riesgos que puede provocar el uso de la IA en los ámbitos de los Fuerzas y Cuerpos de Seguridad del Estado (FFCCSE).
Por ejemplo, la FRA (La Agencia de la Unión Europea por los Derechos Fundamentales, por sus siglas en inglés) ha publicado un informe extenso en el que enumera los riesgos de usar esta forma de automatización en la toma de decisiones de algo tan clave como es la seguridad ciudadana.
El problema principal que enumeran es la discriminación y desigualdad que provocaría este tipo de decisiones basadas en anteriores actuaciones.
Primero, para entender este problema debemos conocer el concepto de «feedback loop«. En la inteligencia artificial el feedback loop o ciclo de retroalimentación es
como un ciclo de aprendizaje sencillo y repetitivo.
El algoritmo recibe información, aprende de ella, hace ajustes y vuelve a intentarlo. Al igual que enseñar trucos a un perro, el algoritmo mejora con el tiempo gracias a este proceso repetitivo de retroalimentación. De igual forma funcionan muchos videojuegos, Twitter o YouTube, es decir, das me gusta a algo, el algortimo saca un patrón de lo que te gusta, y te muestra cosas similares. Así de forma continuada y repetitiva.
¿Cómo afecta esto al ámbito policial?
Por lo tanto, moviéndonos en el sector de la seguridad, la policía puede encontrarse con el siguiente problema, producido por el algoritmo anteriormente comentado.
Si en una única zona se despliega una gran cantidad de fuerzas policiales, es posible que veamos un aumento en el número de intervenciones policiales. Por lo que el algoritmo interpretará que la situación es más problemática en esa área y, en consecuencia, se deben de asignar más recursos allí.
En contraste, en una región donde la presencia policial es limitada, habrá menos intervenciones registradas y el mismo algoritmo concluirá que la situación es menos problemática en esa zona, lo que podría resultar en una asignación insuficiente de efectivos en esas áreas.
Las contradicciones en la aplicación de la Inteligencia Artificial
Tal y como indica el informe «El principal objetivo de la predicción policial es identificar zonas de alto riesgo de crímenes para que la policía pueda tomar acciones con las que prevenir los ilícitos. Pero esos sistemas se basan en la premisa de que hechos criminales del pasado contienen patrones que ayudarán a predecir los del futuro».
«Sin embargo, décadas de investigación criminológica han demostrado las limitaciones de ese enfoque, en tanto que las bases de datos policiales no son censos completos de todos los ilícitos y no constituyen un ejemplo representativo».
Así pues, la FRA también denuncia la opacidad y el poco conocimiento existente de los modelos de IA que ya se están usando en las tomas de decisiones automatizadas en diferentes FFCCSE miembros.
La agencia destaca que en ámbitos tan cruciales como la aplicación de la ley o la libertad de expresión, no se debe utilizar este tipo de algoritmos sin una supervisión previa. Esto asegura que no contengan prejuicios y, en caso de que los tengan, se sometan a una auditoría que permita corregirlos.
¡Por si te interesa!
PREPÁRATE CON JURISPOL
CUMPLE TU SUEÑO, ENTRA EN LA POLICÍA
CURSO POLICÍA NACIONAL
¿CÓMO ADQUIRIR NUESTROS CURSOS?
Puedes adquirir nuestros cursos en la tienda, seleccionando si tienes interés en la opción online o presencial en algunas de nuestras sedes.