Expertos tunden plan de seguridad de Ebrard: “Lo usan en países autoritarios”

Señalan que el Plan Ángel carece de propuestas reales de implementación legal y no incluye transparencia ni rendición de cuentas

Expertos tunden plan de seguridad de Ebrard: “Lo usan en países autoritarios”
Foto: rpp.pe

Marcelo Ebrard, uno de los aspirantes de la candidatura presidencial de Morena, presentó el pasado lunes 10 de julio su plan de seguridad llamado A.N.G.E.L (Avanzadas Normas de GeoLocalización y Seguridad), el cual incluye acciones como el uso de Inteligencia Artificial (IA), reconocimiento facial y el uso de drones.

 

Entre los ejes de su propuesta se contempla:

1.- Reconocimiento facial.

2.- Identificador de dónde se disparó un arma.

3.- Reconocimiento morfológico de delincuentes.

4.- Rastradeores de vehículos.

5.- Cámaras de seguridad que portarán los elementos de la Guardia Nacional.

6.- Drones para la seguridad.

7.- Base de datos con inteligencia artificial.

La estrategia tiene como base, dijo, usar experiencias que ha visto aplicadas en otras partes del mundo para mejorar la seguridad y frenar al México que se perfila a ser el más violento de la historia.

Vamos a disfrutar del México más seguro de la historia”, aseguró.

Uso de IA no es confiable para predecir conductas delictivas

 

Sin embargo, especialistas en materia de seguridad criticaron este plan del excanciller pues alertan que este tipo de medidas son usadas en países autoritarios como China, se criminaliza a la población y afecta los derechos humanos de las personas, en especial de los grupos más vulnerables.

Además —señalan—, el planteamiento carece de propuestas reales de implementación legal, no incluye transparencia ni rendición de cuentas para el tratamiento de datos biométricos y no comprende a los policías locales y estatales en la estrategia de combate al crimen, pese a que son el primer contacto de la ciudadanía ante un hecho delictivo.  

Estos puntos parecerían ficción, pero en realidad no lo son, sino que se trata de prácticas prohibidas en Estados Unidos y la Unión Europea y que son aplicadas en países autoritarios como China”, explicó Luis Fernando García, director ejecutivo de la Red en Defensa de los Derechos Digitales (R3D). 

Agregó que el reconocimiento facial y el uso de Inteligencia Artificial para predecir conductas delictivas no son confiables.

La evidencia científica revela que este tipo de tecnologías cometen errores de identificación de hasta 98%; es decir, se equivocan en la manera en que identifican a una persona y ya hay casos en los que personas inocentes han sido detenidas y sometidas a procesos ilegales por haber sido identificadas de manera errónea por este tipo de tecnologías”, apuntó.

Y agregó: “Esto es preocupante porque los “errores son disparejos” y se presentan, sobre todo, en contra de personas afrodescendientes, de tez morena o personas trans, lo cual hace que poblaciones que ya son vulnerables a discriminación sean revictimizadas por este tipo de sistemas, como lo es el reconocimiento facial”.

Espionaje, otro factor a considerar

Otro riesgo, dice el activista, es que la tecnología pueda ser usada para “fines autoritarios, cometer abusos y reprimir protestas; son incompatibles con los derechos humanos, con la democracia, y son anticonstitucionales porque la vigilancia masiva e indiscriminada contra la población no tiene una base legal”. 

A esto se suma otro factor ya documentado, como lo es el espionaje por parte del Ejército en contra de periodistas y activistas con Pegasus, un software utilizado de manera ilegal en los sexenios de Felipe Calderón, Enrique Peña Nieto y Andrés Manuel López Obrador.

Si el Ejército espía con Pegasus, que es una tecnología más focalizada, con la propuesta de Ebrard sería “llevar eso a la máxima potencia”, porque con “un sistema de vigilancia masiva y autoritaria como esta, prácticamente todas las actividades públicas de la población estarían siendo monitoreadas, registradas, estudiadas por la Guardia Nacional, prácticamente el Ejército, que no rinde cuentas, lo cual lo haría más grave”, alertó.

Además, tampoco sería viable para un país como México. 

Dada la colusión entre el Estado y la delincuencia organizada pondría a la población en grave riesgo de ser vulnerada y afectada en su seguridad, privacidad, integridad física, su patrimonio, por autoridades con acceso a esa tecnología”, advirtió García.

Transparencia y rendición de cuentas falta en el proyecto de Ebrard

Por su parte, Lisa Sánchez, directora de México Unido Contra la Delincuencia (MUCD), agregó otro elemento: la propuesta de Ebrard Casaubón no incluye a los policías municipales y estatales, quienes realizan el grueso de las detenciones y son el primer respondiente; es decir, son el primer auxilio a las víctimas, los primeros en realizar el resguardo de escenas del crimen y de evidencia y quienes llenan los informes policiales homologados que significan los insumos al Ministerio Público para iniciar una investigación. 

Sin policías no habría estrategia digital y de seguridad que valiera porque no tienes quién instrumente esto de manera correcta y desde un paradigma más democrático relacionado con proximidad, control máximo del uso de la violencia, mediación de conflictos”, advirtió.

Otra gran ausencia, agrega Sánchez, es la transparencia y la rendición de cuentas. Gracias a la filtración de Guacamaya, con el hackeo a la Secretaría de la Defensa Nacional, se pudo comprobar que cuando hay participación de uno de sus miembros en un homicidio, “el Ejército sí tiene en su posesión en 73% de los casos información sobre el tipo de armas utilizadas y el número de disparos perpetrados, pero que no reportan ninguna de las instituciones militares y civiles que se dedican a la prevención del delito y la violencia”. 

Sin embargo, esa información no es pública. 

A pesar de que la propuesta buscaba ser innovadora, disruptiva porque utiliza Inteligencia Artificial, solo es una herramienta que estaría en manos de alguien y ese alguien que la maneje es más importante que la propia herramienta”, dijo. 

A esto hay que sumar que la Inteligencia Artificial también tiene sesgos, pero el perfilamiento es estigmatización. 

Por ello, estos mecanismos “no terminan reduciendo el delito, sino aumentando el contacto de poblaciones pobres con las fuerzas de seguridad que con los sistemas de justicia”.

Una propuesta como esta, concluye la especialista, tendría como consecuencia “no que tuviéramos menos delitos, sino más juventudes criminalizadas”.  

Con información de Expansión Política y Animal Político

MSA