Adoptada para los Juegos Olímpicos de París 2024, la vigilancia algorítmica nunca ha sido probada

Adoptada para los Juegos Olímpicos de París 2024, la vigilancia algorítmica nunca ha sido probada

IEl 24 de enero, el Senado aprobó, luego de acaloradas discusiones, el artículo 7 del proyecto de ley sobre los Juegos Olímpicos, que autoriza con carácter experimental el despliegue de cámaras acopladas a sistemas algorítmicos de detección. Herramientas capaces, según sus impulsores, de detectar movimientos de multitudes, equipajes abandonados o comportamientos sospechosos. El corazón del debate se centró, y esto es bastante normal, en los principales riesgos que la banalización de las tecnologías de vigilancia supone para la privacidad. Pero otro elemento, aunque crucial, apenas fue mencionado: la eficacia de estas herramientas presentadas como «inteligentes».

Lea también: Artículo reservado para nuestros suscriptores El Senado aprueba por amplia mayoría el proyecto de ley sobre los Juegos Olímpicos con numerosas medidas de seguridad

Experimentación: el término sugiere una aplicación científica supervisada y limitada en el tiempo. Una prueba a tamaño real, cuyos resultados serían escudriñados con total transparencia por expertos, para determinar si la tecnología es actual, útil, respetuosa con la privacidad y con el presupuesto asignado.

En la práctica, la década de “experimentos” –ya– en videovigilancia aumentada muestra que sistemáticamente ocurre lo contrario. En 2016, la SNCF está probando cámaras «inteligentes» para detectar ataques. Nunca se comunicarán los resultados del experimento.

En 2019, el ayuntamiento de Niza afirma haber realizado pruebas de cámaras de reconocimiento facial que superaron el 100% de las pruebas de identificación. Seis meses después, la Comisión Nacional de Informática y Libertades critica duramente este anunciado «éxito», cuyos detalles no se han hecho públicos, lo que no permite, según la institución, teniendo “una visión objetiva de este experimento [ni] una opinión sobre su eficacia. Desde entonces, la ciudad ha recurrido a otra tecnología, sin reconocimiento facial.

En 2020, la RATP “experimenta” durante unos meses la detección automática del uso de mascarilla en el metro. Se explica hoy en Mundo no haber seguido, debido a una “tasa de detección promedio del 89%” quien se quedo “inferior a las observaciones realizadas en el campo”.

Promesas de una herramienta ultraeficiente

En el extranjero, donde se han realizado pruebas a gran escala en los Estados Unidos y el Reino Unido, a veces se han revelado datos más detallados. Elaboran una evaluación muy pobre de la utilidad de estas tecnologías. En 2017, un experimento de detección de rostros en el Carnaval de Notting Hill en Londres terminó en un fracaso casi total, con muchos «falsos positivos»: la gente declaró erróneamente. En 2021, una auditoría del gobierno en Utah, EE. UU., emitió un informe muy crítico sobre un dispositivo de CCTV ‘inteligente’ comprado por la policía del estado a la empresa Banjo dos años antes. .

La auditoría mostró que la empresa, que entre tanto había perdido su contrato después de que la prensa revelara los vínculos de su fundador con el Ku Klux Klan, había muy exagerado lo que podría hacer su sistema de detección de incidentes en tiempo real. Cegada por las promesas de una herramienta de alto rendimiento, la policía de Utah había comprado el equivalente en seguridad de un avión detector de petróleo, que nunca detectó ningún delito.

Lea también: Artículo reservado para nuestros suscriptores Aulnay-sous-Bois utiliza videovigilancia aumentada, pero «no quiere que el modelo chino tenga ningún control»

Estos precedentes no parecen haber desanimado a los decisores públicos, ni al otro lado del Atlántico ni en Francia. En Chicago como en Toulouse, Metz, Valenciennes, o en ciudades más pequeñas, se multiplican los “experimentos” con tecnologías de videovigilancia “inteligentes”. Con grandes diferencias entre los tipos de herramientas. Para la detección de incendios, por ejemplo, la tecnología está bien establecida: las cámaras térmicas, como el software de detección de humo en imágenes, funcionan. Pero cuanto más prometen las cámaras ser capaces de detectar y analizar el comportamiento humano, más disminuye su confiabilidad.

Fantasía policial predictiva

¿O es precisamente en estos últimos Cuál es el enfoque del dispositivo elegido para los Juegos Olímpicos de París: excluye el reconocimiento facial pero se centra en la detección “hechos anormales, movimientos de multitudes, objetos abandonados o situaciones que presuman la comisión de delitos”.

Cursos en línea, cursos nocturnos, talleres: desarrolle sus habilidades

Descubrir

Una fantasía policial predictiva que también tiene sido objeto de una serie de «experimentos» en los últimos años. En el aeropuerto de Schiphol en Amsterdam, en particular, donde nunca se han comunicado los resultados de una «prueba» lanzada en 2014 y discretamente detenida desde entonces. En París, en la estación de Châtelet, la RATP había desplegado en 2017 una solución para la detección automática de «eventos anormales», nuevamente detenido sin un informe público.

Todos estos dispositivos que prometen detectar un plan de ataque utilizan una combinación de tecnologías conocidas, analizan imágenes o datos. Junto con el aprendizaje automático, la tecnología que permite que un programa analice grandes cantidades de datos para deducir vínculos entre diferentes elementos. Las limitaciones y supuestos científicos cuestionables de estas herramientas están bien documentados. Incluso el software más avanzado es incapaz de diferenciar entre equipaje olvidado y abandonado, o entre alguien esperando y alguien esperando.

Más preocupante aún, las tecnologías que prometen ser capaces de identificar criminales o terroristas listos para actuar utilizan todos los sistemas de detección de estrés. O el mismo principio operativo que los polígrafos, o «detectores de mentiras», cuya fiabilidad ahora está ampliamente desacreditada.

Ninguna de estas tecnologías ha podido demostrar su eficacia, a fortiori en tiempo real. ¿Cómo podrían hacerlo, cuando todavía no hay consenso sobre la utilidad de la videovigilancia “clásica”, que se ha desplegado a gran escala durante veinte años?

La vergüenza de los ecologistas de Lyon sobre la videovigilancia

El prefecto de la región de Auvergne-Rhône-Alpes, Pascal Mailhos, pide desde hace varios meses un acuerdo para prever el traslado de cámaras de videovigilancia de la ciudad de Lyon a la sala de mando de la policía nacional. Instalado en la localidad vecina de Villeurbanne (Ródano), este sistema permite a la policía tomar el control de las cámaras municipales en caso de hechos graves. Los ecologistas electos se niegan a hacerlo alegando una auditoría para “evaluar la cuestión de los usos”.

La ciudad de Lyon tiene 571 cámaras de vigilancia, con un centro de supervisión municipal. La mayoría ecologista ha sumado seis cámaras nómadas y anuncia que adquirirá seis más en los próximos meses, pero no tiene intención de ir más allá. «El Tribunal de Cuentas nos pide que evalúemos las políticas públicas, seguimos los pasos del Tribunal de Cuentas»justificó Grégory Doucet, alcalde de la ciudad, el 6 de julio, en el preámbulo de un consejo municipal asignado a la mejora de la policía municipal.

Visto desde la prefectura, la auditoría sobre el uso de cámaras parece un pretexto, destinado a postergar el desarrollo de la videovigilancia. “Tenemos una visión muy clara y pragmática en materia de seguridad. Hago de la tranquilidad pública una prioridad”, aseguró sin embargo Grégory Doucet, durante el consejo municipal. El intendente ambientalista dice estar de su lado, al tiempo que recuerda que la seguridad es principalmente misión soberana del Estado. “Hay un interrogante sobre la garantía del equilibrio entre la seguridad y el respeto a las libertades públicas. No queremos reemplazar los recursos humanos con cámaras»., reconoce Mohamed Chihi, oficial adjunto de seguridad de la ciudad de Lyon, durante una conversación al margen del consejo. El ejecutivo municipal permanece en una incómoda ambivalencia sobre el tema de las cámaras de videoprotección, dividido entre su versión oficial sobre el buen manejo de los equipos y su reticencia en principio a la vigilancia generalizada, sin asumirla abiertamente.