Londons felande AI

regent-street-london.jpg

Regent Street i närheten av Oxford Circus där polisen testade tekniken.

Londonpolisen har använt ansiktsigenkänning i realtid för att scanna av 8 600 människor i ett intensivt shoppingområde. Systemet hittade åtta personer som matchades mot polisens databas men bara en identifiering var korrekt.

Av de sju misslyckade matchningarna på Oxford Circus resulterade fem i felaktiga ingrepp. Polisen talade med individerna som flaggats av AI-lösningen och kunde konstatera att personerna inte var efterlysta. Den lyckade identifieringen ledde däremot till att en kvinna kunde gripas för våld mot tjänsteman.

– Resultatet talar emot polisens försvar att fördelarna överväger nackdelarna med tekniken och att de eventuella felaktigheterna i systemet justeras genom fysiska kontroller. Det här är en katastrof för våra mänskliga rättigheter, ett brott mot våra mest grundläggande friheter och en skam för vår huvudstad, säger Big Brother Watch, en brittisk ideell organisation som arbetar med integritetsskydd.

En talesperson för Londons poliskår motsätter sig kritiken.

– I området där vi använde LFR, Live Facial Recognition, satte vi upp en tydlig skyltning som varnade förbipasserande för att tekniken används. Allmänheten ska veta att vi är där och vi vill säkerställa att vi arbetar för att göra London säkrare.

LFR-tekniken som används i London är mer avancerad än de flesta andra då den direkt kan identifiera personer som blir filmade av kamerorna. Tidigare har foton från videokameror behövt matchas mot en databas med så kallade förbrytarfoton för att kunna känna igen en person.

Källa: Business Insider

5 mars 2020Uppdaterad 2 oktober 2023Reporter Fredrik AdolfssonsäkerhetFoto Adobestock

Voisters nyhetsbrev

Allt om digitalisering, branschens insikter och smartare teknik.

SENASTE NYTT

Stäng