EU mot igenkänning

Halva Ansiktet På En Kvinna Med Ansiktsigenkänningspunkter

Förbjud AI som används för ansiktsigenkänning i övervakningssyfte och som manipulerar mänskliga beslut. Det föreslår EU i en ny proposition.

–  AI-återförsäljare kommer vara extremt fokuserade på de här nya förslagen eftersom de kommer betyda att sättet som AI utvecklas på förändras fundamentalt, säger Herbert Swaniker, advokat på den multinationella byrån Clifford Chance.

Tuffa regler

Förslagen, som läckts innan de officiellt presenterats, innehåller tuffa regler mot AI-användning som bedöms ha en hög risk. Det handlar bland annat om algoritmer som manipulerar hur vi människor tycker och fattar beslut som skadar oss och AI som används för integritetskränkande övervakning eller för att sätta sociala poäng på människor.

Detta skulle kräva att varje land i EU upprättar ett system som kan se efter att reglerna efterlevs. De bolag som trots allt utvecklar AI som går emot EU:s föreslagna regler riskerar böter på uppemot 4 procent av sina globala intäkter.

Sådana så kallade högriskexempel kan vara AI som försöker förutspå sannolikheten för att en individ ska begå ett brott eller algoritmer som används i rekryteringssyfte. Vidare kräver EU-kommissionen att det ska finnas ett simpelt sätt att stänga av AI-lösningen om något går fel.

AI-lösningar som utvecklas för militärens räkning eller för myndigheter som använder det för att på olika sätt skydda allmänheten lär dock vara undantagna.

Samtidigt som dessa regleringar ska efterlevas, vill EU att Europoa ska fortsätta hänga med i den snabba AI-utvecklingen där USA och Kina redan har ledartröjan, med målet att AI ska bidra till mänskligt välbefinnande.

Kan slå fel

Men det finns de som tycker att de nya förslagen är otydliga och vaga. En av dem är Daniel Leafur, analytiker av EU-regleringar.

– Hur bestämmer vi vad som kan innebära en skada för någon? Och vem ska behandla detta?, twittrade han.  

The European Centre for Non-Profit-Law och som har bidragit till EU-kommissionens White Paper för AI, uttrycker också en oro.

– Det här sättet att sätta upp högriskexempel är i bästa fall slarvig, i värsta fall farlig. Regleringarna borde tydligare ställas i relation mot demokrati, lagar och mänskliga rättigheter.

Källa: BBC

16 april 2021Uppdaterad 2 oktober 2023Reporter Tim LefflersäkerhetFoto Adobestock

Voisters nyhetsbrev

Allt om digitalisering, branschens insikter och smartare teknik.

SENASTE NYTT

Stäng