AI Act genomröstat i EU-parlamentet – detta innebär den nya regleringen

Domarklubba, Eu Flagga, Robothand; Ai Act, Innovation, Reglering

EU-parlamentet gav i veckan grönt ljus för den nya regleringen AI Act. Med den kommer AI att bedömas och regleras utifrån fyra olika riskkategorier. Även om vägen har varit lång och brokig är förhoppningen nu att AI Act ska leda till ett EU som visar större respekt för mänskliga rättigheter, samtidigt som innovation stimuleras.

Europaparlamentet och EU-länderna kom redan i december 2023 överens om förordningen AI Act, eller rättsakten om artificiell intelligens. I veckan blev överenskommelsen officiell när ledamöterna i EU-parlamentet röstade igenom förslaget med 523 röster för, 46 emot och 49 nedlagda röster.

– Vi har äntligen världens första bindande lag om artificiell intelligens, för att minska riskerna, skapa möjligheter, bekämpa diskriminering och förbättra transparensen. Tack vare Europaparlamentet kommer oacceptabla AI-metoder att förbjudas i Europa och arbetstagares och medborgares rättigheter kommer att skyddas. Vi har sett till att människor och europeiska värden står i centrum för utvecklingen av AI, sa italienaren Brando Benifei, socialdemokratisk ledamot i Europaparlamentet, i anslutning till omröstningen.

Fyra olika risknivåer

EU har med AI Act delat in AI-tekniken och dess användning i fyra olika riskkategorier: oacceptabel, hög, begränsad samt minimal. Den tekniska termen för denna nivåindelning är General Purpose AI (GPAI) models with systemic risk.

Realtidsövervakning med ansiktsigenkänning och AI-system för så kallad social poängsättning är två områden som förbjuds, även om det förra går att använda i vissa snävt definierade brottsbekämpande situationer.

AI mot skräppost och AI i datorspel är exempel på användningsområden som ingår i den minst riskfyllda kategorin. Däremellan hittar vi hög risk och begränsad risk. Hög risk, den näst högsta riskklassningen, kan handla om att använda AI vid anställningar eller i samband med asyl och gränskontroll. Begränsad risk kan exempelvis handla om chattbottar, och ett krav för dessa blir att användaren ska vara medveten om att det just är en bott man chattar med.

– Det är lite av en pytt i panna-lagstiftning som innehåller lite allt möjligt, säger Daniel Westman, jurist specialiserad på medierätt, till Aftonbladet.

Justeringar efter generativ AI:s genomslag

Kanske är bakgrunden till denna ”pytt i panna-lagstiftning” bland annat att lagen har byggts lite i luften, givet att den från början riktade in sig på de etiska aspekterna runt exempelvis ansiktsigenkänning och andra typer av integritetskänsliga datainsamlingar, och risker runt dessa.

Men efter att generativ AI med ChatGPT i spetsen slog ner som en bomb i slutet av 2022, dök det upp nya typer av frågor att ta ställning till: Hur gör vi med upphovsrätten när en modell kan producera perfekta texter och bilder tack vare träning på miljontals texter och bilder producerade av människor? Och hur gör vi med alla fejkade, realistiska videor som också blir möjliga att skapa i den här typen av verktyg?

I en artikel i tidningen Advokaten förklarar Stefan Larsson, jurist och docent i teknisk och social förändring vid Lunds universitet, hur det snabba intåget av generativ AI kom att förändra lagstiftarens syn på tekniken och föranledde en sorts omsvängning i hur regleringen skulle utformas:

”Allt detta tog ett starkt hopp framåt under själva lagstiftningsprocessen med AI-förordningen i EU. Även om rådets version av AI-förordning från december 2022 hade nämnt behovet av att reglera AI-modeller av mer allmän karaktär (’general purpose AI’) så kände sig parlamentet nödgat att fånga riskerna med dessa mer generella AI-modellers kapacitet på ett tydligare sätt. Svaret i parlamentets version blev att föreslå en rad transparens- och dokumentationskrav på vad parlamentet kallade ’grundmodeller’ (foundation models) och generativ AI”, skriver han.

Diskussionsdygnet i december

Diskussioner ska ha pågått 33 timmar i sträck, mellan den 9 och 10 december förra året. Bland annat eftersom Tyskland, Italien och Frankrike tyckte att grundmodeller, som tränas på stora mängder data som kan ge dem många användningsområden, var för hårt reglerade.

Kompromissen blev att bolag som utvecklar grundmodeller ska redovisa hur dessa fungerar, och appar som kan tänkas utgöra en risk måste anpassa sig till EU-kommissionens riskbegränsningar.

Påverkar innovation

Agata Hidalgo, European Affairs Lead på organisationen France Digitale som främjar startups och innovation, deltog under Techarenan i februari där AI Acts betydelse för EU diskuterades. Hon var tydlig med att regleringarna kommer att påverka mindre bolag som förlitar sig på AI i sina lösningar.

Vi har äntligen världens första bindande lag om artificiell intelligens.

Brando Benifei, Ledamot i EU-parlamentet

– Det här är en massiv förändring. France Digitale har därför satt ihop en guide för startups om vad som är viktigt att tänka på när man använder AI. Om denna reglering hade funnits innan Open AI lanserade ChatGPT hade utvecklingen inte gått lika fort; det är så här innovation börjar. Nu får vi anpassa oss till lagstiftningen.

Testmiljöer vs. begränsa risker

I samma panelsamtal deltog Sveriges civil- och digitaliseringsminister Erik Slottner, som bland annat fick frågan om inte dessa EU-regleringar blir ett handikapp i en global kontext.

– Det är klart att det alltid finns en risk att överreglera. Men AI Act är i första hand tänkt att rikta in sig på högriskfall. Dessutom kommer kommissionen bistå med regulatoriska ”sandboxes” och testmiljöer där man har möjlighet att testa sina produkter innan de går ut på marknaden. Det är ett annat sätt att ta tillvara på innovation, säger han.

Erik Slottner, Civil Och Digitaliseringsminister

Erik Slottner. Foto: Ninni Andersson/Regeringskansliet

Dessa tudelade effekter av förordningen som Erik Slottner ger, lyfts även av juristen Stefan Larsson.

”Alltsedan kommissionen publicerade sin AI-strategi under 2018 har arbetet med ett slags dubbel hantering av AI-frågorna pågått, av å ena sidan att försöka stimulera innovation och å andra sidan att begränsa risker”, skriver han i sin artikel i Advokaten.

Ett rörligt mål

För att klara denna hantering gällande risker, har förordningen enligt Stefan Larsson en rad mekanismer vars syfte är att "...försöka reglera ett rörligt mål".

"Det handlar både om riktlinjer och uppförandekoder, harmoniserade standarder, och att lagstiftningen i flera fall bemyndigat kommissionen med att, till exempel, göra tillägg till listan med högrisk-AI genom så kallade delegerade akter", skriver han.

Han avslutar sin artikel med att konstatera att "...vi befinner oss i en formativ period i skärningen mellan normer och AI, både globalt, i Europa och i Sverige." 

Och vad händer här och nu? Förordningen ska slutgranskas av juristlingvister. Den förväntas vinna laga kraft under 2025.

14 mars 2024Uppdaterad 14 mars 2024Reporter Tim LefflerAIFoto Adobe Stock

Voisters nyhetsbrev

Allt om digitalisering, branschens insikter och smartare teknik.

Rekommenderad läsning

Stäng