Små steg mot ny EU-lagstiftning runt AI
Foto: Adobestock
EU-parlamentets två ansvariga utskott har enats om en linje kring AI. Lagförslaget, som kallas AI Act, innebär bland annat nya regler för ansiktsigenkänning och krav på riskbedömningar från företag och utvecklare.
Med stor majoritet har EU-parlamentets två ansvariga utskott kommit överens om en gemensam linje på AI-området. Lagförslaget har som mål att säkerställa en rättssäker och etisk utveckling av AI, samtidigt som teknisk utveckling ska möjliggöras.
Utöver nya användningsregler för ansiktsigenkänning och krav på riskbedömningar från företag och utvecklare, innefattas även ett ökat skydd för konsumenter. Om den nya lagstiftningen antas blir det den första i världen på området.
– Den här omröstningen är en milstolpe i regleringen av AI, och en tydlig signal från parlamentet om att grundläggande rättigheter bör vara en hörnsten i det. AI ska tjäna människor, samhället och miljön – inte tvärtom, säger Kim van Sparrentak från Europeiska gröna partiet, till Reuters.
Långtifrån klart
Dock är det fortsatt en lång väg kvar tills att det finns ett färdigt lagförslag på plats. Först ska hela EU-parlamentet rösta om utskottets förslag, vilket förmodligen kommer att ske i juni. Sedan väntar förhandlingar med EU:s medlemsländer. För att en ny lag ska träda i kraft behöver ministerrådet enas med Europaparlamentet.
Förhandlingarna försvåras ytterligare av att ministerrådet redan i vintras kom överens om sin linje. Då tog man dock inte hänsyn till frågor som dykt upp kring generativ AI, exempelvis ChatGPT.
Målet är att lagstiftningen ska börja gälla 2026.
Om AI Act
Enligt de föreslagna reglerna kommer AI-verktyg att kategoriseras utifrån den risknivå de utgör: minimal risk, begränsad risk, hög risk och oacceptabel risk.
Vid minimal risk ska fri användning tillåtas, som vid AI-stödda videospel eller skräppostfilter.
Med begränsad risk avses exempelvis chattbotar, där ett krav är att användarna ska vara medvetna om att de interagerar med en maskin.
Som hög risk räknas AI-system som används i kritiska infrastrukturer, utbildning, vid anställningar, eller av migration, asyl och gränskontroll. Dessa AI-system kommer att omfattas av ”strikta skyldigheter” innan de släpps ut på marknaden, som detaljerad dokumentation och ändamålsenlig riskbedömning.
Oacceptabel risk handlar om AI-system som anses vara ett tydligt hot mot människors säkerhet, försörjning och rättigheter. Dessa kommer att förbjudas. Det kan handla om när stater använder AI-system för social poängsättning eller leksaker som använder rösthjälp som uppmuntrar till farligt beteende.
Källa: Europeiska Unionen
Läs mer om ämnet: