Dataetik-experten: AI bör baseras på mänskliga rättigheter

Knäppta Änder I Regnbågsfärger; Gry Hasselbalch; Eu, Dataetik, Ai

Gry Hasselbalch under Web Summit 2022.

Gry Hasselbalch arbetar på EU-nivå med dataetik, vilket innefattar medborgares personliga integritet och demokratiska rättigheter på internet, vem som har makt över data, och hur utformningen av AI bör se ut. För Voister berättar hon varför sociala medie-jättarna har orimligt mycket makt och hur filosofen Henri Bergson har influerat hennes etiska ståndpunkter. 

Du är grundare av Dataethics.eu. Vad är det?

– Vi beskriver Dataethics.eu som en konstruktiv och evidensbaserad tankesmedja. Tre andra kvinnor och jag grundade denna 2015 för att kartlägga och stötta dem som bygger alternativa (sociala) media-lösningar, och vi var också en del av rörelsen runt GDPR, som senare lanserades i maj 2018. Vi argumenterade emot att dataskydd och integritet är ett hinder för innovation, och menade istället att etiskt tänkande kring data är en sorts innovation och något vi kan bygga en infrastruktur runt. Vi försökte visa på att det fanns europeiska alternativ till exempelvis Gmail och Messenger, säger Gry Hasselbalch.

– Nu drygt sex år senare har vi knutit till oss akademiker och universitet med olika initiativ, och det mesta av mitt arbete består i att lyfta de här frågorna på EU-nivå. Genomgående är att vi belyser frågor om data och makt.

Vad för fel upplever du att de stora techjättarna gör eller har gjort?

– Det absolut största problemet är det inflytande och den makt som stora jättar som Facebook och Google får över demokratin. På mikronivå handlar det om hur varje medborgare kan påverkas, och på en geopolitisk nivå handlar det om hur beroende våra stater blir av dessa plattformar under till exempel en pandemi. Därför har jag övergått från att prata om individens integritet till dataetik, eftersom frågan är så pass stor och viktig.

Vad är the dataethics of power (maktens dataetik) som du också har skrivit en bok om?

– Vi har i världen idag något vi kallar för en social-teknisk infrastruktur. Den finns inkorporerad i hela samhället, från hur vi kommunicerar till hur vår politik, kultur och ekonomi ser ut. Och precis som fysisk och verklig infrastruktur som exempelvis vägar, är också denna social-tekniska infrastruktur verklig på så sätt att den både limiterar oss till vissa beteenden, samtidigt som den öppnar dörrar för andra beteenden. Och därför blir det också ett slags maktens infrastruktur.

– Denna infrastruktur började byggas, huvudsakligen på data, redan under 90-talet, och har under det senaste decennierna dessutom successivt försetts med AI och avancerade analysverktyg. Detta ger makt åt vissa spelare genom att de kan använda vår data för olika syften. Maktens dataetik innebär att vi tittar på hur big data och AI fördelar makten, och vårt syfte är att göra dessa maktrelationer transparenta och ge tillbaka makten till användare och medborgare. 

Det absolut största problemet är det inflytande och den makt som stora jättar som Facebook och Google får över demokratin.

– När dessa maktstrukturer väl är synliggjorda och kartlagda måste vi bygga nya social-tekniska infrastrukturer med en mer demokratisk maktfördelning. Detta kan göras genom att ge varje enskild användare och medborgare makt över sina egna data, så att de kan dela denna till vem de vill. Vi ser i Europa hur det rör sig på den här fronten. Men det går också att angripa det från ett politiskt håll, genom att aktörer som redan finns hålls ansvariga för den data de har om dig och frigör denna. Dagens dominerande sociala medier skyddar inte den enskilde medborgaren, utan gynnar de största aktörerna. Det finns många exempel på diskriminerande algoritmer som missgynnar minoriteter.

Vilken teknik utgör den största utmaningen just nu, skulle du säga?

– På en geopolitisk nivå skulle jag säga AI, såsom tekniken redan används redan idag i olika slags maskin- och djupinlärningsmodeller. Det finns så pass många politiska och affärsmässiga intressen investerade i AI, samtidigt som det är en teknik som medför många etiska risker. Inom de socialtekniska infrastrukturerna får alla problem vi ser med big data ytterligare en dimension när det kommer till AI, både kring beslutsfattande och transparens.

– Det farligaste nu är att vi har ett krig i Europa som blir en lins genom vilken många av de viktigaste AI-diskussionerna förs, vilket riskerar att få oss att landa i slutsatser om att mer AI behövs för att skydda oss, vilket i sin tur inskränker vår mänskliga autonomi ännu mer.

EU:s AI Liability Act handlar om hur vi ställer människor ansvariga för en AI:s beslut.

Vilka etiska utmaningar ställs vi inför med ny teknik som AI?

– En utmaning med teknik som fattar beslut åt oss, är att den enbart verkar kunna förses med en sorts utilitaristisk etik, förenklat så mycket nytta som möjligt för så många som möjligt, vilket vi ser prov på när det kommer till självkörande bilar och huruvida de ska väja för en småbarnsfamilj och istället köra på en äldre människa, om de står inför ett sådant val. Samma gäller vid juridiska, politiska och medicinska beslut. Vem ska få en ny lever? Vem ska få ersättning? Allt baseras på vart maskininlärningsmodellen beräknar att resurserna kommer att göra mest nytta. I dessa fall kan man tänka sig att en människa skulle komma till andra slutsatser och inte basera sina beslut på ett så här ganska beräknande sätt.

Vilken sorts etik bör vi istället luta oss mot, tycker du?

– En filosof som har influerat mig är Henri Bergson (1859-1941) som pratade om två olika sorters moral: en mänsklig moral och en social moral.

– Den sociala moralen är den man kan förespråka och skriva in i lagtexter, eller, om man använder den i nutid, som kan programmeras in i ett datasystem och automatiseras, som i fallet med en AI. Det är en sorts regelstyrd moral med principer som även återfinns i yrkesroller. Och i den här typen av moral ingår det att den går att åsidosätta. Om det är krig eller kris, såsom första världskriget och början av andra världskriget som Henri Bergson levde under, kan du bortse från den här typen av social moral. Den sociala moralen är också väldigt intressedriven, eftersom att den är applicerbar på min nation, min organisation, mitt yrke.

Etiskt tänkande kring data är en sorts innovation och något vi kan bygga en infrastruktur runt.

– Den andra sortens moral är mänsklig moral, och saknar intresse. Det är en moral som du lever med från stund till stund och som utvecklas kontinuerligt, utan intressenter. Det är en sorts universell moral som är inkluderande och inte går att förbise. Det var den här typen av moraliskt synsätt som låg till grund för de första utkasten till FN:s deklaration om de mänskliga rättigheterna, efter andra världskriget. Jag menar att vi, i vår teknik och i våra AI-lösningar, missar denna idé om ett universalistiskt moraliskt förhållningssätt om vi enbart förser tekniken med den sociala moral som till exempel utilitarismen är. Mänsklig moral handlar om de beslut som vi tar när livet ställs på sin spets och vi lyssnar till vårt hjärta, mage och intuition. Dessa beslut kräver en självreflektion som maskiner saknar, och därför kommer en maskins moraliska beslutsfattande alltid vara svagare än vår.

Detta är ju ett sätt att se på etik och moral som du finner rimligt, men andra kanske är av en annan metaetisk åsikt och står fast vid att utilitarismen är rätt väg att gå, oavsett vår mänskliga intuition givet vissa lägen. Hur ska vi kunna hitta en universell data-etisk plattform att stå på?

– Jag tror redan att vi har det i deklarationen för mänskliga rättigheter. Den grundar sig på vår värdighet som människor. Vi behöver inte ett nytt etiskt ramverk när vi redan har ett, men vi måste bli bättre på att applicera det. I ljuset av de mänskliga rättigheterna bör vi exempelvis inte tumma på vår integritet för att tillgodose andra syften.

Gry Hasselbalch Under Web Summit

Gry Hassebalch under ett seminarium på Web Summit 2022.

– I stort sett alla jag möter i sammanhang där dessa frågor diskuteras, är ense om att vi människor ska stärkas för att kunna fatta välgrundade, demokratiska beslut. Alla parter från demokratiska stater är överens om att vi måste vara med i beslutsfattande-loopen, och ingen argumenterar för helt autonoma beslutfattningsprocesser. Inom EU har vi just nu ett förslag om vad vi kallar för en AI Liability Act som handlar om hur vi ställer människor ansvariga för en AI:s beslut. Även Unesco och OECD har principer om AI och beslutsfattande. Alla dessa riktlinjer, oavsett om de är regionala eller globala, tar avstamp i deklarationen om de mänskliga rättigheterna och andra demokratiska värden. Det är positivt, och en motvikt till att godtyckligt fatta beslut med hjälp av lösningar som ägs av bolag som vill hemlighålla sin kod, säger Gry Hasselbalch, grundare av Dataethics.eu.

26 januari 2023Uppdaterad 16 april 2024Reporter Tim LefflerAIFoto Web Summit, Adobestock

Voisters nyhetsbrev

Rekommenderad läsning