Den nya ansvarsfulla intelligensen

ai-robot-hållbar-AI-Daniel-Akenine.jpg

Artificiell intelligens som ärver människans fördomar, arbetsplatser där de anställda slutar och algoritmer som gör läkare och piloter överflödiga. Daniel Akenine, Microsoft, är initiativtagare till det humanistiska initiativet addAI.org som arbetar för att AI blir ansvarsfullt och människovänligt.

 AI väcker mycket frågeställningar, såsom hur kan vi interagera med AI på ett smart sätt? Ska vi ersätta människor med AI eller ska vi jobba tillsammans? Vems ansvar är det när diverse beslut fattas av en algoritm? Sådana frågor ska vi titta djupare på från olika perspektiv, säger Daniel Akenine, nationell teknik- och säkerhetschef på Microsoft.

Nu när artificiell intelligens tar fart på allvar så ska addAI titta på frågeställningarna kopplat till fenomenet, men som inte nödvändigtvis har med tekniken att göra. I arbetsgruppen finns, utöver Daniel Akenine, en sociologiprofessor, en forskarstuderande inom innovation, en juridikprofessor samt en expert på konsumentbeteende från Ericsson.

12 av 16 sade upp sig

Redan idag finns det exempel på där det gått bra att föra in AI och där verksamheter har utvecklats, men det finns även exempel där det gått mindre bra. Ett som hör till de senare är Kungsbacka kommun. Där implementerade de en algoritm för att automatisera handläggningen av försörjningsstöd, som Trelleborgs kommun tidigare gjort. Men resultatet blev istället att 12 av 16 handläggare på kontoret sade upp sig.

Läs mer: Robot styr försörjningsstöd i Trelleborg

 Det pekar tydligt på behovet att kunna förklara hur den här typen av system fungerar och vad det gör, samt fundera på hur man inför det i verksamheten. När vi börjar använda AI så måste vi också förstå att många saker runtomkring påverkar och påverkas. Till exempel människorna som har olika sätt att förhålla sig till tekniken, de kanske blir rädda eller arga och slutar - vilket ju inte är meningen.

 Sedan är det inte självklart att AI tydligt kan visa hur ett beslut har fattats och är det isåfall ett rättssäkert beslut? Hur tydligt måste ett AI-beslut förklaras? Det saknas idag bra svar på många frågor.

Människor måste hela tiden fortsätta utvecklas, annars kommer vi vara väldigt dåliga när flygplanet väl behöver vår hjälp.

Daniel Akenine, Microsoft

AI och människa

Ett annat orosmoment vad gäller artificiell intelligens är att man inte tar hänsyn till vad vi människor kan tillföra utan istället placerar oss som någon slags övervakare av AI, menar Daniel Akenine. Det kan handla om autopiloter i flygplan där den mänskliga piloten bara sitter med i planet, eller automatiserade läkarbesök där läkaren endast är någon sorts kvalitetsexpert men överlåter allt jobb åt algoritmer.

 Människor måste tränas och vara delaktiga för att kunna lära sig, annars kommer vi vara väldigt dåliga när flygplanet väl behöver vår hjälp. Det är väldigt viktigt framöver att vi hamnar i ett scenario där vi hela tiden deltar och utvecklar vår mänskliga kompetens och inte bara blir övervakare.

Bevis på att detta är viktigt är bland annat bildanalys av celler för att bedöma om de innehåller cancer, menar han. En studie visade att en AI kan göra en sådan bedömning med 7,5 procents felmarginal, medan en tränad läkare kan göra det med 3,5 procents felmarginal. Om däremot läkaren och algoritmen jobbar ihop så får de en felmarginal på 0,5 procent. En kvalitetsförbättring med 85 procent.

 Det är ett tydligt exempel där människor och AI-system tittar på olika saker. Därför är det viktigt att inkludera oss och se effekten av människa plus AI för att få kvalitet och effektivitet.

AI utan fördomar

AI kan fungera annorlunda på vissa människor beroende bland annat på deras kön och hudfärg.

Daniel Akenine, Microsoft

Två ord som Daniel Akenine ofta återkommer till när han pratar om artificiell intelligens är människovänlig och ansvarsfull. Vad är ett människovänligt och ansvarsfullt AI? Det kan tyckas låta konstigt men det är inte så konstigt egentligen, menar han. För när man skapar ett AI-system så låter man ju det läsa av stora mängder data för att lära sig och förstå hur verkligheten ser ut. Men det är ju människor som skapat datan, så vad händer om datamängden är fylld med fördomar?

 Vi har kommit överens om att vi som människor inte ska diskriminera varandra, men i verkligheten så finns ju fördomar och diskriminering fortfarande kvar, och det kan ju inte ett AI-system bedöma. Det gör att AI kan fungera annorlunda på vissa människor beroende på deras kön, hudfärg eller andra saker. Ett AI-system måste vara rättvist mot alla, men systemet vet ju samtidigt inte om hur den skapar rättvisa om datan är orättvis från början. Där har vi människor ett ansvar att se till att datan man använder är representativt och fördomsfritt.

 Detta är några av de delar vi ska prata om inom addAI, och vårt arbete kommer summeras under Almedalsveckan.

daniel-akenine-microsoft-jpg.jpg

Daniel Akenine, teknik- och säkerhetschef, Microsoft.

Hur tror du världen med AI kommer se ut om fem år?

 Vi kommer att se fantastiska lösningar inom hälsa och sjukvård, bland annat när det gäller bättre diagnosticeringsverktyg. Vården kommer i högre grad än idag vara individuellt anpassad. För att möjliggöra det är data och AI väldigt viktigt, så många kommer nog ha en hälsobot baserad på AI som övervakar ens hälsa.

 AI kommer också gå in i många andra branscher, som exempelvis finanssektorn. Där kommer speciella assistenter ge dig rådgivning finansiellt helt anpassat efter dig och ditt risktagande.

 Även transport är ju en stor målgrupp där det kommer hända mycket kring självkörande bilar, drönare och alla andra transporttyper. Allmänt kommer det vara ett liv där man får mer råd och anpassning, samtidigt som vi har automatiserat bort onödiga jobb. Istället kan vi lägga mer tid där människor behövs, exempelvis inom hälsa och sjukvård.

22 februari 2018Uppdaterad 2 oktober 2023Reporter Fredrik Adolfsson digit Foto Adobestock, Microsoft

Voisters nyhetsbrev

Allt om digitalisering, branschens insikter och smartare teknik.

Rekommenderad läsning

Stäng