Förståelse och tydliga gränsdragningar – så skapar du en hållbar AI för din organisation

En stor majoritet av en organisations data är ofta ostrukturerad, men med hjälp av AI kan kan både CIO:er och CISO:er få hjälp att skapa struktur och bättre förutsättningar för användarnytta och säkerhet. För det krävs kunskap om vilken information som är integritetskänslig och att man har en tydlig plan för sina modeller. Det menar Patricia Thaine, grundare och vd, Private AI.

– Målet med Private AI är att bli ”integritetslagret” (eng. privacy layer) i en mjukvara. För att bli det bryter vi ned vad ’integritet’ innebär i sammanhanget. Det börjar med att förstå vad för typ av data som samlas in och att veta vilken typ av information som inte behövs eller bör samlas in. Vi har det bästa systemet i världen för att identifiera och ta bort personlig och identifierbar information på över 50 olika språk, säger Patricia Thaine, grundare och vd, Private AI.

Tycker du att vi diskuterar frågan om integritet och AI tillräckligt mycket?

– Vi är på väg åt rätt håll. Jag tror inte att integritetsfrågan lyfts tillräckligt ofta, generellt sett. Jag tror dessutom att det är en stor skillnad på diskussionerna i Europa jämfört med USA och Kanada. I de nordamerikanska länderna har frågan inte diskuterats lika mycket, men vi ser att den börjar lyftas mer även där, i takt med att AI blir mer populärt.

Hur tycker du att vi ska utveckla AI på ett ansvarsfullt sätt?

– Många av regleringarna för tech, exempelvis GDPR, kommer alltid att vara ambitiösa och till sin natur ganska framåtblickande. Skälet till detta är att mycket av den teknik vi behöver ha för att kunna följa GDPR inte finns än. Och det är bra att lagen ligger före tekniken. Men vi behöver samtidigt lite mer klarhet. För att återigen ta GDPR som exempel, är det inte helt tydligt när data räknas som anonym data. Ofta måste utvecklare gissa exakt vad lagen betyder, och vi blir tvungna att införa saker som till och med jurister har delade meningar om. För att lyckas med regleringar måste vi vara tydliga med definitionerna för de koncept som berörs.

Hur kan en organisation implementera AI utan att riskera att öppna dörrarna för aktörer som vill attackera en?

– Genom att verkligen förstå informationen som används i implementeringen, var den skickas och hur den tas emot. En sak som alla inte alltid tänker på är att AI-modeller kanske ”minns” den data som den tränas på. Det som då kan hända om du tränar en AI med information från din organisation, eller med olika typer av personliga data, är att folk som inte borde ha tillgång till den datan, får tillgång. Därför måste du under din AI-träning finjustera och identifiera den information som du verkligen inte vill ska hamna i orätta händer.

Och om du skulle spå lite i framtiden – vad kommer att hända på AI-området de kommande tre åren?

– Utifrån ett CIO- eller CISO-perspektiv måste du verkligen veta vad som händer i din organisation. Ungefär 80 till 90 procent av all data brukar vara ostrukturerad, och det är jättesvårt att skydda det du inte förstår eller att skydda sådant som du inte vet var det finns. AI gör det möjligt att synliggöra och låsa upp den datan för att skapa användarnytta. Samtidigt innebär det att CISO:s får möjlighet att bättre hantera cybersäkerheten runt just den informationen. Därför är min uppfattning att AI dessutom kommer att bli väldigt hjälpsam i cybersäkerhetssammanhang.

9 februari 2024Uppdaterad 12 februari 2024Reporter Therese BengtnerAIFoto Fredrik Kron/Voister

Voisters nyhetsbrev

Allt om digitalisering, branschens insikter och smartare teknik.

Rekommenderad läsning

Stäng