GDPR och hot mot AI
De flesta har idag koll på GDPR och personuppgifter men vad gäller när datan används till AI? Michael Veale, University College i London, forskar om öppenheten hos algoritmiska system i beslutsfattandet.
– GDPR kommer inte hindra att företag använder data i maskininlärning men man får vara lite försiktig. Inte minst eftersom information som finns kvar, när man skalat bort de rena personuppgifterna, visserligen kan se anonym ut på ytan men i själva verket kan datan användas för att identifiera personer, säger Michael Veale, teknologipolicyforskare vid University College i London.
Termostaten röjer dig
Det finns flera sätt som maskininlärningsalgoritmer kan bryta mot GDPR. Om jag till exempel vill använda en tjänst av företag och de kräver att jag ger företaget uppgifter om mig måste jag vara säker på att dessa uppgifter är nödvändiga för att jag ska kunna använda tjänsten.
På sikt hoppas jag att algoritmerna är mer transparenta.
Michael Veale, algoritmforskare
– Det har blivit lite av ett mantra att man ska ha rätt till en förklaring, det vill säga rätt till vad och varför företag använder uppgifter som är kopplade till mig som användare. Men jag är inte säker på att det är praktiskt genomförbart när det handlar om maskininlärningsalgoritmer och GDPR.
– För det första är det svårt att veta vilka förklaringar som är godtagbara och som går att utvinna ur algoritmen och för det andra är GDPR i sig fortfarande ganska otydlig om vilka fall man har rätt att avkräva den här informationen, säger Michael Veale, som nyligen publicerat en vetenskaplig artikel inom ämnet med titeln: Slave to the Algorithm? Why a ’Right to an Explanation’ Is Probably Not the Remedy You Are Looking For.
Ett potentiellt problem är att det som på ytan kan se ut som anonym data inte nödvändigtvis är det. Säg att ett företag samlar in data från din smarta termostat där hemma. Den datan är unik för dig och om du till exempel åker på semester så syns det i datan.
Michael Veale.
– Det behövs bara lite väldigt lite info från dig för att ta reda på att du är du och en maskininlärningsalgoritm snabbar förstås på det här.
Känsliga personuppgifter
Ett annat bekymmer är hur de olika delarna i GDPR ska hanteras. Exempelvis handlar Artikel 9 i GDPR om det man kallar för särskilda kategorier av personuppgifter. Det är känslig information om personer som det är förbjudet att samla på sig, som etnicitet, hudfärg och politiska åsikter.
Hur tycker du att offentlig sektor ska använda sig av maskininlärning?
– Jag tycker att maskininlärning ska användas mer som hjälpmedel och i första hand för kvantitativa arbetsuppgifter. Inom exempelvis skattemyndigheten borde maskininlärning kunna vara användbart. Kvalitativa och mer sociologiska arbetsuppgifter är fortfarande människor överlägsna på, inte minst eftersom vi är bättre på att upptäcka och bedöma ovanligheter än vad maskininlärningsalgoritmer är, och vi vill inte att våra algoritmer ska förvirra oss med korrelationer som inte är betydelsefulla. På sikt är min förhoppning att vi kommer kunna skapa algoritmer som är mer transparenta och på så sätt få mer användningsområden för dem.
Läs mer om ämnet: