AI utan transparens

Glasögon Transparens 960640

Trots att allt fler företag och organisationer tar fram etiska AI-riktlinjer så har transparensen i besluten minskat. Men tar man inte etikfrågan på allvar kan konsekvenserna bli stora, enligt en ny rapport från Capgemini.

I år har US Federal Trade Commission, FTC, etablerat rekommendationer som innebär att AI-system som fattar ett negativt kundbeslut, exempelvis avslag på en låneansökan, måste kunna visa datan som beslutet grundats på. På så sätt ska transparensen öka.

Men enligt Capgeminis årliga rapport på ämnet etik och AI har transparensen i AI-beslut istället sjunkit. Förra året informerade 73 procent av företagen sina kunder hur de kan påverkas av beslut tagna med hjälp av AI, i år ligger siffran på 59 procent. En orsak här kan vara covid-19 som har lett till förändrade kundbeteenden och ökad komplexitet för systemen. Det finns en brist på historiska data från motsvarande situationer som kan användas för att träna systemen.

Rapporten visar även att 70 procent av alla kunder kräver att utfall och beslut från AI-system ska kunna förklaras, och att det ska finnas transparens och rättvisa i kontakten med system från företag som använder AI.

Användandet av AI inom offentlig sektor har ökat under pandemin. Här finns rapporter om fall där social och kulturell särbehandling färgat data som samlats in för att användas i bland annat vården. Ett problem som inte bara finns i offentlig sektor. 65 procent av beslutsfattarna som deltog i undersökningen känner till fall där AI uppträtt diskriminerande, och 60 procent av verksamheterna i studien har utsatts för rättslig granskning eller upplevt missnöje från kunder som en följd av att man använt AI.

Nästan hälften av alla kunder, 45 procent, berättar gärna om negativa upplevelser och avråder andra från att anlita ett företag där man upplevt sig bli dåligt behandlad av AI. Samtidigt säger 27 procent att de skulle avsluta sin relation med en verksamhet där de fått en negativ upplevelse som följd av en diskriminerande AI.

Idag har 53 procent av verksamheterna som deltog i studien en roll i organisationen som ansvarar för etiska frågor kopplat till AI-användning. Författarna till rapporten menar att en sådan roll kan behövas för att säkerställa att etisk tillämpning av AI får tillräcklig vikt och uppmärksamhet i ledningen.

Källa: Capgemini

Capgeminis tips för en mer etisk AI-användning.

  1. Klargör syftet med varje AI-system och se över vilka effekter och situationer som kan uppstå till följd av systemet.
  2. Tillämpa artificiell intelligens där det har positiva effekter för samhälle och miljö.
  3. Se till att AI:n hanterar frågor om mångfald och integration, både vid utformning och användning.
  4. Nyttja de tekniska möjligheterna som finns för att göra AI:n mer transparent och begriplig.
  5. Skapa en mänsklig upplevelse i kontakt med AI och säkerställ att systemen bevakas av människor.
  6. Konstruera tekniskt robusta och säkra AI-system.
  7. Få till en hög integritet genom att ge människor möjlighet att styra i sin interaktion med AI.

22 oktober 2020Uppdaterad 2 oktober 2023Reporter Fredrik AdolfssondigitFoto Adobestock

Voisters nyhetsbrev

Allt om digitalisering, branschens insikter och smartare teknik.

SENASTE NYTT

Stäng