När AI är smartare än människan

människa och robot öga står öga mot öga.jpg

2045 kan vara året då vi har supermänsklig artificiell intelligens på jorden. Hur förbereder vi oss för den sista uppfinningen och vilken moral ska gälla?

– En stor europeisk undersökning har gjorts bland maskininlärningsforskare med olika specialisering med frågan om vilket år det är 50 procents chans att det finns superintelligens på jorden. Mediansvaret blev år 2045. Det kan förstås hända tidigare, men det kan också hända betydligt senare. Det finns ingen ordentlig koncensus men det är ändå mycket viktigt att vara redo när den tiden kommer, oavsett när, säger Nick Bostrom.

Nick Bostrom växte upp i Helsingborg och är i dag professor i filosofi vid Oxfords universitet. Där grundade han för 16 år sedan Future Humanity Institute, FHI. Då hade han just myntat uttrycket existentiell risk och drev hypotesen att vi människor en dag antingen kunde bli helt förintade, eller få våra mål och vår potential kringskuren.

I höstas besökte filosoferna Nick Bostrom och Daniel Dennett Stockholm för att diskutera medvetande och supermänsklig artificiell intelligens i ett arrangemang av Fri Tanke förlag och Kungliga Vetenskapsakademien. 

Kompetens utan förståelse

Under sin karriär som filosof och kognitionsforskare har Daniel Dennett intresserat sig för det mänskliga medvetandet. Daniel Dennett har skrivit flera böcker i ämnet och hans grundtes går ut på att det inte finns någon enskild förare i huvudet där vårt medvetande sitter. Det vi kallar medvetandet är ett resultat av hjärnans alla neuroner, alltså den bearbetning av olika sinnesintryck och annan information som resulterar i komplexa beteenden hos människor och andra djur.

Han kallar detta för kompetens med förståelse. Det finns nämligen många system som är kompetenta men som saknar förståelse. Ett bra exempel är myran som tillsammans med miljontals kompisar bygger myrstackar och samlar mat. Imponerande, javisst, men till skillnad från när människor löser komplexa uppgifter inte ett resultat av att myrorna gör summan större än sina delar. I myrornas fall handlar det alltså om kompetens men inte om förståelse.

Vi behöver fråga oss om det är nya verktyg eller nya kollegor vi vill ha.

DANIEL DENNET, PROFESSOR I FILOSOFI VID TUFTUNIVERSITETET

Enligt Daniel Dennett är det i princip så dagens datorer fungerar. De är kompetenta men inte särskilt förståndiga. Han är dessutom tveksam till att vi verkligen kommer att se system som kombinerar förståelse med kompetens, och särskilt skeptisk är han till att vi kommer att se system med supermänsklig intelligens. Kortfattat kan Daniel Dennetts invändningar sammanfattas så här:

1. Medvetande är effekten av hur ett stort antal av våra miljarder neuron är ihopkopplade;

2. Medvetande bör därför kunna uppstå varhelst ett tillräckligt antal neuron (artificiella eller naturliga) är ihopkopplade på ett liknande sätt som hos människor. Var gränsen går vet vi inte i dag.

Detta lämnar oss enligt Dennett med en hård nöt att knäcka givet att varje neuron i sig är en uppbyggd cell med en unik uppgift i vårt komplexa nervsystem. Enbart i hjärnan finns uppskattningsvis 86 miljarder neuron, hjärnceller. Därför krävs det enorma mängder information, kunskap och kompetens för att sätta ihop ett liknande system på artificiell väg – om det överhuvudtaget är önskvärt.

– Jag frågar mig varför företag är villiga att utveckla en supermänsklig AI? I första hand är det ju olika typer av verktyg för oss människor som man vill utveckla; verktyg som förenklar och förbättrar livet för oss. Ju mer självgående och självlärande ett system blir, desto mindre praktiskt verktyg blir det och desto mer hänsyn måste vi visa det. Vi behöver fråga oss om det är nya verktyg eller nya kollegor som vi eftersträvar, säger Daniel Dennet som är professor i filosofi vid Tuftsuniversitetet i USA och föreståndare för dess centrum för kognitiva studier.

Hur ska vi behandla AI?

Daniel Dennetts teori förutsätter alltså att medvetande och förståelse går hand i hand och att vägen till konstgjorda system med samma egenskaper torde ligga mycket längre in i framtiden än vad många verkar tro.

Det finns fler skäl att vara ödmjuk inför kommande robotiserade innovationer, menar filosofen Daniel Dennett.

– Medvetande är en gradfråga; det är inte så att man antingen har det eller inte. Därför finns det anledning att behandla andra djurarter som mål i sig, och kanske även kommande artificiellt intelligenta entiteter. Men för mig handlar moraliskt ansvar mindre om medvetenhet och mer om politik – vi kan bli känslosamma och uppleva orättvisa utan att något som är medvetet har drabbats.

dennet och bostrom diskuterar ai på cirkus i stockholm.jpg

Filosoferna Daniel Dennet (t.v.) och Nick Bostrom diskuterar supermänsklig artificiell intelligens med Humanisternas Christer Sturmark (t.h.) på Cirkus i Stockholm.

Daniel Dennett tar den amerikanska flaggan och hur människor mår dåligt om någon spottar på den som exempel. Flaggan saknar medvetenhet men angrepp på den innebär angrepp på en idé om USA:s värde och värderingar som har stor känslomässig betydelse för många.

Det är svårt att veta om myran lider när den lille pojken sätter eld på den med ett förstoringsglas och solen, men det finns ändå starka skäl för pojken att inte göra det.

– Detta måste vi ha med oss när vi talar om hur vi bemöter och betraktar kommande artificiella, generella intelligenssystem oavsett om de är en maskin i en låda eller något som liknar en människa på pricken. Att vi inte vill behandla de sistnämnda illa bör ha evolutionära förklaringar eftersom de verkar mer lika oss. Det är också en farlig tanke att den likheten är viktig för vår moraliska kompass, säger Daniel Dennett.

Sanningens ögonblick

Som kontrast till alla forskare och företag som utvecklar allt mer avancerad AI och har tagit upp jakten på den supermänskliga intelligensen, tar Nick Bostrom och hans kollegor på Future Humanity Institute ett steg tillbaka och frågar sig vilka potentiella effekter den utvecklingen kan ha på mänskligheten. Det handlar framför allt om det som brukar kallas generell artificiell intelligens och som tack vare en sorts förståelse kan lösa flera uppgifter. Enligt Nick Bostrom finns det ingen tid att förlora. 

Det som ibland kallas för den sista uppfinningen har enligt Nick Bostrom potentialen att kasta oss snabbare in i framtiden än vad någon annan uppfinning har gjort. Inte minst för att den kommer lösa problem och skapa nya intelligenta system som vi människor tidigare inte varit kapabla till.

Vi vill inte stå oförberedda.

Nick Bostrom, professor i filosofi vid Oxforduniversitetet.

Hur ska AI behandla oss?

Även om Nick Bostrom inte vill ange någon tidshorisont för den pågående utvecklingen bedömer han att den kanske enskilt viktigaste frågan för oss idag är hur vi ska kunna kontrollera dessa system. Går det överhuvudtaget att bygga in kontrollmekanismer som säkrar att systemens moraliska kompass stämmer med vår? Och vilken moralbild förenar oss, vilken är den ”bästa” om det finns en sådan?

Frågorna för Nick Bostrom och hans 20 kollegor på Future Humanity Institute är många.

– Det finns anledning att fundera över hur människans alla egenheter och egenskaper kan komma till uttryck i artificiella system. Vi vill inte stå oförberedda, säger han.

Enligt Daniel Dennett kan ett sådant område ligga närmare i tiden än vi tror.

– Jag tror att det är framför allt inom äldrevården som dessa än så länge icke-superintelligenta system och manicker kommer ha den första omedelbara effekten. Därför vill jag att dessa tas på allvar även om vi inte kommer att se något superintelligent system inom en överskådlig framtid. Hur ska vi behandla dem och hur bör de behandla oss? Hur skiljer vi på autonoma agenter och rena verktyg? De är de viktigaste rent filosofiska frågor som jag ser framför mig.

2 januari 2018Uppdaterad 2 oktober 2023Reporter Tim LefflerdigitFoto Adobestock, Jonatan Permert

Voisters nyhetsbrev

Rekommenderad läsning