Finns det risker med AI?
De flesta av oss har sett filmer med domedagsscenarier baserade på AI i stil med Terminator. Tanken är egentligen ganska enkel och relevant:
Vi bygger en AI som är lika smart som oss.
Eftersom vi hela tiden verkar kunna bygga en snäppet smartare AI så är det rimligt att också AI:n kan göra det.
AI:n fortsätter att bygga sig själv smartare och smartare tills den är mycket smartare än en människa och i förlängningen smartare än oss alla tillsammans.
AI:n börjar arbetet mot ett mål eller utifrån värderingar som inte stämmer överens med ambitioner som passar oss människor, till exempel genom att omvandla alla kolatomer till supraledare så att den kan bli ännu smartare. Tyvärr råkar vi innehålla många kolatomer…
Man brukar ibland kalla steg 3 för en intelligensexplosion. Den svenskfödde professorn Nick Boström var en av de som nyligen tydligast varnade för denna risk inte minst genom sin bok Superintelligens: vägar, faror, strategier [1]. En mycket genomtänkt och utmanande bok som måste läsas, även om den inte alltid är lättsmält.
Detta är förstås inte den enda risken med AI, men vi börjar här eftersom vi nu ändå har öppnat locket för detta 😊. Andra viktiga risker är till exempel att vi bygger en AI som inte behandlar oss jämlikt och rättvist till exempel vid en låneansökan, eller att någon nation använder AI för att övervaka och styra sina medborgare, eller att AI:arna tar alla våra jobb och lämnar oss att bli uttråkade paraplydrinksdrickande och i huvudsak vegeterande varelser. Men dessa risker räknar vi med att återkomma till i senare artiklar.
Hur stor är risken för ett katastrofalt AI-scenario?
Är det då troligt att vi kommer att drabbas av ett av de mörka scenarier som Nick och andra varnar för? Det beror enligt mig på ett flertal faktorer:
Går det att bygga en AI som är lika intelligent som en människa? Vi vet förstås inte eftersom ingen verkar ha gjort det ännu. Själv tror jag att det är rimligt att vi kommer att kunna göra det.
Hur fort går förberedelsen för och utförandet av steget 3 ovan? Handlar det om decennier eller handlar det om minuter? Själv har jag efter många år kommit att luta åt att det förmodligen kommer att ta några år eftersom det verkar som att vi människor förstår så oerhört mycket som inte är helt enkelt att replikera.
Kommer AI:n att ha drivkrafter som är kompatibla med våra? Det är enligt min uppfattning tveksamt om vi kommer att kunna förse den med det eller hjälpa den att lära sig det. Vi som kan vår Bamse vet att ”Om man är stark måste man vara snäll!”. Men det är tyvärr inte lätt att definiera entydigt vad snäll är och sedan bli överens om det i till exempel FN. Risken här är då att vi ger AI:n ett mål som är besvärande enkelt att uppnå – till exempel att stoppa alla krig. Det visar sig ju att alla krig hittills har haft en gemensam faktor – de har startats av människor. Hmm, undrar hur man avlägsnar den faktorn…
Om vi inte är trygga i att vi kan ge AI:n rätt drivkrafter, kan vi då istället kontrollera den? Nick Bostrom kallar detta för ”The Control Problem”. Tyvärr är jag också här försiktigt pessimistisk. Vi pratar alltså om att försöka kontrollera något som är tusen gånger smartare än oss. Det förefaller för mig lika rimligt som att en myra försöker kontrollera mig.
En intressant observation är att författaren Isaac Asimov redan 1950 beskrev ett sätt att lösa ovanstående problem i sin skönlitterära bok I robot [2]. Han formulerar där robotikens tre lagar som jag återger något förenklat här:
En robot får aldrig skada en människa.
En robot måste alltid lyda en människa.
En robot måste skydda sin existens.
En robot ska följa dessa lagar, där den första lagen trumfar den andra, som i sin tur trumfar den tredje. Enkelt eller hur? Fast, hur definierar vi då en människa? Eller kan det vara så att eftersom en AI kan rädda många människors liv vid en katastrof så är den viktigare att skydda än en enskild individ. Och så vidare. Det är lätt att få uppfattningen att Asimov tänkte på dessa problem tidigt och använde lagarna som ett sätt att i spännande romaner visa hur utmanande det kan bli.
Vad kan och ska vi göra?
Om det är som jag, just nu, tror så har vi alltså ett antal år på oss att arbeta med motivations- och kontrollproblemen för en AI. Det är en så viktig fråga att den borde vara på förstasidan för våra tidningar varje vecka, läras ut till alla skolbarn åtminstone från årskurs 4 och uppåt, och diskuteras i alla möjliga forum så att vi lär oss mer om det.
Nu vore det kul att höra lite om vad du tror. Kommentera med siffran 10 om du tror att vi som mänsklighet med lätthet kommer att bemästra AI:arna och kunna använda dem för vårt bästa, eller siffran 0 om du snarare tror att AI:arna kommer att göra processen kort med oss och avlägsna oss som art från denna planet så fort de får chansen. Om du inte är lika tvärsäker så kan du till exempel ange siffran 3 om du tror att det är en stor risk att vi kommer att avlägsnas från jorden eller en siffra 7 om du snarare tror att vi förmodligen kommer att bemästra problemen. Alla graderingar från 0 – 10 är alltså möjliga.
Patrik Jonsson, Novatrox
Referenser:
1. Superintelligens : vägar, faror, strategier, Nick Bostrom, kan t ex beställas på Adlibris