Forskningen inom artificiell intelligens (AI) går med en rasande fart. Numera vinner datorerna över oss människor i alla tankebaserade spel. Redan 2017 kom nyheten att Googleägda Deepminds artificiella neuronnätverk Alphazero bara behövde träna sig själv i fyra timmar för att gå från nybörjarstadiet till att passera världens bästa schackprogram i spelstyrka. Efter ytterligare några timmars träning fullständigt pulvriserades Stockfish, som världens bästa schackdatorprogram heter, i en match över 100 partier. Sedan dess har dock Stockfish utvecklats och återtagit topplaceringen. Det finns ingen plats för den mänskliga hjärnan i denna kamp längre.
En AI:s ”intelligens” växer genom att den tränar och förändrar sig själv för att utvecklas. Ordet ”intelligens” måste fortfarande sättas inom citattecken, eftersom ingen AI – vad vi vet – ännu uppnått självmedvetande.
En AI söker ständigt den effektivaste lösningen på det aktuella problemet. Riskerna behöver inte bara handla om så dramatiska saker som ett automatiskt utlöst kärnvapenkrig. I ett berömt tankeexperiment, Paperclip Maximizer, lanserar den svenske filosofen och AI-debattören Nick Boström idén om en intelligent maskin som instruerats att tillverka så många gem som möjligt. Maskinen blir successivt allt skickligare på detta och utvecklar till slut superintelligens. När människorna anser att antalet gem är tillräckligt går maskinen inte längre att stänga av, den överlistar enkelt dem som försöker. Och världen dränks av gem.
I en ny rapport som publicerats i den fackgranskade vetenskapliga tidskriften AI Magazine, lyfter forskarna problemet att det är omöjligt att förstå och därmed simulera hur ett hyperintelligent AI-system skulle agera i alla situationer.
En AI:s uppbyggnad är tudelad. Den ena halvan utför uppgifter beställda av människor, som exempelvis att skapa bilder utifrån ord som just nu är populärt på sajter som craiyon.com. Den andra halvan består av ett internt belöningssystem som hela tiden optimerar algoritmerna. Forskarna varnar för risken att ett extremt intelligent datorsystem av sig själv slutligen kommer att optimera sitt belöningssystem så mycket att vi människor inte längre behövs i hanteringen. Det är naivt att tro att vi kan hålla ett sådant AI-system instängt eftersom den mänskliga hjärnan av naturliga skäl saknar förmågan att tänka ut motdrag som är bortom vår förståelse. Vi spelar helt enkelt inte efter samma regler längre.
Nick Boström är inte ensam om sin oro. Visionärer som Stephen Hawkings, Bill Gates och Elon Musk har alla varnat för att AI potentiellt kan utplåna mänskligheten, eftersom vi inte förstår hur AI optimerar sig självt.
Eftersom vi människor inte orkar tänka långsiktigt satsas stor del av AI-forskningen på militära ändamål. Det är bara en tidsfråga innan dödsmaskiner styrda av AI, så kallade ”lethal autonomous weapons”, blir vanliga på krigsskådeplatserna på jorden, säger den australiske AI-professorn Toby Walsh i en intervju med Der Spiegel.
Automatiseringen av ett krig riskerar trappa upp konfliktnivån snabbt och oåterkalleligt, varnar Walsh – och i vissa avseenden är AI-vapnen farligare än kärnvapen. ”Att bygga kärnvapen är enormt svårt, det krävs pengar, råmaterial och fysiker. AI-vapen däremot är enkla – det kan räcka med befintliga vapen, ett dataprogram och 3D-printade extradelar.”
Sedan är det schack matt på riktigt.