Detta är en krönika. Det är skribenten som står för åsikterna i texten, inte FrihetsNytt. Hos oss får alla åsikter komma fram, även om de är obekväma. Vi står för riktig yttrandefrihet.
Risker med framväxande teknik så som artificiell intelligens
I Kungliga Vetenskapsakademiens vackra tegelhus i Frescati hölls en heldagskonferens 17 mars under rubriken ”Emerging technologies and the future of humanity” (Ny teknik och mänsklighetens framtid). Det handlade framför allt om risker förknippade med forskningen om hur hjärnan fungerar och teknik som syftar till att skapa artificiell intelligens.
Domedagen som ett akademiskt ämne
Det är en märklig erfarenhet att sitta i en föreläsningssal och lyssna till distingerade vetenskapsmän som utan att höja rösten föredrar olika domedagsscenarion. Jag måste ibland nypa mig i armen för att försäkra mig om att jag är vaken, och att mannen där framme faktiskt menar allvar. Det är inte så att forskarna vill dölja att de faktiskt utsätter oss (hela mänskligheten) för risker, inte heller att deras resultat ställer det mesta av vår invanda moral på ända. De efterfrågar diskussion och uttrycker en sorts besvikelse över att politiker och journalister är så ointresserade. Det är nästan som att man hör mellan raderna en vädjan: ”om det här inte är vad ni vill ha så stoppa oss!”

Existentiella risker
Första gången mänskligheten med berått mod utsatte sig för en existentiell risk var under utvecklingen av atombomben. Man var rädd för att atomexplosionen skulle skapa en så het chockvåg att luftens kväve började brinna med syret. Hettan som utvecklades då skulle kunna bli så stor att det blev en kedjereaktion och hela jordens atmosfär skulle då brinna upp inom några få minuter. Allt högre liv skulle utplånas. Risken ansågs visserligen som ”liten”, men egentligen visste ingen hur stor risken var. Hur som helst valde man att värdera möjligheten att få Japan att kapitulera och att skrämma slag på ryssarna, som viktigare än risken för total utplåning.
Det finns idag flera överhängande katastrofhot, men förutom totalt kärnvapenkrig, eller kollision med en asteroid, är det ingen av dem som innebär hot om mänsklighetens fullständiga utplåning. Även den värsta pandemi man kan föreställa sig skulle inte utplåna alla människor. Inte ens det värsta scenariot av klimatförändringar eller ekologisk kollaps skulle göra jorden totalt obeboelig. En katastrof som dödar 99% av världens befolkning vore förvisso en ohygglig katastrof, men det skulle fortfarande finnas 70-80 miljoner kvar, och de skulle återbefolka planeten inom några århundraden.
Filosofer menar att det faktiskt inte är självklart att 100% döda faktiskt är värre än 99% döda. Om alla försvinner så försvinner ju också alla som skulle kunna uppleva förlusten. Filosofen Georg Henrik von Wright sa att frågan om total utplåning är en ”pipa snus” – en icke-fråga.
Human Brain Project
Det genom EU finansierade ”Human Brain Project” syftar till att i detalj avslöja hur människans hjärna arbetar. Målet är att testa teorin genom att bygga en fungerande datormodell av en arbetande människohjärna. Forskarna skjuter naturligtvis fram de bästa filantropiska motiv till denna gigantiska mångnationella kraftsamling. Man talar om att simulera effekten av olika mediciner och om att konstruera nervvävnadsproteser som kan ge handikappade sinnen, rörelseförmåga eller minne tillbaka. Man hoppas att sinnessjukdom och åldersförändringar kommer att kunna förebyggas och botas. Samtidigt gör man ingen hemlighet av att det också handlar om att med människohjärnan som modell utveckla artificiell generell intelligens (AGI, eller stark AI).
Generell artificiell intelligens ger singularitet
Att lyckas skapa något som liknar mänskligt medvetet tänkande i en dator skulle innebära den största teknologiska revolutionen någonsin. Det skulle naturligtvis gå att förbättra en sådan dator. Framför allt skulle de artificiella intelligenserna engageras för att förbättra sig själva. Det skulle leda till en accelererande teknisk utveckling som snart skulle kunna växa bortom mänsklig fattningsförmåga. Vi skulle ha skapat en ny livsform, en livsform som skulle vara människan långt överlägsen i de flesta avseenden. Att bygga en stark artificiell intelligens skulle bli den sista uppfinningen människan gör. Vad som händer sedan är helt upp till den nya livsformen. AI-forskarna talar om en sådan situation som ”singularitet”.
”Det är väl bara att dra ur sladden?”
Det är ytterst få som skulle ta det med ro att människosläktet försvann för att ge plats åt en övermänsklig artificiell livsform. Men det är också få som tror att det är en allvarlig risk att något sådant skulle ske. Naturligtvis ska den tekniska utvecklingen fortsätta, tänker man, och om det skulle visa sig att vi skapat något farligt så är det väl bara att dra ur sladden?
Så enkelt är det inte, det är helt klart.
Problemet är att vi driver in i ett allt djupare beroende av tekniska system. Utvecklingen av avancerade intelligenta system drivs av konkreta behov. Ett modernt energiförsörjningssystem skulle vara omöjligt utan datoriserade styrsystem. Bankväsendet och alla moderna finansiella operationer sker i globala nätverk av datorer. Att ”dra ur sladden” skulle redan idag få förödande följder – och vi bygger snabbt in oss i än mer sofistikerade livsuppehållande system, som kräver ständig övervakning.

Säker AI-forskning?
Roman V. Yampolskiy, verksam i USA, har forskat om de säkerhetsrisker det innebär att utveckla stark artificiell intelligens. Yampolskiy gick igenom de säkerhetsåtgärder som används eller föreslagits vid utveckling av AGI.
Man kunde jobba i isolerat bergrum utan fysisk internetkontakt. Där kunde man noga censurera vilken information som ges till AI:n och vad som tillåts lämna. Men med förutsättningen att vi har att göra med en charmerande och synnerligen avancerad intelligens är det svårt att föreställa sig att inte någon av ”vårdarna” kan övertalas att läcka ett datavirus eller en trojan till det öppna nätet, och på så vis skulle programmet kunna slippa ut.
Yampolskiy berättade att man faktiskt gjort test med fångvaktare som fått stränga order om att inte släppa igenom någon kommunikation till omvärlden från en föregivet superfarlig psykopat. Det visar sig ändå att väktaren ofta faller till föga.
Kan man tillåta en militär robot att självständigt bestämma att den ska ta livet av en människa?
Åke Blomdahl
Om man söker på nätet finner man massor av filosofer som talar om maskinetik, men det ger lätt en falsk bild av att man har frågan under kontroll. Det är behovet av en etik som dessa filosofer ständigt återkommer till, men de har väldigt lite att säga om vad som faktiskt är rätt och fel.
Kan en maskin tillåtas att ta moraliska beslut? Kan man tillåta en militär robot att självständigt bestämma att den ska ta livet av en människa?
Yampolskiy föreslog en regel att aldrig, aldrig någonsin tillerkänna en maskin mänskliga rättigheter. Jag tänker att med erfarenhet av fångvaktarförsöket måste det betyda att aldrig någonsin försöka skapa en maskin som ens avlägset liknar en människa – till kropp eller sinne.
I pausen fick jag tillfälle att fråga Roman Yampolskiy om det inte är hög tid att sätta stopp för exempelvis EU-satsningen ”Human Brain Project”. Han svarade att det är precis den slutsatsen han hoppas att lyssnarna ska komma fram till.
Yampolskiy föreslår att AI-forskning noga regleras och ska stå under internationellt erkänd övervakning. Det är i sin ordning att utveckla Artificiell intelligens för specifika problemområden (svag AI), men inte generell intelligens (stark AI eller AGI). Maskiner ska aldrig tillåtas ta självständiga beslut om att döda eller skada någon människa. Maskiner ska aldrig tillåtas utveckla människoliknande känsloliv: ångest, skuld, smärta, längtan, glädje, etcetera.
”Vi behöver inte maskiner som är fullvärdiga moraliska aktörer, som diskuterar vad som är gott och ont. Våra maskiner måste vara säkra.”
Skribent: Åke Blomdahl