tisdag 8 mars 2016

Artificiell intelligens är inte (självklart) klok

Avslutar denna dag som fyllts av diverse saker, men där huvudfokus varit att rätta tentor, med en bloggpost som tangerar ämnet för tentan: Hållbar utveckling, och som knyter an till dagens två första poster, humanism, kunskap och reflektion. Utgångspunkten är dagens Under Strecket, som handlar om relationen mellan människor och robotar/artificiell intelligens. Är tekniken ett hot eller en möjlighet? Går det ens att veta på förhand? Det är Helena Granström som skriver klokt och eftertänksamt om ämnet som annars lätt urartar till polariserad debatt.
Av alla de förmågor som tekniken har vunnit åt mänskligheten är det en som utmärker sig: vår förmåga att tillintetgöra oss själva. Denna tvivelaktiga färdighet kan först sägas ha förvärvats i och med atomvapnets tillkomst, men är numera också en konsekvens av tekniker som vi normalt uppfattar som konstruktiva: nanoteknologi, bioteknologi och robotik.
Jag skulle vilja tillägga en del saker och aspekter, för jag menar att förmågan att tillintetgöra oss själva är mycket äldre än så och den finns inbyggd som ett slags bugg i systemet. Tänker på människans förmåga att äta sig till döds, eller oförmågan att värja sig från drogernas potentiella makt. Sedan är det väl bara delvis sant att människan har en förmåga att tillintetgöra sig själv. Handlar det inte snarare om en oförmåga att se riskerna, trots att de stirrar oss rakt i ansiktet? Vapen och droger tillverkas ju inte för att förinta en själv eller gruppen man tillhör, utan för njutningens skull eller för att förgöra den andre. Att vapen och droger sedan visar sig vara tveeggade svärd är en aspekt som upptäcks senare, inte sällan försent.
Medvetenheten om att dessa nya tekniker, som påstås radikalt kunna förbättra människans livsvillkor, lika väl kan komma att eliminera varje förutsättning för liv, tycks under senare år ha vuxit fram också bland de teknik- och vetenskapsutövare som själva driver utvecklingen. Ett uppmärksammat exempel på detta är en artikel av Bill Joy i tidskriften Wired år 2004, med titeln ”Why the future doesn’t need us”. Joy – själv en framstående programmerare, som bland annat bidragit till skapandet av programmeringsspråket Java – argumenterar här för att människan genom sina vetenskapliga och teknologiska aktiviteter riskerar att skapa en framtid där hon själv inte längre har någon plats. Också internationellt etablerade fysiker som Martin Rees och Max Tegmark har påtalat samma problematik: risken att det moderna samhällets vetenskap och teknik på sikt ska komma att leda till dess utplåning.
Det oroar mig mycket att dessa tankar inte får mer uppmärksamhet, och det är bland annat därför jag vill lyfta frågan. Det skulle inte vara första gången i mänsklighetens historia som varningar viftas bort i tron att man har allt under kontroll. Att det finns en risk att det är sista gången som oron viftas bort föresvävar sällan den som känner medvinden blåsa, eller den som ser möjligheter att tjäna pengar. Jag har fortfarande inte glömt hur föreläsaren (som kom till vår högskola för att tala om nya IT-lösningar) hånskrattande viftade bort min fråga som gick ut på att lyfta frågan om risker. Jag ställde frågan: Finns det INGA risker?! Och möttes med orden: Den där inställningen har ny teknik alltid mötts med, och sedan påminde han om hur människor förfasades över faran med att färdas per  tåg i den svindlande hastigheten av 30 kilometer i timmen. Föreläsaren inställning gjorde mig verkligt orolig, vilket jag inte alls var innan. Om teknikutvecklare bär på en sådan arrogans och om kritiska frågor viftas bort så lättvindigt har vi ett problem, ett allvarligt problem.
Till denna för samtiden signifikativa genre kan även Olle Häggströms nyutkomna bok ”Here be dragons. Science, technology and the future of humanity” (Oxford University Press) räknas; en appell för att medvetandegöra riskerna med ny teknik, och därigenom kunna fatta informerade beslut om en önskvärd riktning för den teknologiska utvecklingen. Häggström är professor i matematisk statistik, men med ett vetenskapligt intresse som långt överskrider det egna ämnet.

Ett av de teknologiska hot som boken behandlar återfinns inom området artificiell intelligens. Farhågorna gäller inte i första hand de uppgiftsspecifika robotar vi ser idag; en dator som kan undervisa i engelska eller hjälpa åldringar att duscha har i och för sig en nog så oroväckande potential att förändra hur vi ser på relationer inom det mänskliga sam­hället, men knappast förmågan att utplåna detta samhälle helt.

Vad Häggström, och många bedömare med honom, istället fokuserar på är försöken att utveckla artificiella former av så kallad generell intelligens, alltså en flexibel och mångfacetterad begåvning ­liknande människans. Att detta är möjligt är inte uppenbart, men definitivt inte uteslutet: den mänskliga hjärnan utgör i sig bevis för att materia kan ordnas på ett sådant sätt att intelligent med­vetande uppstår. Kanske skulle då också männi­skan själv kunna göra det – och kanske till och med göra det på sätt som är ännu mer effektiva.
Varför? För att man kan? Det oroar mig att forskare inte tänker längre än till sin egen nyfikenhet. Vad ska vi med en parallell intelligens till, när vi nu bevisligen inte kan hantera den intelligens vi har. Jag har oerhört svårt att se hur artificiell intelligens skulle kunna fylla något annat behov än nyfikenhet. Tänker på ordspråket, som väl bara finns på engelska men som i översättning lyder: Nyfikenheten dödade katten. Människan är nyfiken, men är vi verkligen nyfikna på vår egen (potentiella) undergång. Efter byggandet av atombomben, som av allt att döma skapades helt i onödan? Hitler var besegrad (och Nazityskland hade inte lyckats utveckla någon bomb) och kriget mot Japan var i princip vunnet. Handlar forskningen om AI om makt? Det skulle i så fall inte vara första gången som viljan till makt driver människan till undergångens rand.
Det är alltså från denna sista möjlighet som det verkliga hotet härrör: om människan väl lyckades skapa ett medvetande som övertrumfar hennes eget i intelligens, finns egentligen inga skäl att tro att hon skulle kunna behålla kontrollen över det. Den skenbara lösningen att helt enkelt programmera den intelligenta maskinen med instruktioner om att agera i enlighet med mänsklighetens intresse visar sig vid närmare påseende medföra betydande komplikationer. En maskin programmerad att genom sitt agerande maximera mänsklighetens lycka skulle till exempel kunna finna det mest rationellt att på kemisk väg stimulera lyckocentra i alla människors hjärnor, och därmed anse sig ha fullföljt sitt uppdrag.
Här finns även roten till kritiken mot scientismen och den blinda vetenskapstro samt fundamentalistisk rationalism. För om vetenskapen anses sitta inne med alla svar, om allt kan lösas med den vetenskapliga metoden, om etik går att räkna på, och om kritiskt tänkande och hermeneutisk analys betraktas som humbug, ligger manegen krattad för framstegets obönhörliga kraft. Den mänskliga faktorn reduceras till ett misstag som viftas bort på samma sätt min fråga till IT-gurun. Den som skapar maskinen tror kanske att hen kan kontrollera den, men det inser alla som läser boken Bomben, av journalisten Eric Schlosser, är omöjligt. Därtill är kulturen allt för komplex, och tidsperspektiven allt för långa för att kunna överblickas. Det kan knappast vara förenligt med god forskningsetik, tänker jag, men inser att denna typ av forskning troligen faller utanför Etikprövningslagen. Det borde man se över!
Inte heller att tilldela en sådan intelligens ett skenbart harmlöst uppdrag som att tillverka så många gem som möjligt visar sig vara utan risker: förr eller senare kan denna robot tänkas finna att en hel massa atomer går åt till att bygga upp levande varelser – atomer som skulle kunna användas till gem istället.
Granströms reflektioner är ingen domedagspredikan, det är fullt rimliga påpekanden som det inte finns några som helst givna svar på. Det är på inget sätt övertygande att forskare säger att det aldrig kommer att bli så, för det är ett subjektivt uttalande, en partsinlaga. Här öppnar sig ett enormt behov av kritiskt tänkande, och behovet av humaniora är större än någonsin. Nu är dock inte Granström humanist, hon är matematiker, och det visar att förmågan att tänka kritiskt, analytiskt inte är exklusivt humanistisk. Det är bra, men inte övertygande. Det behövs fler analyser, från olika håll och med olika utgångspunkter, framförallt behövs det samtal vars utgångspunkt är att det inte finns några givna svar, som förs utan att man ska nå ett avslut. Idag forskas nästa bara om maskiner och deras förmåga, nästan inte alls om människans relation till och syn på maskiner. Det är som man tror att allt löser sig när den dagen kommer, vilket jag inte alls är övertygad om. Tvärtom fyller avsaknaden av forskning och det utbredda ointresset med fasa. Plötsligt kan det vara för sent, och då är det verkligen för sent.
Ett liknande skräckscenario dyker upp i relation till självreplikerande nanorobotar, mikroskopiska objekt som av entusiaster förutsägs kunna revolutionera såväl sjukvård som tillverkningsindustri. Om vi en gång tappade kontrollen över deras tillväxt skulle de kunna komma att konsumera hela atmosfären på några veckor. Den nya tekniken skapar med andra ord en helt ny kapacitet för katastrof: vi riskerar inte längre bara att utradera vissa former av biologiskt liv, utan livet över huvud taget, ned till bakterienivå.

Frågan måste då bli varför vi framhärdar i dessa riskprojekt. Eller, rättare: varför låter vi, utan att protestera, en liten minoritet bedriva verksamheter som skulle kunna leda till hela mänsklighetens ­utplåning? Oavsett värdet av de kvantitativa sannolikhetsbedömningar som Häggströms skisserar, tycks det oväsentligt om risken för den egna artens utplåning är 1 på 10 eller 1 på 10^8 för en given verksamhet – att den över huvud taget föreligger borde göra att kraven på verksamhetens angelägenhet blir närmast oändligt stora.
Om det finns en risk att något går snett kommer det förr eller senare att gå snett, för kulturen är som sagt komplex och framtiden är lång, mycket lång. Ingen kan veta vad som händer eller hur man tänker i framtiden. Risken är det samma som den blinda tron på människans rationella egenskaper. Det må vara som det vill med den saken, men till det mänskliga hör också och samtidigt förmågan att koppla av, koppla bort och helt gå på känslan. Ingen kan på förhand veta vad som är vad och när det ena går över i det andra. Förnekelse är inte undantaget i människans konstitution, utan en integrerad del av helheten, liksom konstant överskattning av den egna förmågan.  
Visionerna för bioteknik, nanoteknik och artificiell intelligens spänner över ett brett spektrum – allt ifrån att effektivisera industriella processer till att garantera människan evigt liv. Men snarare än lockelsen hos dessa möjligheter är den verkliga orsaken till vår passiva acceptans sannolikt vanmakt: den kraft med vilken den teknologiska framdriften sker idag får det att framstå som osannolikt att ett globalt moratorium ens för den mest riskabla forskning eller teknik­utveckling vore möjligt. Och även om det vore det skulle vi med hjälp av sådana beslut enbart kunna stävja de risker vi förmår förutse: ofta är de allvarligaste skadeverkningarna av en ny teknik sådana som ingen på förhand hade kunnat ana.
Framtiden går inte att sia om, och vad människan redan idag är kapabel till har (vissa av) forskarna på Karolinska visat, liksom hur svagt skyddet mot katastrofen är. Vanmakt kan drabba vem som helst, särskilt om man vet att man har rätt men trots det möts av tystnad eller ifrågasättande. Vetenskapen om människan, beteendevetenskap och humaniora, borde bjudas in och vara del av forskningen. Fast det skulle innebära att kostnaderna ökade enormt, för då skulle HELT andra hänsyn än dagens tvingas fram. Kanske ser det dyrt ut, men i jämförelse med en potentiell katastrof är priset att betrakta som en spottstyver.
I alla händelser saknas inte incitament för någon form av begränsning. Att tekniker för att tillverka kärnvapen mer än ett halvt sekel efter deras tillkomst fortfarande är svårtillgängliga för alla andra aktörer än välorganiserade stater kan inte sägas vara något annat än resultatet av en teknikhistoriens lyckliga slump – vi kommer inte nödvändigtvis att ha samma tur med tillgänglighetsutvecklingen för bio- eller nanoteknologi under de närmaste ­decennierna.

Redan nu förefaller kunskap inom dessa områden hos enstaka individer med ont uppsåt kunna räcka för att åsamka mänskligheten betydande skada: exempelvis meddelade en grupp forskare år 2005 att de lyckats återskapa spanska sjukan, ett ­virus som under sina härjningar vid 1900-talets början tog livet av omkring 50 miljoner människor. Utifrån detta är det svårt att dra någon annan slutsats än att tekniken i sig är livsfarlig – att fel personer ska komma i besittning av tillräcklig kunskap för att upprepa forskarnas bedrift framstår snarare som en fråga om när än om.
Naiviteten känner inga gränser. Fascinationen för kunskapen och den som säger sig veta är enorm, bevisligen. Det är ett karaktärsfel inbyggt i människan som är livsfarligt att förneka eller vifta bort. Det handlar inte om rätt eller fel, utan om mänsklighetens framtid och om livet på jorden, idag, imorgon och långt in i framtiden. Det finns redan idag mer eller mindre akuta risker som behöver hanteras, som är resultatet av tidigare forskares arbete. När ska vi lära oss? När ska vi fatta att kunskap aldrig är ond eller god i sig själv och att risker är lika svåra att förutse som framtiden?
Häggströms huvudsakliga fokus ligger vid de existentiella hoten, alltså den teknik eller forskning som har kapaciteten att fullständigt utradera mänskligheten vid olyckor eller missbruk. En fråga han däremot inte fördjupar är den om vilken värld som kommer att bli resultatet, om vi – kanske mot förmodan – lyckas styra utvecklingen bort från teknikens mest destruktiva effekter, och därmed kan fortsätta att skörda dess frukter under många år framöver. Hur, med en formulering lånad från Bill Joys artikel, skulle det vara att som människa faktiskt leva i den värld som är det realistiska resultatet av våra teknologiska och vetenskapliga strävanden? Framtiden må vara teknologiskt storslagen – men vore den ­uthärdlig?
Vill vi att maskinerna ska ta över? Hur påverkar det oss och vår syn på varandra? Redan idag brottas vi med många mänskliga problem som ny teknik medfört. Effektiviseringshungern som gör att människor blir arbetslösa samtidigt som företagen tjänar pengar som hamnar i en krympande elits fickor som blir allt rikare och som hotar att slita isär mänskligheten, talas det knappt om. Aningslösheten är är inget diffust hot, det är en realitet redan idag. Inget talar för att det kommer att förändras i framtiden. Människan har inte bara kapacitet att förgöra sig själv, vi saknar dessutom insikt om riskerna. Varje gång jag hör att en humanist, som i förra bloggposten, avfärdas, eller när humaniora pekas ut som onödigt, vaknar rädslan till liv. Vi behöver tala om detta!
Häggström diskuterar som hastigast mänsklig värdighet som grund för en argumentation kring ny teknik, men finner att begreppet är för vagt för att vara meningsfullt: om vi är överens om betydelsen av att värna mänsklig autonomi, menar Häggström, tillför det ingenting. Problemet med en sådan hållning är att den riskerar att leda till att även begreppet mänsklighet i sig börjar luckras upp.
Jag ser en uppenbar fara för detta. Jag har hört liknande resonemang tidigare, om begreppet kultur och begreppet hållbarhet, till exempel. "Det är allt för diffust för att kunna användas", som om det vore ett legitimt skäl att låta bli att ta tag i frågan?! Aningslösheten och naiviteten går hand i hand med framgång och berömmelse, och slänger vi in pengar i ekvationen får rationaliteten svårt att hävda sin rätt. Händelserna på Karolinska talar sitt tydliga språk, och det faktum att det som hände där inte resulterat i något radikalt är alarmerande och borde mana till eftertanke. 
Föreställ dig en framtid där omhändertagandet om såväl barn som äldre och sjuka sedan länge ­automatiserats; där vår grundläggande försörjning i än högre grad än idag gjorts beroende av maskiner, eftersom de nu också har förmågan att självständigt besluta om produktionsnivåer och transportkedjor; där genuppsättningen hos varje barn som föds är medvetet vald för att eliminera ärftliga sjukdomar, och optimera begåvning, utseende och fysisk hälsa.

Eller, för att följa den transhumanistiska visionen till dess slutpunkt: en framtid där vi kan leva för evigt i en virtuell verklighet, genom att ladda upp våra medvetanden på datorer. En framtid där vi så väl behärskar den mänskliga kroppens biokemi att vi inte längre behöver vara lyckliga för att kunna få känna lycka.
Det är detta jag tror är den egentliga drivkraften. Människans hopplösa, omöjliga och oerhört naiva längtan efter evigt liv. Människan vore inte människa om livet var evigt. Att längta och drömma efter det ouppnåeliga är lika mycket en del av det mänskliga som affektioner, dumhet och briljans. Människan är dödlig, det är en del av begreppet människa och det är utgångspunkten för livet. Detta måste vi inse och förhålla oss till, det är inget hinder, det är en möjlighet. Döden ger livet dess värde, och det är mer värdefullt än annat annat!
Samtliga dessa ting skulle mycket väl kunna vara resultatet av en serie fullt autonoma mänskliga beslut, som alla i sin enskildhet måste uppfattas som oproblematiska – men som icke desto mindre skulle summera till en allvarlig inskränkning av det vi idag förstår som mänsklighet. Om vi inte är beredda att tala om mänsklig värdighet – eller om den fysiska verklighetens prioritet över den virtuella – har vi slutligen ingenting att sätta emot sådana ­visioner. Men oavsett hur vi ställer oss till dem, bör vi vara överens om att det för ingen av dem är värt att riskera det biologiska livets fortsatta existens.
Jag kunde inte instämma mer! Detta är en av de viktigaste texterna jag läst på länge.

Inga kommentarer: