AI: Var står vi idag, och vill vi egentligen bli superintelligenta cyborger?

Har nyligen snöat in på en massa litteratur inom ämnet AI, och tänkte här redogöra för begränsningarna med dagens AI, samt vad jag tror är de stora hinder vi behöver tackla för att någon gång i framtiden lyckas utveckla någon form av artificiell mångsidig, anpassningsbar och förnuftsbaserad intelligens. Jag kommer även presentera några tänkbara framtidsscenarier ifall vi lyckas med detta, som samtliga ter sig ganska oaptitliga. Jag målar säkert upp en alltför pessimistisk bild ibland, men det är genom att identifiera möjliga fallgropar i god tid som man undviker att trilla ner i dem.

Den svarta lådan

Läste för några år sedan Max Tegmarks bok Liv 3.0 och måste säga att jag då ändå såg någon form av mänsklig intelligensnivå vara rimlig att uppnå med de tekniker som arbetas med i ämnet, framförallt då deep learning i neurala nätverk. Men ju mer man grottar ner sig i ämnet, desto mer klarnar bilden av att de framsteg som gjorts inom detta fält ännu knappt ens börjat närma sig något som skulle kunna kallas generell intelligens (a.k.a. AGI; Artificiell Generell Intelligens).

De neurala nätverk som nuförtiden i dagligt tal kallas för artificiell intelligens förefaller i själva verket inte vara mycket mer än avancerade analysverktyg för statistik. Väldigt kraftfulla sådana givetvis, och de kan tränas att använda denna förmåga på mästerliga sätt inom snäva domäner som brädspel, objektigenkänning, textinläsning och, kanske mest imponerande, text-, tal och bildgenerering. Men att utifrån dessa förmågor tillskriva neurala nätverk tränade med djupinlärning intelligens överhuvudtaget är ganska missvisande, givet vad vi normalt tolkar in i begreppet. Det man skapat är än så länge inte mycket mer än en svart låda, där en viss input ger en output som ofta ser insiktsfull ut, men som enkom är ett resultat av dess förmåga att bearbeta ofantliga mängder data.

Statistikverktyget har då inte resonerat sig fram till någon slutsats, utan endast jämfört enorma mängder data, och utifrån detta sett ett mönster som med hög sannolikhet skulle passa in på en viss konklusion. Att som människa sedan dechiffrera vad som hänt på vägen, att bekräfta kausalitet snarare än korrelation, är i nog i praktiken ogörligt.

Att förstå vad som händer i neurala nätverk

Med detta inte sagt att vi inte skulle kunna ha nytta av sådana verktyg, men outputen kommer att behöva rimlighetsbedömas av en intelligent aktör (än så länge en människa) om man vill vara säker på att det är verklighetsförankrat och användbart. Just detta svarta lådan-problem är högst troligen något som skulle behöva elimineras för att en AI skulle kunna accepteras som en oövervakad aktör eller beslutsfattare. Man behöver förstå varför en AI kommit till en viss slutsats; ett resonemang behöver kunna presenteras. Det skulle inte räcka med en teknisk redogörelse för att den eller den neurala synapsen försvagades eller förstärktes, utan resonemanget skulle behöva ligga på den abstraktionsnivå vi människor kommunicerar på. Detta resonemang utgår, möjligen felaktigt, från att neurala närverk kommer fungera som en bas för den mest vitala delen av en framtida AGI:s processande av data, vilket är långtifrån säkert, varför vi nedan borde tillåta oss att överväga andra, ännu ej definierade, informationsbearbetningsmetoder.

Man kan fundera kring huruvida det för en framtida superintelligent AGI skulle fylla någon funktion att översätta sina synapsmodifieringar till för människan förståeliga termer. Det skulle endast vara för att låta människor ta del av lärdomarna. För en superintelligent framtida AI skulle det förmodligen bara vara ett nödvändigt ont som skulle ta tid från uppgiften. ”Gå via mänsklig abstraktionsnivå? Så onödigt!” Men skulle vi våga släppa loss en AGI som inte på något sätt är begriplig för oss? Skulle detta mänskliga behov av förståelse kunna fjättra en AGI från att nå sin maximala potential? Eller kommer man nöja sig med att se att utfallet nästintill alltid är bättre än vad mänsklig intelligens lyckas leverera?

Det är kanske inte uteslutet att vi kan närma oss någon form av beskrivande AI i framtiden, där en parallell process följer synapsskapandet i den svarta lådan och förmår att översätta detta till mänskligt relaterbar information, och därmed legitimerar slutsatsen. Dock är detta ett vanskligt sätt att försöka legitimera en AI, då den parallella AI-processen omärkbart skulle kunna tränas till att finna genvägar för att uppnå ett acceptabelt resonemang; utelämnande av viss information eller användning av vilseledande formuleringar för att dölja glapp, obekväma sanningar eller liknande. Man får då bara en parallell svart lådas resonemang till livs, och flyttar alltså endast problemet med resultatlegitimering ett snäpp i hierarkin.

Ett steg på vägen mot en bättre beskrivande AI skulle kunna vara att låta den besvara små enkla frågor efteråt, där frågeställaren steg för steg går igenom processen med AI:n, här benämnd ”du”. ” Vilka antaganden gjordes initialt?, ”Hur gick du vidare?”, ”När du kom fram till den delslutsatsen, hur resonerade du näst?”… På så sätt kan man kanske följa de logiska samband som annars blir omöjliga att pussla ihop.

Det är förvisso inte säkert att ens AI:n själv till fullo skulle kunna redogöra för sammanhangen mellan stora mängder simultana synapsförändringar, eller andra databearbetningstekniker. Då antalet möjliga kombinationer i praktiken ter sig oändliga, är det svårt att se hur ett system skulle kunna vara kapabelt att utföra sådana analyser utan att det i sig tar en oändlighet.

Skillnader mellan den mänskliga hjärnan och neurala nätverk

Givet ovan resonemang är det svårt att förstå hur människor ändå löser denna utmaning. Det handlar rimligen om att förenkla; sortera bort synbart oviktig information, använda sunt förnuft, förutsätta att det mest uppenbara är det som kommer hända och att utgå från att nästan allt man lärt sig tidigare stämmer. Detta ger vid handen att just förmågan att tänka klart även är det som ger oss fördomar; vi måste förenkla, gruppera och bortse ifrån saker och företeelser för att ens ha en rimlig chans att kunna fatta beslut i tid. För oss är att tänka klart att tänka grovkornigt.

Förhoppningen från AI-forskarna är såklart att deras uppfinning ska kunna tänka mer finkornigt, men det förefaller rimligt att anta att ”perfekt” upplösning inte är möjlig. Med den typ av maskininlärning som Deep Minds program utvecklas via borde denna gräns ligga i antalet datapunkter som programmet matas med. Finkornigheten kan därför göras många gånger bättre än hos en människa, men som sagt, den typ av inlärning som äger rum kommer endast vara applicerbar på ett smalt och avgränsat område. Det som saknas är förmågan att generalisera, att se samband mellan helt skilda företeelser.

Människor har via evolutionen begåvats med ett ramverk som tycks hjälpa oss att selektivt (fördomsfullt) sovra i dataflöden, uppskatta viss input och avsky annan. Med ett sådant ramverk sorteras många intryck bort och andra ges ett instinktivt värde; vi får mycket mindre data att processa, och våra känslor styr sedan hur vi ska processa den. Förmodligen regleras benägenheten att ta in ny data både på hur vi känner om den och hur mycket vi klarar av att processa. Sådan datahantering kräver att ramverket väljer rätt data, för annars blir kvaliteten på våra slutsatser såklart lidande. Skit in, skit ut.

Somliga individer, framförallt de med hög intelligens, löser detta med bravur, och de har genom detta selekterings- och styrningsfilter ett enormt försprång mot en ”state of the art” AI byggd med neurala nätverk när det gäller mångsidighet; generell intelligens. Må vara att detta filter väljer fel ibland, men överlag synes det vara en mycket resurseffektiv datahanteringsteknik som låter oss lösa en tillräckligt hög andel av de problem vi ställs inför för att vi ska kunna hålla oss vid liv och fortplanta oss. Än så länge har dock även de med låg IQ en långt större generell intellektuell kapacitet än någon AI, så resan mot att överträffa den mänskliga hjärnans vidd i informationsbearbetning synes lång ännu.

Förutom detta ramverk (selekterings- och styrningsfilter) är människan dessutom begåvad med en förmåga till kreativt tänkande som ingen AI av idag ens kan sägas besitta en rudimentär motsvarighet till. Den mänskliga hjärnan synes härbärgera en ”datablandare” av rang, som genom till synes slumpmässiga synapser mellan olika neuroner kan binda ihop helt orelaterade system, företeelser, erfarenheter eller tankar och testa av ifall dessa kan sys ihop till något intressant och möjligen lösa ett problem. Det förefaller inte omöjligt att efterlikna en sådan datablandning medelst att forcera slumpmässiga synapskopplingar i ett neuralt nätverk vid lämpliga tillfällen, men det kan tänkas vara svårt att garantera att dessa påtvingade kopplingar inte skulle förstöra hela det neurala nätverket. Regler (del av ett artificiellt ramverk?) kommer behövas för att styra vilka neuroner som kan tänkas lämpliga att koppla om, och när. För att prestera sådana kommer vi behöva en långt större förståelse för vår egna hjärnas ”slumpmässiga” synapsgenerering.

Drivkraften bakom människans förmågor kommer av allt att döma från våra känslor, frambringade av olika hormoncocktails som genom evolutionen kalibrerats för att hantera faror som dyker upp, prioriteringar som behöver göras för att säkerställa överlevnad på sikt, samt för att lösa problem som förbättrar livet för mänskligheten i stort. Känslorna hjälper oss dessutom att navigera vid olika vägval, där moraliska hänsyn och själviska motiv behöver balanseras för att vi ska kunna landa i en avvägd och acceptabel slutsats. Kan man på konstlad väg ge en framtida AI liknande drivkrafter? Teoretiskt sett skulle en framtida maskin kunna ”känna” på samma sätt som människor, men om den kommer byggas för att kunna det lär bero på ifall det är det mest effektiva (och eventuellt moraliska) sättet att få den att leverera bra och acceptabel output.

Att kontrollera en AGI

När vi resonerar kring dessa frågor kommer vi oundvikligen in på det beryktade ”målstyrningsproblemet” (VAP: Value Alignment Problem), som Nick Bostrom tydligt redogjort för i sin bok Superintelligence: ”Hur får vi en AI att anamma samma mål (och värderingar) som oss människor?”

  1. Hårdkodar man in generiska mänskliga preferenser i ett nästintill mänskligt ramverk? Finns det ens preferenser som samtliga människor finner acceptabla? Kodar man olika preferenser och moraliska ställningstaganden beroende på i vilken kultur AI:n utvecklas? (Det finns somliga grupper man inte skulle vilja hade övermänsklig intelligens.) Om man begränsar AI:n till ett mänskligt ramverk, hämmar man då inte dess maximala potential?
  2. Nöjer man sig med att koda in Isaac Asimovs ”Three Laws of Robotics”? Man kan tyvärr konstatera att det inte gick så bra i de flesta av hans böcker. Det går alltid att finna omständigheter som gör sådana låsta lagar självmotsägande, och därigenom möjliga att kringgå.
  3. Hoppas man bara på det bästa och låter en svarta lådan-AI agera fritt? Förhoppningsvis genom att åtminstone ha verifierat dess outputkvalitet noggrant först.
  4. Låter man en mänsklig bedömare verifiera all output från en svartalådan-AI, så att den är rimlig och etiskt acceptabel? En av de mer rimliga approacherna månne, men metoden sätter sin tillit till att bedömaren faktiskt vill väl. Det går säkerligen att bygga ett helt team som arbetar enligt tydliga regelverk för hur outputen ska granskas, men problematiken kvarstår; hur kan vi egentligen veta att några få individers mål sammanfaller med alla andras? Om en viss gruppering sitter på den enda AGI:n i världen, har de en oerhörd fördel om de vill jävlas med resten av mänskligheten. Kan vi ens hantera ”målstyrningsproblemet” inom vår egen art?

Mina tankar om målstyrningsproblemet blir därför en aning pessimistisk: Om den smartaste AGI:n vid någon given tidpunkt kontrolleras av människor som vill ont, kommer den att tillåtas agera i överensstämmelse med deras mål. Den kommer genom sin förmåga kunna göra mycket mer skada, än den onda grupp den tjänar hade kunnat åstadkomma på egen hand.

Detta innebär att ett viktigt område för framtida riskminimering gällande AGI borde vara hur man garanterar att den mest intelligenta och kapabla AGI:n alltid kontrolleras av goda krafter. Detta torde vara extremt svårt att garantera, men en gångbar väg skulle möjligen kunna vara samma typ av internationella överenskommelser som träffats gällande kärnvapen.

Hindren som måste överkommas, och en möjlig genväg

Men vi borde inte oroa oss alltför mycket i dagsläget; AGI ligger förmodligen ganska långt bort i tid. Att konstruera någon form av generell intelligens som framgångsrikt och pålitligt kan applicera insikter från en domän på en helt annan förefaller i dagsläget fortfarande science fiction. Enbart neurala nätverk kommer med största sannolikhet inte leda till AGI, annat än sådana som skulle kunna lajva AGI (verka ha insikter och komma fram till goda resultat inom snäva domäner). Dock kommer djupinlärning i neurala nätverk säkerligen kunna vara något som gör en riktig framtida AGI än mer kraftfull. Så vad saknas då för att vi ska nå hela vägen?

  1. Ramverk: Ett av de stora tillkortakommandena med neurala nätverk är sannolikt avsaknaden av ett ramverk som sållar ut viktig data och processar den på ett målinriktat vis (som människor instinktivt gör). Det är inte hållbart att en AGI skulle behöva bearbeta miljardtals datapunkter för att slutligen koppla vad som egentligen var den viktiga i inputen. De ligger då efter redan från scratch. Intelligent beteende handlar väldigt ofta om att kunna dra slutsatser även ur små datamängder. En AGI kommer behöva ”sunt förnuft”.
  2. Kreativitet: När det sedan kommer till kreativitet och korsbefruktning av idéer, vilket den mänskliga hjärnan excellerar i, har neurala nätverk av idag inga processer eller algoritmer för att generera nya insikter i en domän genom att dra paralleller från en helt annan. Huvudproblematiken för att utveckla en sådan process torde vara att vi inte heller vet hur hjärnan gör detta.
  3. Flexibilitet: Kan det vara så, att för att uppnå någon form av generell intelligens går det inte att nöja sig med att endast ha ETT mål inom ETT avgränsat område. Människor är helt klart flexibla och ombytliga, och snappar hela tiden upp nya tankar som skulle kunna hjälpa dem att lösa problem de inte ens funderat på tidigare. Vi hittar på nya mål hela tiden, ständigt styrda av våra subjektiva känslor för olika företeelser och utfall. Låt vara att vi inte alltid löser det problem vi ursprungligen försökte tackla, men på resan fann vi kanske ett mycket intressantare mål. Kanske krävs det att en AGI ges möjlighet att definiera sina egna mål på vägen (vilket definitivt skulle riskera att inkräkta på målstyrningsproblemet)?
  4. Förståelse: Kan en AGI utvecklas utan att begåvas med någon form av människolik varseblivning? Oaktat vad ett artificiellt medvetande skulle innebära för vårt förhållningssätt gentemot det är det svårt att föreställa sig att ett intelligent eller superintelligent väsen inte skulle behöva uppleva att den är en del av världen; ”känna” sig som en aktör som både är beroende av sin omgivning, men som även kan påverka den. För att kunna navigera i ett sådant sammanhang ponerar jag att en AGI kommer behöva en rudimentär förståelse för den data den bearbetar. Om den ska vara generellt intelligent kommer den inte ha lyxen att kunna fokusera på endast en sak åt gången, utan kommer behöva förhålla sig till myriader av intryck (ny data) och därur ”magiskt” kunna förnimma vad som bör beaktas, och vad som bara är strunt. Krävs medvetande för att göra en relevant sådan filtrering? Rent principiellt tror jag inte det finns några hinder för en artificiell intelligens byggd på algoritmer och kiselkretsar att bli medvetet. Medvetande är så att säga substratoberoende; det finns ingen ”magisk” varseblivning som endast biologiskt liv skulle kunna uppleva.

Betraktar man de ovan nämnda områdena ser det ut som att man kommer behöva basera mycket av AGI-designen på den mänskliga förlagan. Då vi i dagsläget inte förstår ens en bråkdel av hjärnans processer, finns det dock inte mycket hopp för en sådan taktik att nå i mål inom överskådlig framtid. Men om det blir strategin vi väljer att jobba med är det kanske inte i första hand en superintelligens vi utvecklar, utan en android, en form av supermänniska.

Kanske kommer olika former av bio-hacking att konkurrera med klassisk AI-forskning om att nå fram till ett sådant människoliknande väsen, digitalt eller fysiskt till formen.

Sen finns ju såklart möjligheten att kombinera dessa två approacher genom att integrera artificiella kretsar i den mänskliga hjärnan; operera in chip som kan hämta data från nätet och processa den, men som lyder under vårt än så länge mystiska ramverk. Det förefaller högst troligt att denna metod kommer vara intressant att experimentera med framöver, då den erbjuder en genväg till samtliga av de eftertraktade kvaliteterna; selektering och styrning, kreativitet, flexibilitet och förståelse. Det man inte får är en pålitlig maskin som alltid spottar ut precis vad man efterfrågar, men man lär få en hel del smarta insikter om än det ena, än det andra, kanske även om sådant man inte vill veta.

En bångstyrig AGI-cyborg, eller en värld full av dem?

Att artificiellt uppgradera den mänskliga hjärnan för att nå nya intellektuella höjder kommer ju även det med sina risker. Vilka förmågor skulle en sådan cyborg kunna ha? Det känns som att det borde finnas stora incitament att välja person med oklanderlig vandel, noggrant utredd för psykisk stabilitet och god moral. Men även om så är fallet, vågar vi släppa en sådan cyborg lös? Eftersom en superintelligent cyborg skulle ha förmågor vi inte ens kan föreställa oss, känns det vanskligt att tillåta den att agera autonomt. Vad händer om denna cyborg har en dålig dag? Om den blir arg på någon? Om den tycker att en ledare i något land är ond och förtjänar att dö? Den kanske skulle ha kapacitet att omsätta sina önskemål i verkligheten, utan att någon skulle ha förmågan att stoppa den. Den skulle förmodligen kunna lura och bedra vem som helst. Vi befinner oss då i samma sits som beskrevs ovan, där gruppen som först utvecklar en superintelligent AGI sitter med världens öde i sina händer.

För att mitigera en sådan risk kan det vara en ändamålsenlig approach att steg för steg sprida ut tekniken över hela mänskligheten. AI-integration blir då en mänsklig rättighet. För att inte kunna luras av en superintelligent cyborg, är kanske den enklaste vägen att bli en själv. De potentiella fördelarna är otaliga, och många skulle säkert vilja vara med på tåget. Somliga skulle inta en mer skeptisk hållning, och vilja fortsätta leva som enkom biologiska varelser. I början upplevs kanske skillnaderna inte så mycket, men efter ett antal uppgraderingar kommer cyborgerna förmodligen märka att de inte längre har något större utbyte av de som valt att inte bli cyborger; de är inte som dem.

Kanske börjar man se på dem lite som vi ser på husdjur nu? Kanske tillåts de leva vidare på nåder i egna samhällen, eller blir de slavar till de nya härskarna?

Det är lite intressant att fundera på ifall en värld full med superintelligenta cyborger skulle utvecklas till en drömlik värld där alla lever i lyx och överflöd genererat av ny teknik och insikter om livet och universum, eller ifall den mänskliga driften att identifiera andra grupper som sina fiender fortfarande är närvarande och föranleder dem att använda stora delar av sin intelligens och kreativitet till att föra krig mot varandra. Som mänskligheten idag typ, fast med fräckare prylar. Jag gissar på det senare.

Att bevara den mänskliga värdigheten

Resonemanget ovan visar att många risker med en framtida superintelligens kan ha en direkt koppling till den mänskliga naturen. Människor kan vara lynniga, deprimerade, förbannade eller rent av elaka, och det synes en dålig idé att förse en individ eller AGI med sådana destruktiva sinnesstämningar med en ofattbart större kapacitet att omsätta denna i onda gärningar. Kanske vi behöver förstå den mänskliga hjärnan först, innan vi integrerar den med AI eller ens använder delar av den som blueprint för datorbaserad sådan. Endast då har vi en rimlig chans att kontrollera eventuella destruktiva impulser.

Problemet är som sagt att vi ännu vet alldeles för lite om vår egen hjärna, och att det är långtifrån säkert att vi någonsin kommer förstå hur den fungerar fullt ut. Därav lockelsen att åka snålskjuts på det mänskliga intellektuella ramverket, med den olyckliga konsekvensen, vid cyborgstrategin, att vi steg för steg urlakar värdet i att vara en vanlig människa.

Om vi kan begränsa oss till att endast utveckla datorbaserad superintelligens, och fortsätta vara människor istället för cyborger, finns det i alla fall hopp om att vårt människovärde kommer bestå. Om det sen finns en framtid för oss som art lär bero på hur väl vi lyckas tämja den externa superintelligensen när vi väl skapat den, och vad vi väljer att använda den till.

Klart är i alla fall att vi inte kommer sluta försöka skapa AGI, alldeles oavsett riskerna. Bra eller dåligt, det ligger i vår natur.

Lämna en kommentar