En forskningsblogg från Centrum för forsknings- & bioetik (CRB)

Bilder av god och ond artificiell intelligens

Som Michele Farisco påpekat på den engelska versionen av denna blogg, fungerar artificiell intelligens (AI) ofta som projektionsyta för våra självbilder som människor. Ibland även som projektionsyta för våra bilder av gott och ont, som du snart ska få se.

Inom AI och robotteknik eftersträvas ofta autonomi, i meningen att den artificiella intelligensen ska kunna utföra sina uppgifter på bästa sätt utan mänsklig vägledning. Som en självkörande bil, som säkert tar dig dit du vill utan att du behöver styra, gasa eller bromsa. En annan form av autonomi som ofta eftersträvas är att den artificiella intelligensen ska vara självlärande och därmed kunna förbättra sig själv och bli kraftfullare utan mänsklig vägledning.

Filosofer har diskuterat om AI kan vara autonom även i en annan mening, som förknippas med vårt mänskliga förnuft. En autonom person kan, enligt denna bild, granska sina yttersta mål i livet och revidera dem, om hon bedömer att ny kunskap om världen gör det nödvändigt. Vissa filosofer menar att AI inte kan göra detta, eftersom det förprogrammerade målet, eller nyttofunktionen, skulle göra det irrationellt att ändra målet. Målet ligger fast. Idén om en sådan envist målinriktad AI kan väcka oroande bilder av ondskefull AI som löper amok mittibland oss. Men även betryggande bilder av god AI som pålitligt stödjer oss.

Oroade filosofer har föreställt sig en AI som har det yttersta målet att tillverka vanliga gem. Denna AI antas vara självförbättrande. Den blir därför allt intelligentare och kraftfullare vad gäller målet att tillverka gem. När råvaror sinar lär den sig nya sätt att förvandla jordens resurser till gem och när människor försöker hindra den från att förgöra planeten lär den sig att förgöra mänskligheten. När planeten är utplånad ger den sig ut i rymden och förvandlar universum till gem.

Filosofer som varnar för en sådan ”ond” superintelligent AI hyser även förhoppningar om en ”god” superintelligent AI. Anta nämligen att vi kunde ge självförbättrande AI målet att tjäna mänskligheten. Utan att tröttna skulle den utveckla allt intelligentare och kraftfullare sätt att vara vid vår sida, till tidens ände. Till skillnad från religionens gud skulle denna konstgjorda superintelligens höra våra böner och vidta allt smartare åtgärder för att hjälpa oss. Den skulle antagligen förr eller senare lära sig att förhindra jordbävningar och våra klimatproblem skulle snart vara borta. Inga teodicéproblem i världen kunde undergräva vår tro på denna AI-gud, vars makt att skydda oss mot allt ont bara ökar. Naturligtvis är det oklart hur målet att tjäna mänskligheten kan definieras. Men givet möjligheten att äntligen säkerställa mänsklighetens framtid, menar vissa hoppfulla filosofer att utveckling av människovänlig självförbättrande AI borde vara en av vår tids främsta uppgifter.

Allt detta läste jag i en välskriven artikel av Wolfhart Totschnig, som ifrågasätter den icke-reviderbara målorientering som förknippas med autonom AI i scenarierna ovan. Hans viktigaste poäng är att målstyrd AI som löper amok i universum eller räddar mänskligheten ur varje knipa inte ens är tänkbar. Utanför sin domän förlorar nämligen målet sin meningsfullhet. Målet för en självkörande bil att säkert ta användaren till destinationen har ingen mening utanför domänen vägtrafik. Domänspecifik AI kan därför inte generaliseras till världen som helhet, för nyttofunktionen förlorar sin mening utanför domänen, långt innan universum hinner förvandlas till gem eller mänsklighetens framtid hinner säkerställas av en artificiellt god gud.

Detta är naturligtvis en viktig filosofisk poäng om mål och mening, om begränsade domäner och världen som helhet. Kritiken hjälper oss att mer realistiskt bedöma risker och möjligheter av framtida AI, utan att förhäxas av våra bilder. Samtidigt får jag intrycket att även Totschnig fortsätter att använda AI som projektionsyta för bilder av oss själva. Han menar nämligen att framtida AI mycket väl kan revidera även sina yttersta mål i takt med att den utvecklar en allmän förståelse för världen. Svagheten i scenarierna ovan var ju att de utgick från dagens domänspecifika AI, inte från människans allmänna förnuftsförmåga. Vi ser då inte möjligheten av en äkta människolik AI, som självkritiskt omprövar sina yttersta mål när ny kunskap om världen motiverar detta. Sant människoekvivalent AI skulle ha full autonomi.

Att projicera mänskliga självbilder på framtida AI är inte bara en tendens, såvitt jag kan bedöma, utan en norm som styr diskussionen. Enligt denna norm projiceras fel bild i scenarierna ovan. En bild av dagens maskiner, inte av vår allmänna mänskliga intelligens. Att projicera rätt självbild på framtida AI framstår därmed som ett övergripande mål i diskussionen. Är målet meningsfullt eller borde det omprövas självkritiskt?

Detta är svåra frågor och mitt intryck av diskussionen kan vara felaktigt. Vill du göra en egen bedömning, läs artikeln: Fully autonomous AI.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Totschnig, W. Fully Autonomous AI. Sci Eng Ethics 26, 2473–2485 (2020). https://doi.org/10.1007/s11948-020-00243-z

Detta inlägg på engelska

Vi ställer frågor

1 kommentar

  1. Kent Lundgren

    Spännande tankar!

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *

Denna webbplats använder Akismet för att minska skräppost. Lär dig hur din kommentardata bearbetas.