En forskningsblogg från Centrum för forsknings- & bioetik (CRB)

Etikett: artificiellt medvetande

Varför ställer vetenskapen frågan om artificiellt medvetande?

Möjligheten av medveten AI uppfattas alltmer som en legitim och angelägen vetenskaplig fråga. Detta intresse har uppstått efter en lång historia av vetenskapliga tvivel på möjligheten av medvetande inte bara hos andra djur, utan ibland rentav hos människan. Själva begreppet medvetande ansågs under en period vara vetenskapligt suspekt. Men nu ställs alltså frågan om medveten AI inom vetenskapen.

För den som är intresserad av hur en så halsbrytande fråga kan besvaras filosofiskt och vetenskapligt, vill jag rekommendera ett intressant AI-filosofiskt tankeutbyte i den franska tidskriften Intellectica. Tankeutbytet (som är på engelska) kretsar kring en artikel av två filosofer, Jonathan Birch och Kristin Andrews, som under flera år diskuterat medvetande inte bara bland däggdjur, utan även bland fåglar, fiskar, bläckfiskar, kräftdjur, reptiler, groddjur och insekter. De två filosoferna skiljer noga mellan psykologiska frågor om vad som kan göra oss emotionellt lockade att tro att ett AI-system är medvetet, och logiska frågor om vad som filosofiskt och vetenskapligt kan räknas som evidens för medveten AI. Det är till detta logiska perspektiv som de vill bidra. Hur kan vi avgöra om ett artificiellt system verkligen är medvetet; inte bara förföras till att tro det för att systemet emotionellt övertygande speglar beteendet hos subjektivt upplevande människor? Deras grundtanke är att vi först bör studera medvetande hos ett brett spektrum av djurarter bortom däggdjuren. Dels för att människohjärnan skiljer sig alltför mycket från (dagens) artificiella system för att fungera som lämplig utgångspunkt, men framförallt för att sådan bred jämförelse kan hjälpa oss att identifiera de väsentliga dragen hos medvetandet: drag som kunde användas som markörer för medvetande i artificiella system. De två filosofernas förslag är alltså att vi, genom att utgå från olika former av djurmedvetande, bättre kan förstå hur vi filosofiskt och vetenskapligt bör söka evidens för eller emot medveten AI.

En av mina kollegor vid CRB, Kathinka Evers, även hon filosof, kommenterar artikeln. Hon uppskattar Birch och Andrews diskussion som filosofiskt klargörande och ser förslaget att närma sig frågan om medveten AI via studium av medvetandeformer hos ett brett spektrum djurarter som väl underbyggt. Hon menar dock att ett antal frågor fordrar mer uppmärksamhet. Bland annat frågar hon om inte övergången från kol- till kiselbaserade substrat fordrar större uppmärksamhet än Birch och Andrews ger den.

Birch och Andrews föreslår ett tankeexperiment där en robotråtta beter sig exakt som en verklig råtta. Den klarar samma kognitiva och beteendemässiga tester. De antar vidare att råtthjärnan avbildats exakt i roboten, neuron för neuron. I ett sådant fall, menar de, vore det inkonsekvent att inte acceptera samma smärtmarkörer som gäller för råttan även för roboten. Fallen är lika, menar de, övergången från kol till kisel ger inte tillräckliga skäl för att betvivla att robotråttan kan känna smärta när den uppvisar samma drag som markerar smärta hos den verkliga råttan. Men fallen är ju inte lika, påpekar Kathinka Evers, för den verkliga råttan är, till skillnad från roboten, levande. Om liv är väsentligt för medvetande så är det inte inkonsekvent att betvivla att roboten kan känna smärta ens i detta tankeexperiment. Någon kunde givetvis förknippa liv med medvetande och hävda att en robotråtta som uppvisar de väsentliga dragen för medvetande också måste betraktas som levande. Men om syftet är att identifiera vad som logiskt kan fungera som evidens för medveten AI så kvarstår problemet, menar Kathinka Evers, för vi behöver då klargöra hur relationen mellan liv och medvetande ska undersökas och hur begreppen ska definieras.

Kathinka Evers föreslår alltså flera frågor av relevans för vad som logiskt kan räknas som evidens för medveten AI. Men hon ställer också en mer grundläggande fråga, som kan anas genom hela hennes kommentar. Hon frågar varför frågan om konstgjort medvetande alls ställs inom vetenskapen idag. Ett av Birch och Andrews syften var som sagt att undvika att svaret styrs av psykologiska tendenser att tolka en AI som övertygande speglar mänskliga känslor som om den vore medveten. Men Kathinka Evers frågar, som jag läser henne, om inte detta logiska syfte möjligen kommer för sent. Är inte redan frågan en frestelse? AI är tränad på människogenererade data för att spegla mänskligt beteende, påpekar hon. Söker vi måhända filosofisk och vetenskaplig evidens kring en fråga som tycks betydelsefull bara för att vi har en psykologisk tendens att identifiera oss med våra digitala spegelbilder? För att en fråga ska betraktas som vetenskaplig och värd att finansieras krävs vanligen något slags initialt empiriskt stöd, men det finns överhuvudtaget ingen evidens för möjligheten av medvetande hos icke-levande entiteter såsom AI-system. Frågan om en AI kan vara medveten har inte mer empiriskt stöd än frågan om vulkaner kan uppleva sina utbrott, påpekar Kathinka Evers. Risken är stor att vi vetenskapligt försöker besvara en fråga som saknar vetenskaplig grund. Hur försiktigt vi än söker det efterlängtade svaret, så tycks frågan oförsiktig.

Jag kommer att tänka på myten om Narcissus. Efter en lång historia av avvisanden av andras kärlek (andras medvetande), förälskade han sig slutligen i sin egen (digitala) spegelbild, sökte hopplöst att krama den, och plågades sedan av en evig längtan efter bilden. Är du där? Kommer spegelbilden att svara? En AI kommer säkert att generera en respons som talar till våra mänskliga känslor.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Birch Jonathan, Andrews Kristin (2024/2). To Understand AI Sentience, First Understand it in Animals. In Gefen Alexandre & Huneman Philippe (Eds), Philosophies of AI: thinking and writing with LLMs, Intellectica, 81, pp. 213-226.

Evers Kathinka (2024/2). To understand sentience in AI first understand it in animals. Commentary to Jonathan Birch and Kristin Andrews. In Gefen Alexandre & Huneman Philippe (Eds), Philosophies of AI: thinking and writing with LLMs, Intellectica, 81, pp. 229-232.

Detta inlägg på engelska

Vi söker klarhet

Kan konstgjort medvetande skapas, är det ens tänkbart?

Hur otroligt det än kan låta så finns det faktiskt ingenjörsmässiga försök att skapa medveten artificiell intelligens. Med tanke på att uppfinnare också försökt att skapa evighetsmaskiner, finns skäl att tänka efter. Kan artificiellt medvetande verkligen skapas? Är ”idén” ens tänkbar? Dessa frågor ställs av Michele Farisco, i ett inlägg på den engelskspråkiga versionen av denna blogg.

Ett sätt att tänka efter kring den här typen av intellektuellt lockande idéer är att föreställa sig jämförbara exempel som är klart meningsfulla, som kanske redan finns eller åtminstone är tekniskt möjliga att skapa. Drömmen om en evighetsmaskin kan till exempel jämföras med försök att minimera friktionen i ett gyroskop, så att det fortsätter att snurra häpnadsväckande länge utan ytterligare energitillförsel. Den intellektuella tjusningen i idén om en perpetuum mobile kan naturligtvis stimulera kreativiteten och de mest oväntat energieffektiva lösningar ser dagens ljus, även om det inte handlar om ”evighetsmaskiner”. Samtidigt kan dessa jämförbara exempel, som faktiskt är tekniskt genomförbara eller kanske rentav existerar, hjälpa oss att hantera intellektets tendens att ibland förlora sig i sina egna drömmar. Vi får någonting konkret verkligt att jämföra med, en vaken kontrast till vad vi drömmer om.

Michele Farisco gör något liknande med idén om artificiellt medvetande. Han definierar en begränsad aspekt av vad vi kallar medvetande, en aspekt som redan idag kunde skapas i form av en AI-robot. Den aspekt han avgränsar är inte förmågan att ha upplevelser (eller subjektiva erfarenheter), utan snarare en förmåga att välja ut relevant information från omgivningen och använda informationen för att uppnå specifika mål. Han lägger till ytterligare några krav på processen, som du kan läsa mer om i hans inlägg: Conceivability and feasibility of artificial consciousness. Där hittar du även länk till artikeln som inlägget utgår från.

I själva verket har ett robotsystem som är medvetet i denna begränsade mening redan skapats, enligt Michele Farisco, nämligen inom CAVAA-projektet där han arbetar. Roboten hanterar information på ett sätt som kan anses uppfylla definitionen som antyddes ovan. Michele Farisco hänvisar till robotexemplet för att hjälpa oss att tänka mer vaket om konstgjort medvetande, men just för att exemplet är så bra kunde man också uppfatta roboten som ett lovande steg mot drömmen om konstgjort medvetande.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Vi söker klarhet

Varför försöka skapa medveten AI?

Trots att det är oklart vad det kan innebära att tala om ”medveten AI” så finns det en vilja att skapa ”det”. Vad kunde vi tänka oss att fördelarna med medveten AI vore? Varför försöka skapa subjektiv erfarenhet i AI-system? Vad kunde vi förvänta oss av en sådan strävan? Detta är frågor som Michele Farisco diskuterar på den engelska versionen av denna blogg.

Michele Farisco nämner flera möjliga svar på frågorna. Till exempel kunde strävan efter artificiellt medvetande bidra till bättre kunskap om biologiskt medvetande och till bättre teknisk prestanda hos AI-system. Han reflekterar även över möjliga etiska och samhälleliga effekter av medveten AI. Man kunde till exempel hoppas att medveten AI skulle hjälpa människan att förutse negativa konsekvenser av långsiktiga beslut och bidra till en mer hållbar och etisk utveckling. Men om mänskligt medvetande inte lyckats med detta, utan tvärtom ofta visar prov på själviskhet och närsynthet, varför skulle artificiellt medvetande lyckas bättre?

Dessa frågor är naturligtvis hypotetiska, men eftersom det faktiskt finns en vilja att skapa ”medveten AI” behöver de ställas. Läs Michele Fariscos engelska blogginlägg här: Why should we try to build conscious AI?

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Vi ställer frågor

Ödmjukhet inför frågan om artificiellt medvetande

Möjligheten av artificiellt medvetande har på senare tid blivit en fråga som alltfler tar på allvar. Utan att fundera alltför länge kring vad det kan betyda, frågar somliga redan ”När kan vi förvänta oss det?”, som om man spekulerade kring lanseringen av en ny, tekniskt avancerad produkt: medveten AI. Parallellt med denna förväntan om stora teknikframsteg poängteras även möjligheten av stora filosofiska framsteg. Om vi lyckas konstruera medvetna maskiner, som har upplevelser, känslor och självkännedom, då kan vi väl även sägas förstå vad det betyder att vara till, vad det innebär att existera?

Nja, om medvetandet är så fundamentalt att det omfattar allt som vi uppfattar, känner och tänker, om medvetandet är vår existens, så att säga, vilket tycks förutsättas i dessa stora anspråk, så är väl även dessa anspråk innefattade i medvetandet, utan att det erkänns? För hur kan man drömma om resor utanför medvetandet, för att långt där ute förklara tillvarons gåta, om medvetandet redan omfattar allt som vi uppfattar, känner, tänker eller drömmer om att kunna göra? Sådana ”långresor” kan man väl spekulera om bara om man glömmer var spekulerandet redan måste ske och vara hemma, enligt samma anspråk? Den anspråksfulle långresenären glömmer sig själv hemma, vill jag säga: glömmer existensen som skulle förklaras.

I ett inlägg på den engelska versionen av denna blogg skriver Michele Farisco om behovet av kunskapsmässig ödmjukhet inför frågan om artificiellt medvetande. Hans överväganden kunde beskrivas som vetenskapliga självbetraktelser, i det att han utgår från vad dagens vetenskap vet om biologiskt medvetande, liksom om hjärnan, som vetenskapen funnit är väsentlig för medvetande. Han utesluter inte att medvetande kan uppkomma på andra sätt, exempelvis i maskiner. Men för att klargöra frågorna om tänkbarheten och genomförbarheten av artificiellt medvetande, så behöver vi utgå från dagens vetenskapliga kunskap om hjärna och medvetande: som ett slags riktmärke eller referensmodell. Han påpekar flera egenskaper hos hjärnan som kan bedömas väsentliga för medvetande, men som dagens AI väsentligen saknar. Samtidigt som detta motiverar ödmjukhet, kan skillnaderna mellan hjärna och AI inspirera bättre forskning om artificiellt medvetande, menar Michele Farisco, som försiktigt vill hålla dörren öppen för andra former av medvetande än vårt eget.

Läs blogginlägget här: Artificial consciousness and the need for epistemic humility.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Kommer med lästips