En forskningsblogg från Centrum för forsknings- & bioetik (CRB)

Etikett: medvetande

Varför ställer vetenskapen frågan om artificiellt medvetande?

Möjligheten av medveten AI uppfattas alltmer som en legitim och angelägen vetenskaplig fråga. Detta intresse har uppstått efter en lång historia av vetenskapliga tvivel på möjligheten av medvetande inte bara hos andra djur, utan ibland rentav hos människan. Själva begreppet medvetande ansågs under en period vara vetenskapligt suspekt. Men nu ställs alltså frågan om medveten AI inom vetenskapen.

För den som är intresserad av hur en så halsbrytande fråga kan besvaras filosofiskt och vetenskapligt, vill jag rekommendera ett intressant AI-filosofiskt tankeutbyte i den franska tidskriften Intellectica. Tankeutbytet (som är på engelska) kretsar kring en artikel av två filosofer, Jonathan Birch och Kristin Andrews, som under flera år diskuterat medvetande inte bara bland däggdjur, utan även bland fåglar, fiskar, bläckfiskar, kräftdjur, reptiler, groddjur och insekter. De två filosoferna skiljer noga mellan psykologiska frågor om vad som kan göra oss emotionellt lockade att tro att ett AI-system är medvetet, och logiska frågor om vad som filosofiskt och vetenskapligt kan räknas som evidens för medveten AI. Det är till detta logiska perspektiv som de vill bidra. Hur kan vi avgöra om ett artificiellt system verkligen är medvetet; inte bara förföras till att tro det för att systemet emotionellt övertygande speglar beteendet hos subjektivt upplevande människor? Deras grundtanke är att vi först bör studera medvetande hos ett brett spektrum av djurarter bortom däggdjuren. Dels för att människohjärnan skiljer sig alltför mycket från (dagens) artificiella system för att fungera som lämplig utgångspunkt, men framförallt för att sådan bred jämförelse kan hjälpa oss att identifiera de väsentliga dragen hos medvetandet: drag som kunde användas som markörer för medvetande i artificiella system. De två filosofernas förslag är alltså att vi, genom att utgå från olika former av djurmedvetande, bättre kan förstå hur vi filosofiskt och vetenskapligt bör söka evidens för eller emot medveten AI.

En av mina kollegor vid CRB, Kathinka Evers, även hon filosof, kommenterar artikeln. Hon uppskattar Birch och Andrews diskussion som filosofiskt klargörande och ser förslaget att närma sig frågan om medveten AI via studium av medvetandeformer hos ett brett spektrum djurarter som väl underbyggt. Hon menar dock att ett antal frågor fordrar mer uppmärksamhet. Bland annat frågar hon om inte övergången från kol- till kiselbaserade substrat fordrar större uppmärksamhet än Birch och Andrews ger den.

Birch och Andrews föreslår ett tankeexperiment där en robotråtta beter sig exakt som en verklig råtta. Den klarar samma kognitiva och beteendemässiga tester. De antar vidare att råtthjärnan avbildats exakt i roboten, neuron för neuron. I ett sådant fall, menar de, vore det inkonsekvent att inte acceptera samma smärtmarkörer som gäller för råttan även för roboten. Fallen är lika, menar de, övergången från kol till kisel ger inte tillräckliga skäl för att betvivla att robotråttan kan känna smärta när den uppvisar samma drag som markerar smärta hos den verkliga råttan. Men fallen är ju inte lika, påpekar Kathinka Evers, för den verkliga råttan är, till skillnad från roboten, levande. Om liv är väsentligt för medvetande så är det inte inkonsekvent att betvivla att roboten kan känna smärta ens i detta tankeexperiment. Någon kunde givetvis förknippa liv med medvetande och hävda att en robotråtta som uppvisar de väsentliga dragen för medvetande också måste betraktas som levande. Men om syftet är att identifiera vad som logiskt kan fungera som evidens för medveten AI så kvarstår problemet, menar Kathinka Evers, för vi behöver då klargöra hur relationen mellan liv och medvetande ska undersökas och hur begreppen ska definieras.

Kathinka Evers föreslår alltså flera frågor av relevans för vad som logiskt kan räknas som evidens för medveten AI. Men hon ställer också en mer grundläggande fråga, som kan anas genom hela hennes kommentar. Hon frågar varför frågan om konstgjort medvetande alls ställs inom vetenskapen idag. Ett av Birch och Andrews syften var som sagt att undvika att svaret styrs av psykologiska tendenser att tolka en AI som övertygande speglar mänskliga känslor som om den vore medveten. Men Kathinka Evers frågar, som jag läser henne, om inte detta logiska syfte möjligen kommer för sent. Är inte redan frågan en frestelse? AI är tränad på människogenererade data för att spegla mänskligt beteende, påpekar hon. Söker vi måhända filosofisk och vetenskaplig evidens kring en fråga som tycks betydelsefull bara för att vi har en psykologisk tendens att identifiera oss med våra digitala spegelbilder? För att en fråga ska betraktas som vetenskaplig och värd att finansieras krävs vanligen något slags initialt empiriskt stöd, men det finns överhuvudtaget ingen evidens för möjligheten av medvetande hos icke-levande entiteter såsom AI-system. Frågan om en AI kan vara medveten har inte mer empiriskt stöd än frågan om vulkaner kan uppleva sina utbrott, påpekar Kathinka Evers. Risken är stor att vi vetenskapligt försöker besvara en fråga som saknar vetenskaplig grund. Hur försiktigt vi än söker det efterlängtade svaret, så tycks frågan oförsiktig.

Jag kommer att tänka på myten om Narcissus. Efter en lång historia av avvisanden av andras kärlek (andras medvetande), förälskade han sig slutligen i sin egen (digitala) spegelbild, sökte hopplöst att krama den, och plågades sedan av en evig längtan efter bilden. Är du där? Kommer spegelbilden att svara? En AI kommer säkert att generera en respons som talar till våra mänskliga känslor.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Birch Jonathan, Andrews Kristin (2024/2). To Understand AI Sentience, First Understand it in Animals. In Gefen Alexandre & Huneman Philippe (Eds), Philosophies of AI: thinking and writing with LLMs, Intellectica, 81, pp. 213-226.

Evers Kathinka (2024/2). To understand sentience in AI first understand it in animals. Commentary to Jonathan Birch and Kristin Andrews. In Gefen Alexandre & Huneman Philippe (Eds), Philosophies of AI: thinking and writing with LLMs, Intellectica, 81, pp. 229-232.

Detta inlägg på engelska

Vi söker klarhet

Kan konstgjort medvetande skapas, är det ens tänkbart?

Hur otroligt det än kan låta så finns det faktiskt ingenjörsmässiga försök att skapa medveten artificiell intelligens. Med tanke på att uppfinnare också försökt att skapa evighetsmaskiner, finns skäl att tänka efter. Kan artificiellt medvetande verkligen skapas? Är ”idén” ens tänkbar? Dessa frågor ställs av Michele Farisco, i ett inlägg på den engelskspråkiga versionen av denna blogg.

Ett sätt att tänka efter kring den här typen av intellektuellt lockande idéer är att föreställa sig jämförbara exempel som är klart meningsfulla, som kanske redan finns eller åtminstone är tekniskt möjliga att skapa. Drömmen om en evighetsmaskin kan till exempel jämföras med försök att minimera friktionen i ett gyroskop, så att det fortsätter att snurra häpnadsväckande länge utan ytterligare energitillförsel. Den intellektuella tjusningen i idén om en perpetuum mobile kan naturligtvis stimulera kreativiteten och de mest oväntat energieffektiva lösningar ser dagens ljus, även om det inte handlar om ”evighetsmaskiner”. Samtidigt kan dessa jämförbara exempel, som faktiskt är tekniskt genomförbara eller kanske rentav existerar, hjälpa oss att hantera intellektets tendens att ibland förlora sig i sina egna drömmar. Vi får någonting konkret verkligt att jämföra med, en vaken kontrast till vad vi drömmer om.

Michele Farisco gör något liknande med idén om artificiellt medvetande. Han definierar en begränsad aspekt av vad vi kallar medvetande, en aspekt som redan idag kunde skapas i form av en AI-robot. Den aspekt han avgränsar är inte förmågan att ha upplevelser (eller subjektiva erfarenheter), utan snarare en förmåga att välja ut relevant information från omgivningen och använda informationen för att uppnå specifika mål. Han lägger till ytterligare några krav på processen, som du kan läsa mer om i hans inlägg: Conceivability and feasibility of artificial consciousness. Där hittar du även länk till artikeln som inlägget utgår från.

I själva verket har ett robotsystem som är medvetet i denna begränsade mening redan skapats, enligt Michele Farisco, nämligen inom CAVAA-projektet där han arbetar. Roboten hanterar information på ett sätt som kan anses uppfylla definitionen som antyddes ovan. Michele Farisco hänvisar till robotexemplet för att hjälpa oss att tänka mer vaket om konstgjort medvetande, men just för att exemplet är så bra kunde man också uppfatta roboten som ett lovande steg mot drömmen om konstgjort medvetande.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Vi söker klarhet

Varför försöka skapa medveten AI?

Trots att det är oklart vad det kan innebära att tala om ”medveten AI” så finns det en vilja att skapa ”det”. Vad kunde vi tänka oss att fördelarna med medveten AI vore? Varför försöka skapa subjektiv erfarenhet i AI-system? Vad kunde vi förvänta oss av en sådan strävan? Detta är frågor som Michele Farisco diskuterar på den engelska versionen av denna blogg.

Michele Farisco nämner flera möjliga svar på frågorna. Till exempel kunde strävan efter artificiellt medvetande bidra till bättre kunskap om biologiskt medvetande och till bättre teknisk prestanda hos AI-system. Han reflekterar även över möjliga etiska och samhälleliga effekter av medveten AI. Man kunde till exempel hoppas att medveten AI skulle hjälpa människan att förutse negativa konsekvenser av långsiktiga beslut och bidra till en mer hållbar och etisk utveckling. Men om mänskligt medvetande inte lyckats med detta, utan tvärtom ofta visar prov på själviskhet och närsynthet, varför skulle artificiellt medvetande lyckas bättre?

Dessa frågor är naturligtvis hypotetiska, men eftersom det faktiskt finns en vilja att skapa ”medveten AI” behöver de ställas. Läs Michele Fariscos engelska blogginlägg här: Why should we try to build conscious AI?

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Vi ställer frågor

Ödmjukhet inför frågan om artificiellt medvetande

Möjligheten av artificiellt medvetande har på senare tid blivit en fråga som alltfler tar på allvar. Utan att fundera alltför länge kring vad det kan betyda, frågar somliga redan ”När kan vi förvänta oss det?”, som om man spekulerade kring lanseringen av en ny, tekniskt avancerad produkt: medveten AI. Parallellt med denna förväntan om stora teknikframsteg poängteras även möjligheten av stora filosofiska framsteg. Om vi lyckas konstruera medvetna maskiner, som har upplevelser, känslor och självkännedom, då kan vi väl även sägas förstå vad det betyder att vara till, vad det innebär att existera?

Nja, om medvetandet är så fundamentalt att det omfattar allt som vi uppfattar, känner och tänker, om medvetandet är vår existens, så att säga, vilket tycks förutsättas i dessa stora anspråk, så är väl även dessa anspråk innefattade i medvetandet, utan att det erkänns? För hur kan man drömma om resor utanför medvetandet, för att långt där ute förklara tillvarons gåta, om medvetandet redan omfattar allt som vi uppfattar, känner, tänker eller drömmer om att kunna göra? Sådana ”långresor” kan man väl spekulera om bara om man glömmer var spekulerandet redan måste ske och vara hemma, enligt samma anspråk? Den anspråksfulle långresenären glömmer sig själv hemma, vill jag säga: glömmer existensen som skulle förklaras.

I ett inlägg på den engelska versionen av denna blogg skriver Michele Farisco om behovet av kunskapsmässig ödmjukhet inför frågan om artificiellt medvetande. Hans överväganden kunde beskrivas som vetenskapliga självbetraktelser, i det att han utgår från vad dagens vetenskap vet om biologiskt medvetande, liksom om hjärnan, som vetenskapen funnit är väsentlig för medvetande. Han utesluter inte att medvetande kan uppkomma på andra sätt, exempelvis i maskiner. Men för att klargöra frågorna om tänkbarheten och genomförbarheten av artificiellt medvetande, så behöver vi utgå från dagens vetenskapliga kunskap om hjärna och medvetande: som ett slags riktmärke eller referensmodell. Han påpekar flera egenskaper hos hjärnan som kan bedömas väsentliga för medvetande, men som dagens AI väsentligen saknar. Samtidigt som detta motiverar ödmjukhet, kan skillnaderna mellan hjärna och AI inspirera bättre forskning om artificiellt medvetande, menar Michele Farisco, som försiktigt vill hålla dörren öppen för andra former av medvetande än vårt eget.

Läs blogginlägget här: Artificial consciousness and the need for epistemic humility.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Kommer med lästips

En väg ut ur den babyloniska språkförbistringen i teoretiserandet av medvetandet?

Det finns idag ett brett spektrum av konkurrerande teorier, som var och en på sitt sätt försöker redogöra för medvetandet i neurobiologiska termer. Parallellt med den ”babyloniska språkförbistring” och oförmåga att samarbeta som detta innebär i teoretiserandet av medvetandet, har framsteg gjorts i det empiriska studiet av hjärnan. Avancerade metoder för att avbilda och mäta hjärnan och dess aktiviteter kartlägger strukturer och funktioner som möjligen kan vara relevanta för medvetandet. Problemet är att dessa empiriska data återigen inspirerar ett brett spektrum av teorier om medvetandets plats i hjärnan.

Det har påpekats ett splittrat intellektuellt tillstånd som detta, där konkurrerande skolbildningar förespråkar sina egna teorier utifrån sina egna utgångpunkter – utan gemensamt ramverk eller paradigm där förslagen kan jämföras och bedömas – är typiskt för ett förvetenskapligt stadium av en möjligen begynnande vetenskap. Med tanke på att de divergerande teorierna var och en gör anspråk på vetenskaplig status, är detta naturligtvis besvärande. Men kanske att teorierna trots allt inte är så divergerande som de förefaller?

Det har föreslagits att flera av teorierna, vid närmare analys, möjligen delar vissa fundamentala idéer om medvetandet, som skulle kunna ligga till grund för en framtida enhetlig teori. Jag vill idag rekommendera en artikel som självkritiskt granskar denna förhoppning om en väg ut ur språkförbistringen. Om strävan efter en enhetlig medvetandeteori inte ska förfalla till ett slags ”fabricerad enhetlighet”, måste vi först fastställa att teorierna som integreras verkligen är jämförbara i relevanta avseenden. Men kan vi identifiera sådana gemensamma nämnare bland dagens konkurrerande teorier, som kunde stödja utvecklingen av ett övergripande ramverk för vetenskaplig forskning om medvetandet? Det är frågan som Kathinka Evers, Michele Farisco och Cyriel Pennartz undersöker för några av de mest omtalade neurovetenskapligt orienterade teorierna om medvetandet.

Vad kommer författarna fram till? Något överraskande!De kommer nämligen fram till att det faktiskt är fullt möjligt att identifiera ett antal gemensamma nämnare, som uppvisar mönster av likheter och olikheter bland teorierna, men att detta ändå inte är vägen till en övergripande medvetandeteori som stödjer hypoteser som kan testas experimentellt. Varför? Dels för att de gemensamma nämnarna, såsom ”information”, ibland är alltför allmänna för att fungera som kärnbegrepp i forskning specifikt om medvetandet. Dels för att teorier som har gemensamma nämnare trots allt kan vara begreppsligt artskilda.

Författarna föreslår därför, som jag förstår dem, att en mer framkomlig väg möjligen vore att utveckla ett gemensamt metodologiskt tillvägagångssätt kring prövning av hypoteser om relationer mellan medvetande och hjärna. Det är måhända först i den empiriska verkstaden, öppen för det oväntade, så att säga, som ett vetenskapligt ramverk, eller paradigm, eventuellt kan börja ta form. Inte genom att avsiktligt formulera enhetlig teori utifrån identifiering av gemensamma nämnare bland konkurrerande teorier, vilket riskerar att fabricera en fasad av enhetlighet.

Artikeln är skriven i en filosofiskt öppensinnad anda, utan bindningar till specifika teorier. Den kan därigenom stimulera det kreativa samarbete som hittills hämmats av självupptagen konkurrens mellan skolbildningar. Läs artikeln här: Assessing the commensurability of theories of consciousness: On the usefulness of common denominators in differentiating, integrating and testing hypotheses.

Jag skulle vilja avsluta med att nämna en ofta försummad sida av hur vetenskapliga paradigm fungerar (enligt Thomas Kuhn). Ett paradigm genererar inte bara möjliga förklaringar av fenomen. Det genererar även problemen som forskarna försöker lösa inom paradigmet. Kvantmekaniken och evolutionsbiologin möjliggjorde nya frågor, som gjorde naturen problematisk på nya utforskningsbara sätt. Ett eventuellt framtida paradigm för vetenskaplig medvetandeforskning skulle i så fall inte besvara de frågor om medvetandet som förbryllar oss idag (åtminstone inte utan att först omtolka dem). Det skulle snarare skapa nya, ännu inte ställda frågor, som är utforskningsbara inom paradigmet som genererar dem. 

Artikelförfattarna kan därför mycket väl ha rätt i att det mest fruktbara för tillfället är att ställa sonderande frågor som hjälper oss att avgränsa vad som faktiskt låter sig undersökas, snarare än att börja med att fabricera övergripande teoretisk enhetlighet. Det senare tillvägagångssättet vore möjligen att spänna vagnen framför hästen.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

K. Evers, M. Farisco, C.M.A. Pennartz, “Assessing the commensurability of theories of consciousness: On the usefulness of common denominators in differentiating, integrating and testing hypotheses,” Consciousness and Cognition, Volume 119, 2024

Detta inlägg på engelska

Vi hittar nya angreppssätt

https://doi.org/10.1016/j.concog.2024.103668

För en mer balanserad diskussion om medveten artificiell intelligens

Idag vill jag rekommendera ett blogginlägg på den engelska versionen av denna etikblogg. Michele Farisco diskuterar där utvecklingen av så kallad medveten AI, något som givetvis väcker funderingar.

Etikdiskussionen är livlig. Vissa kräver ett internationellt moratorium för alla försök att skapa konstgjort medvetande: riskerar vi att skapa konstgjort lidande? Andra menar att redan ”vanlig” AI är tillräckligt riskfylld: riskerar vi att skapa ännu mer svårhanterliga former av AI?

Dessa och andra etiska farhågor är svåra att bedöma. Inte bara för att den vetenskapliga och tekniska utvecklingen är snabb och avancerad, utan även för att vi allvarligt talat inte riktigt vet vad vi pratar om! Vad är medvetande? Vet vi ens vad det innebär att människor och andra djur är medvetna?

Michele Farisco har länge undersökt frågan om mänskligt medvetande. Han har bland annat bidragit till att utveckla indikatorer för olika dimensioner av mänskligt medvetande som kan användas för vid bedömningar medvetandegraden hos patienter. Hans förslag är att indikatorerna kan vara relevanta även för att identifiera medvetenhet i artificiella system, samt att detta kan göra den etiska diskussionen mer balanserad och realistisk.

Läs blogginlägget här: A strategy for a balanced discussion of conscious AI.

Utgångspunkten för blogginlägget är ett bokkapitel som Michele Farisco nyligen skrivit. Du hittar referens och länk till kapitlet nedan.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Michele Farisco. The ethical implications of indicators of consciousness in artificial systems. Developments in Neuroethics and Bioethics. Available online 1 March 2024. https://doi.org/10.1016/bs.dnb.2024.02.009

Vi söker klarhet

Projekt om möjligheten av artificiell medvetenhet

Vore det i princip möjligt att bygga en robot som inte bara uppför sig intelligent utan dessutom har medvetande? Denna hisnande fråga ska undersökas i ett 4-årigt europeiskt projekt om artificiell medvetenhet, koordinerat från Radboud University i Nederländerna.

I projektet samarbetar ingenjörer och datavetare med filosofer från CRB som arbetar inom området neuroetik. En av dessa filosofer är Michele Farisco, som du kanske redan läst om på Etikbloggen. Idag beskriver han projektet på den engelska versionen av denna blogg: A new project will explore the prospect of artificial awareness.

Filosoferna i projektet, däribland Kathinka Evers, kommer att skärskåda och analysera begreppet medvetande, samt identifiera indikatorer på medvetenhet som skulle kunna användas för att bedöma medvetenhet hos artificiella system. De kommer även att bidra till etisk analys av möjliga framtida scenarier.

Naturligtvis kommer Etikbloggen att följa arbetet i projektet!

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Deltar i internationella samarbeten

En charmerande idé om medvetandet

Vissa idéer kan ha en sådan charm, att man bara behöver höra dem en gång för att genast känna att de nog säkert är sanna: ”något korn av sanning måste det ligga i det”. Konspirationsteorier och vandringssägner sprids antagligen delvis av hur tonsäkert de lyckas charma mottagliga mänskliga sinnen, genom att låta sanna. Ja, det sägs att även vissa sjukdomstillstånd kan spridas för att idén om sjukdomen har en så stark inverkan på många av oss. I vissa fall behöver vi bara höra talas om diagnosen så börjar vi uppvisa symtomen och får kanske behandlingen. Men även idén om sådana idéburna sjukdomar har sin charm, så vi bör vara på vår vakt.

Frestelsen att falla för idéernas charm finns naturligtvis även inom akademin. Samtidigt utmärks filosofi och vetenskap just av självkritisk granskning av idéer som kan låta så lockande, att vi inte noterar bristen på granskning. Så länge det handlar om avgränsade hypoteser som i princip kan kontrolleras genom studier, så är det relativt lätt att korrigera sin övertro på dem. Men ibland utgörs dessa charmerande idéer av storartade hypoteser om svårgripbara fenomen som ingen vet hur vi kan testa. Människor kan bli så övertygade av sådana idéer, att de förutsäger att framtida vetenskap bara behöver fylla i detaljerna. En farlig retorik att fastna i, som även den har sin charm.

Jag skrev förra året ett blogginlägg om en teori i gränstrakterna mellan vetenskap och filosofi som jag vill karaktärisera som både storartad och charmerande. Därmed inte sagt att teorin måste vara felaktig, bara att den i vår tid kan låta omedelbart övertygande. Teorin är ett försök att förklara ett svårgripbart ”fenomen” som förbryllar vetenskapen, nämligen medvetandets natur. Många känner att om vi kunde förklara medvetandet på rent vetenskapliga grunder så vore det en enormt betydelsefull prestation.

Teorin påstår att medvetandet är en matematiskt definierad form av informationsberarbetning. Att förknippa medvetande med information ligger rätt i tiden, vi är omedelbart benägna att lyssna. Vilket slags informationsbearbetning skulle medvetandet vara? Teorin säger att medvetande är integrerad information. Integrering syftar här inte bara på att information lagras som i en dator, utan på att all denna diversifierade information sammankopplas och bildar en organiserad helhet, där delarna är effektivt tillgängliga globalt. Om jag förstår saken rätt, kan man säga att den integrerade informationen i ett system är den mängd genererad information som överträffar informationen genererad av delarna. Ju mer information ett system lyckas integrera, desto mer medvetande har systemet.

Vad är det då som är så charmerande med idén att medvetande är integrerad information? Ja, idén kan tyckas stämma med hur vi upplever våra medvetna liv. I detta ögonblick upplever du mängder av olika sinnesintryck, fyllda med detaljer av skilda slag. Olika synintryck blandas med intryck från de övriga sinnena. Men samtidigt är dessa sinnesintryck integrerade i en enhetlig upplevelse från en enda synvinkel, din egen. Den matematiska teorin om informationsbearbetning, där diversifiering kombineras med integrering av information, kan därför låta som en lockande teori om medvetandet. Vi kan vara benägna att tänka: Kanske är det för att hjärnan bearbetar information på detta integrerande sätt som våra medvetna liv karaktäriseras av en personlig synvinkel där alla intryck organiseras i form av en jag-centrerad subjektiv helhet. Medvetande är integrerad information!

Ännu mer lockande blir det när det visar sig att teorin, som på engelska kallas Integrated Information Theory (IIT), innehåller ett beräkningsbart mått (Phi) på mängden integrerad information. Om teorin är riktig så skulle man alltså kunna kvantifiera medvetandet och ge olika system olika Phi för mängden medvetande. Här blir idén charmerande på ännu ett sätt. För om du vill förklara medvetandet vetenskapligt, så låter det som en fördel om teorin möjliggör kvantifiering av hur mycket medvetande ett system genererar. Viljan att förklara medvetandet vetenskapligt kan alltså göra oss extra mottagliga för idén, vilket är en smula bedrägligt.

I en artikel i Behavioral and Brain Sciences skärskådar Björn Merker, Kenneth Williford och David Rudrauf teorin om medvetande som integrerad information. Granskningen är detaljrik och omfattande. Den följs upp av kommentarer från andra forskare, samt avslutas med författarnas respons. Vad de tre författarna försöker visa i artikeln är att även om hjärnan skulle integrera information i teorins mening, så är identifieringen av medvetande med integrerad information felaktig. Vad teorin beskriver är effektiv nätverksorganisation snarare än medvetande. Phi är ett mått på nätverkseffektivitet, inte på medvetandegrad. Vad författarna särskilt granskar är det där charmerande draget som jag nyss nämnde, att teorin kan tyckas ”stämma” med hur vi upplever våra medvetna liv från en enda övergripande jag-synvinkel. Det stämmer att integrerad information utgör en ”enhet” i meningen att ett flertal ting sammanfogas i en funktionellt organiserad ordning. Men den ”enheten” är knappast samma slags ”enhet” som utmärker ditt medvetande, där enheten består i din egen synvinkel på dina upplevelser. Effektiva nätverk kan knappast sägas ha en ”synvinkel” från ett subjektivt ”jag-centrum”, bara för att de integrerar information. Att identifiera drag i våra medvetna liv med teorins grundbegrepp är alltså förhastat, även om det kan vara frestande.

Författarna förnekar som sagt inte att hjärnan integrerar information i enlighet med teorin. Teorin beskriver matematiskt ett effektivt sätt att bearbeta information i nätverk med begränsade energiresurser, något som utmärker hjärnan, påpekar författarna. Men om medvetande identifieras med integrerad information, så skulle även många andra system som bearbetar information på samma effektiva sätt vara medvetna. Inte bara andra biologiska system vid sidan av hjärnan, utan även artefakter såsom vissa stora elnät och sociala nätverk. Företrädare för teorin tycks bejaka detta, men vi har inga oberoende skäl att anta att även andra system än hjärnan skulle ha medvetande. Varför då insistera på att även andra system är medvetna? Tja, kanske för att man redan attraherats av associationen mellan teorins grundbegrepp och organiseringen av våra medvetna upplevelser, liksom av möjligheten att kvantifiera medvetande i olika system. Det senare kan låta som en vetenskaplig fördel. Men om identifieringen från början är förhastad, så framstår fördelen snarare som ett avsteg från vetenskapen. Teorin hotar att översvämma universum med medvetande. Så förstår i alla fall jag grundtanken i artikeln.

Alla som känner tjusningen i teorin att medvetande är integrerad information bör läsa den noggranna granskningen av idén: The integrated information theory of consciousness: A case of mistaken identity.

Sista ordet är säkert inte sagt och även charmerande idéer kan visa sig riktiga. Problemet är att charmen lätt blir evidensen när vi står under idéns inflytande. Därför anser jag att den noggranna diskussionen av teorin om medvetande som integrerad information är angelägen. Artikeln är ett utmärkt exempel på betydelsen av självkritisk granskning i filosofi och vetenskap.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Merker, B., Williford, K., & Rudrauf, D. (2022). The integrated information theory of consciousness: A case of mistaken identity. Behavioral and Brain Sciences, 45, E41. doi:10.1017/S0140525X21000881

Detta inlägg på engelska

Vi är kritiska

Medvetande och komplexitet: teoretiska utmaningar för en praktiskt användbar idé

Den samtida forskningen om medvetandet har en kanske något pinsam dubbelhet, som kan föra tankarna till guden Janus med sina två ansikten. Detta skriver Michele Farisco idag i ett inlägg på den engelska versionen av Etikbloggen. Å ena sidan har forskningen uppnått imponerande praktiska resultat, som möjliggör bättre vård av patienter med hjärnskador. Å andra sidan kännetecknas fältet av djup begreppslig oenighet. Man saknar fortfarande en övergripande teori om medvetandet, som forskarna kan vara överens om.

En teori som alltmer diskuteras, förknippar medvetande med komplexitet. Idén är att medvetande kan förklaras som en viss typ av informationsbehandling. Idén föreslogs ursprungligen av Giulio Tononi och Gerald Edelman i en artikel från 1998 med titeln Consciousness and Complexity. Sedan dess har flera artiklar undersökt idén att förknippa medvetande med komplexitet.

I sitt inlägg påtalar Michele Farisco flera allvarliga teoretiska utmaningar för idén, samtidigt som han framhåller att komplexitet är ett praktiskt användbart mått på medvetande, exempelvis hos patienter med hjärnskador. Vill du veta mer om de teoretiska utmaningarna, läs Michele Fariscos inlägg: Consciousness and complexity: theoretical challenges for a practically useful idea.

Om de teoretiska utmaningar är så allvarliga som Michele Farisco får åtminstone mig att tro, så får nog medvetandeforskningen leva ännu ett tag med den kanske något pinsamma likheten med guden Janus.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Vi söker klarhet