En forskningsblogg från Centrum för forsknings- & bioetik (CRB)

Etikett: neuroetik (Sida 2 av 8)

En charmerande idé om medvetandet

Vissa idéer kan ha en sådan charm, att man bara behöver höra dem en gång för att genast känna att de nog säkert är sanna: ”något korn av sanning måste det ligga i det”. Konspirationsteorier och vandringssägner sprids antagligen delvis av hur tonsäkert de lyckas charma mottagliga mänskliga sinnen, genom att låta sanna. Ja, det sägs att även vissa sjukdomstillstånd kan spridas för att idén om sjukdomen har en så stark inverkan på många av oss. I vissa fall behöver vi bara höra talas om diagnosen så börjar vi uppvisa symtomen och får kanske behandlingen. Men även idén om sådana idéburna sjukdomar har sin charm, så vi bör vara på vår vakt.

Frestelsen att falla för idéernas charm finns naturligtvis även inom akademin. Samtidigt utmärks filosofi och vetenskap just av självkritisk granskning av idéer som kan låta så lockande, att vi inte noterar bristen på granskning. Så länge det handlar om avgränsade hypoteser som i princip kan kontrolleras genom studier, så är det relativt lätt att korrigera sin övertro på dem. Men ibland utgörs dessa charmerande idéer av storartade hypoteser om svårgripbara fenomen som ingen vet hur vi kan testa. Människor kan bli så övertygade av sådana idéer, att de förutsäger att framtida vetenskap bara behöver fylla i detaljerna. En farlig retorik att fastna i, som även den har sin charm.

Jag skrev förra året ett blogginlägg om en teori i gränstrakterna mellan vetenskap och filosofi som jag vill karaktärisera som både storartad och charmerande. Därmed inte sagt att teorin måste vara felaktig, bara att den i vår tid kan låta omedelbart övertygande. Teorin är ett försök att förklara ett svårgripbart ”fenomen” som förbryllar vetenskapen, nämligen medvetandets natur. Många känner att om vi kunde förklara medvetandet på rent vetenskapliga grunder så vore det en enormt betydelsefull prestation.

Teorin påstår att medvetandet är en matematiskt definierad form av informationsberarbetning. Att förknippa medvetande med information ligger rätt i tiden, vi är omedelbart benägna att lyssna. Vilket slags informationsbearbetning skulle medvetandet vara? Teorin säger att medvetande är integrerad information. Integrering syftar här inte bara på att information lagras som i en dator, utan på att all denna diversifierade information sammankopplas och bildar en organiserad helhet, där delarna är effektivt tillgängliga globalt. Om jag förstår saken rätt, kan man säga att den integrerade informationen i ett system är den mängd genererad information som överträffar informationen genererad av delarna. Ju mer information ett system lyckas integrera, desto mer medvetande har systemet.

Vad är det då som är så charmerande med idén att medvetande är integrerad information? Ja, idén kan tyckas stämma med hur vi upplever våra medvetna liv. I detta ögonblick upplever du mängder av olika sinnesintryck, fyllda med detaljer av skilda slag. Olika synintryck blandas med intryck från de övriga sinnena. Men samtidigt är dessa sinnesintryck integrerade i en enhetlig upplevelse från en enda synvinkel, din egen. Den matematiska teorin om informationsbearbetning, där diversifiering kombineras med integrering av information, kan därför låta som en lockande teori om medvetandet. Vi kan vara benägna att tänka: Kanske är det för att hjärnan bearbetar information på detta integrerande sätt som våra medvetna liv karaktäriseras av en personlig synvinkel där alla intryck organiseras i form av en jag-centrerad subjektiv helhet. Medvetande är integrerad information!

Ännu mer lockande blir det när det visar sig att teorin, som på engelska kallas Integrated Information Theory (IIT), innehåller ett beräkningsbart mått (Phi) på mängden integrerad information. Om teorin är riktig så skulle man alltså kunna kvantifiera medvetandet och ge olika system olika Phi för mängden medvetande. Här blir idén charmerande på ännu ett sätt. För om du vill förklara medvetandet vetenskapligt, så låter det som en fördel om teorin möjliggör kvantifiering av hur mycket medvetande ett system genererar. Viljan att förklara medvetandet vetenskapligt kan alltså göra oss extra mottagliga för idén, vilket är en smula bedrägligt.

I en artikel i Behavioral and Brain Sciences skärskådar Björn Merker, Kenneth Williford och David Rudrauf teorin om medvetande som integrerad information. Granskningen är detaljrik och omfattande. Den följs upp av kommentarer från andra forskare, samt avslutas med författarnas respons. Vad de tre författarna försöker visa i artikeln är att även om hjärnan skulle integrera information i teorins mening, så är identifieringen av medvetande med integrerad information felaktig. Vad teorin beskriver är effektiv nätverksorganisation snarare än medvetande. Phi är ett mått på nätverkseffektivitet, inte på medvetandegrad. Vad författarna särskilt granskar är det där charmerande draget som jag nyss nämnde, att teorin kan tyckas ”stämma” med hur vi upplever våra medvetna liv från en enda övergripande jag-synvinkel. Det stämmer att integrerad information utgör en ”enhet” i meningen att ett flertal ting sammanfogas i en funktionellt organiserad ordning. Men den ”enheten” är knappast samma slags ”enhet” som utmärker ditt medvetande, där enheten består i din egen synvinkel på dina upplevelser. Effektiva nätverk kan knappast sägas ha en ”synvinkel” från ett subjektivt ”jag-centrum”, bara för att de integrerar information. Att identifiera drag i våra medvetna liv med teorins grundbegrepp är alltså förhastat, även om det kan vara frestande.

Författarna förnekar som sagt inte att hjärnan integrerar information i enlighet med teorin. Teorin beskriver matematiskt ett effektivt sätt att bearbeta information i nätverk med begränsade energiresurser, något som utmärker hjärnan, påpekar författarna. Men om medvetande identifieras med integrerad information, så skulle även många andra system som bearbetar information på samma effektiva sätt vara medvetna. Inte bara andra biologiska system vid sidan av hjärnan, utan även artefakter såsom vissa stora elnät och sociala nätverk. Företrädare för teorin tycks bejaka detta, men vi har inga oberoende skäl att anta att även andra system än hjärnan skulle ha medvetande. Varför då insistera på att även andra system är medvetna? Tja, kanske för att man redan attraherats av associationen mellan teorins grundbegrepp och organiseringen av våra medvetna upplevelser, liksom av möjligheten att kvantifiera medvetande i olika system. Det senare kan låta som en vetenskaplig fördel. Men om identifieringen från början är förhastad, så framstår fördelen snarare som ett avsteg från vetenskapen. Teorin hotar att översvämma universum med medvetande. Så förstår i alla fall jag grundtanken i artikeln.

Alla som känner tjusningen i teorin att medvetande är integrerad information bör läsa den noggranna granskningen av idén: The integrated information theory of consciousness: A case of mistaken identity.

Sista ordet är säkert inte sagt och även charmerande idéer kan visa sig riktiga. Problemet är att charmen lätt blir evidensen när vi står under idéns inflytande. Därför anser jag att den noggranna diskussionen av teorin om medvetande som integrerad information är angelägen. Artikeln är ett utmärkt exempel på betydelsen av självkritisk granskning i filosofi och vetenskap.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Merker, B., Williford, K., & Rudrauf, D. (2022). The integrated information theory of consciousness: A case of mistaken identity. Behavioral and Brain Sciences, 45, E41. doi:10.1017/S0140525X21000881

Detta inlägg på engelska

Vi är kritiska

Saknade perspektiv i föreställningen om artificiell intelligens

Teknikutvecklingen är djupt inbäddad i våra samhällen och kulturer. Sättet som artificiell utvecklas, anpassas, regleras och accepteras (eller inte) är intimt förknippat med de narrativ kring intelligenta maskiner som vi matats av i konsten, litteraturen och andra mänskliga föreställningsvärldar. Både i nutid och i dåtid. Men allas perspektiv är inte med i historierna om tänkande maskiner. Något som Damian Eke och George Ogoh belyser i en artikel om glömda (eller kanske gömda) AI-narrativ från Afrika. För vad händer med föreställningen om AI när vi tänker oss att tekniken är neutral?

Både Damian Eke och Geroge Ogoh arbetar med frågor kring ansvarsfull forskning och innovation i det stora EU-flaggskeppsprojektet Human Brain Project. De pekar på det faktum att de flesta historier vi berättar om intelligent teknik bygger på föreställningar och begrepp från norra halvklotet. Artikeln väcker frågan om det är ett problem. Och i så fall, på vilket sätt? Svaret är ganska enkelt: när narrativen har en smak av teknikneutralitet blir det ett problem som sträcker sig förbi berättelserna om artificiell intelligens. För vad händer när vi i norr sätter agendan for forskning och innovation på södra halvklotet?

Vill du läsa mer om vad som händer när historiska, filosofiska, sociokulturella och politiska narrativ från Afrika saknas och vad det kan få för betydelse? Damian Eke och George Ogohs artikel är publicerad Open Access: Forgotten African AI Narratives and the future of AI in Africa.

För den som vill ha en mer lättsmält version har jag skrivit ett inlägg om artikeln på den engelska versionen av den här bloggen: AI narratives from the Global North.

Josepine Fernow

Skrivet av…

Josepine Fernow, koordinator och forskningskommunikatör hos Centrum för forsknings- och bioetik, som utvecklar kommunikationsstrategier för europeiska forskningsprojekt

Eke D, Ogoh G, Forgotten African AI Narratives and the future of AI in Africa, International Review of Information Ethics, 2022;31(08)

Kommer med lästips

Ger hjärnan utrymme för fri vilja?

Frågan om vi har en fri vilja har diskuterats i alla tider och överallt i världen. Kan vi påverka vår framtid eller är den förutbestämd? Om allt är förutbestämt och vi saknar fri vilja, varför skulle vi agera ansvarigt och med vilken rätt håller vi varandra ansvariga?

Det har funnits olika föreställningar om vad som förutbestämmer framtiden och utesluter fri vilja. Man har talat om ödet och om gudarna. Idag föreställer vi oss snarare att det handlar om nödvändiga orsakssamband i universum. Det tycks som om den materiella världens obönhörliga determinism måste utesluta den fria vilja som vi människor upplever oss ha. Om vi verkligen hade fri vilja, tänker vi, så skulle naturen behöva ge oss ett eget utrymme att bestämma i. Ett orsaksglapp där naturen inte bestämmer allt enligt sina lagar, utan låter oss agera enligt vår vilja. Men detta tycks motsäga vår vetenskapliga världsbild.

I en artikel i tidskriften Intellectica granskar Kathinka Evers vid CRB rimligheten av detta val mellan två extrema positioner: antingen strikt determinism som utesluter fri vilja, eller fri vilja som utesluter determinism.

Kathinka Evers närmar sig problemet ur ett neurovetenskapligt perspektiv. Just detta perspektiv har historiskt tenderat att stödja en av positionerna: strikt determinism som utesluter fri vilja. För hur kan hjärnan ge utrymme för fri vilja, om våra beslut är resultatet av elektrokemiska processer och av evolutionärt utvecklade program? Är det inte precis där, i hjärnan, som vår fria vilja omintetgörs av materiella processer som inte ger oss något utrymme?

Vissa författare som skrivit om den fria viljan ur neurovetenskapliga perspektiv har ibland förklarat bort friheten som ett slags hjärnans användarillusion: som en nödvändig illusion, som en fiktiv konstruktion. Somliga har menat att eftersom sociala grupper fungerar bäst när vi som individer antar oss vara ansvariga aktörer, så får vi finna oss i att trots allt behålla den här gamla illusionen vid liv. Den fria viljan är en fiktion som fungerar och behövs i samhället!

Denna inställning är osund, menar Kathinka Evers. Vi kan inte bygga våra samhällen på antaganden som motsäger vår bästa kunskap. Det vore absurt att hålla människor ansvariga för handlingar som de i själva verket inte har någon förmåga att påverka. Samtidigt håller hon med om att föreställningen om fri vilja är socialt viktig. Men om vi ska behålla föreställningen, så måste den vara förenlig med vår kunskap om hjärnan.

En av artikelns huvudpunkter är att dagens kunskap om hjärnan faktiskt skulle kunna ge ett visst utrymme för fri vilja. Hjärnan skulle kunna fungera bortom motsättningen mellan indeterminism och strikt determinism, föreslår åtminstone vissa neurovetenskapliga teorier. Det betyder inte att det skulle finnas icke-orsakade neurala händelser. Snarare föreslås en determinism där relationen mellan orsak och verkan är variabel, inte nödvändig och entydig, som vi vanligen föreställer oss. Såvitt jag förstår handlar det om att hjärnan har visat sig fungera mycket mer självständigt, aktivt och flexibelt än i bilden av den som ett slags programmerad maskin. Olika ingående nervsignaler kan stabilisera olika neurala kopplingsmönster i hjärnan, som stödjer samma beteendeförmåga. Och samma ingående nervsignal kan stabilisera olika kopplingsmönster i hjärnan som resulterar i samma beteendeförmåga. Trots stor variation i hur individers neurala kopplingsmönster stabiliseras, så stöds samma gemensamma förmågor. Denna modell av hjärnan är alltså deterministisk, samtidigt som den karaktäriseras av variabilitet. Den beskriver ett slags kalejdoskopiskt variabla orsakssammanhang i hjärnan mellan ingående signaler och resulterande beteenden och förmågor.

Kathinka Evers föreslår alltså hypotetiskt att denna variabilitet i hjärnan, om den är riktig, skulle kunna ge empiriskt belägg för att fri vilja är förenlig med determinism.

Läs den filosofiskt uppslagsrika artikeln här: Variable determinism in social applications: translating science to society.

Även om Kathinka Evers öppnar upp för att ett visst mått av fri vilja är förenlig med vad vi vet om hjärnan, så framhåller hon att neurovetenskapen ger oss alltmer ingående kunskap om hur vi betingas av nedärvda program exempelvis under puberteten, liksom av våra livsvillkor och erfarenheter under uppväxten. Vi bör alltså trots allt vara försiktiga med att berömma eller hålla varandra ansvariga, avslutar hon artikeln. Här hänvisar hon till stoikern Epiktetos, en av de tänkare som funderat över den fria viljan och som snarast betonade friheten från föreställningen om en fri vilja.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Evers Kathinka (2021/2). Variable Determinism in Social Applications: Translating Science to Society. In Monier Cyril & Khamassi Mehdi (Eds), Liberty and cognition, Intellectica, 75, pp.73-89.

Detta inlägg på engelska

Svåra frågor

Artificiell intelligens: stärka intelligens i människor eller skapa mänsklig intelligens i maskiner?

Ibland läser man artiklar i gränstrakten mellan filosofi och vetenskap som innehåller riktigt spännande visionära tankar, som det samtidigt är svårt att förstå och bedöma. Den tekniska utarbetningen av tankarna växer alltmedan man läser, och till slut vet man inte om man är kapabel att tänka självständigt omkring idéerna eller om det handlar om nya vetenskapliga rön och trender som man saknar expertis att bedöma.

Idag dristar jag mig till att rekommendera läsning av en sådan artikel. Inlägget måste av naturliga skäl bli kort. Men grundidéerna i artikeln är så pass intressanta att jag hoppas att några läsare av inlägget även blir läsare av artikeln och försöker förstå den.

Vad handlar artikeln om? Den handlar om ett alternativt sätt att närma sig de högsta anspråken inom artificiell intelligens. I stället för att försöka skapa maskiner som kan göra vad människor kan göra, maskiner med personligt medvetande och moral, fokuserar artikeln på möjligheten att skapa maskiner som stärker intelligensen hos redan medvetna, moraliskt tänkande människor. Denna idé är dock inte helt ny. Den har i funnits i över ett halvsekel inom exempelvis cybernetiken. Så vad är nytt i artikeln?

Något som jag själv slogs av var den medkännande rösten i artikeln, som annars inte är framträdande i AI-litteraturen. Artikeln fokuserar inte på att skapa supersmarta problemlösare, utan på att stärka våra band med varandra och med världen vi lever i. Exemplen som ges i artikeln handlar om bättre moraliska hänsynstaganden till människor långt borta, om bättre förutsägelser av naturkatastrofer i ett komplext klimat, samt om att återställa sociala kontakter hos människor som lider av depression eller schizofreni.

Men det originellaste i artikeln är kanske ändå förslaget att utvecklingen av dessa jag-stärkande maskiner skulle hämta inspiration från hur hjärnan redan upprätthåller kontakten med sin omgivning. Här bör man hålla i minnet att det handlar om matematiska modeller av hjärnan och om nyskapande sätt att tänka om hur hjärnan samspelar med omgivningen.

Det är frestande att se hjärnan som ett isolerat organ. Men hjärnan är via sinnen och nervbanor i ständigt dynamiskt utbyte med kroppen och världen. Du skulle inte uppleva världen om den inte gjorde ständigt nya avtryck i din hjärna och du ständigt agerade på de avtrycken. Denna intensiva interaktivitet på mängder av nivåer och tidsskalor syftar till att upprätthålla en stabil och begriplig kontakt med en omgivande värld. Tänkesättet i artikeln påminner mig om begreppet ”digital tvilling”, som jag tidigare bloggat om. Men här är det hjärnan som framstår som en neural tvilling med världen. Hjärnan liknar en kontinuerligt uppdaterad neural spegelbild av världen, som hjärnan samtidigt kontinuerligt förändrar.

Här börjar jag dock få svårt att riktigt begripa och bedöma tankarna i artikeln, särskilt beträffande den matematiska modell som antas beskriva hjärnans ”adaptiva dynamik”. Men som jag förstår saken, föreslår man möjligheten av att återskapa en liknande dynamik i intelligenta maskiner, som kan stärka vår förmåga att se komplexa mönster i vår miljö och vara i kontakt med varandra. En smula poetiskt kunde man kanske säga att det handlar om att stärka vårt neurala tvillingskap med världen. Ett slags neuralt-digitalt tvillingskap med omgivningen? Ett digitalt förstärkt neuralt tvillingskap med världen?

Mer vågar jag inte säga om den visionära artikeln. Kanske har jag redan tagit mig för stora poetiska friheter? Jag hoppas ändå att jag lyckats göra dig intresserad att läsa artikeln och bedöma den själv: Augmenting Human Selves Through Artificial Agents – Lessons From the Brain.

Jo, en sak vill jag avslutningsvis påpeka. Jag nämnde svårigheten att ibland förstå och bedöma spännande tankar som formuleras i gränstrakterna mellan filosofi och vetenskap. Är inte den svårigheten själv ett exempel på hur kontakten med omgivningen ibland försvagas? Här vet jag emellertid inte om jag skulle ha haft hjälp av digital intelligensförstärkning som raskt tog mig igenom de filosofiska svårigheter som man kan uppleva under läsning. Somliga frågor tycks väsentligen fordra tid, att man stannar upp och tänker efter!

Att ge sig själv tid att tänka är ett naturligt sätt att fördjupa kontakten med verkligheten, känt av filosofer i årtusenden.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Northoff G, Fraser M, Griffiths J, Pinotsis DA, Panangaden P, Moran R and Friston K (2022) Augmenting Human Selves Through Artificial Agents – Lessons From the Brain. Front. Comput. Neurosci. 16:892354. doi: 10.3389/fncom.2022.892354

Detta inlägg på engelska

Kommer med lästips

Etiskt ansvarsperspektiv på bättre vård av patienter med hjärnskador

Michele Farisco har i flera artiklar och bloggposter diskuterat utmaningen att diagnostisera de medvetandestörningar som patienter med hjärnskador kan råka ut för (såsom ”icke-responsivt vakenhetssyndrom” och ”minimalt medvetandetillstånd”). I den mån patienterna uppvisar beteenden kan dessa vara svåra att tolka. Det är därför ofta svårt att ställa diagnos och att göra en prognos.

På The Ethics Blog diskuterar Michele Farisco idag kliniska riktlinjer i Europa och USA som syftar till att göra vården av denna patientgrupp mer enhetlig och till bättre nytta för patienterna. Bland annat rekommenderas att man kombinerar observation av patienternas beteende med användning av teknisk mätutrustning som kan avbilda aktivitetsmönster i hjärnan.

I blogginlägget, liksom i en artikel som han skrivit med Arleen Salles, betonar Michele Farisco att riktlinjerna behöver översättas till klinisk praktik på ett etiskt genomtänkt sätt. Detta för att undvika att riktlinjerna, trots goda avsikter, ska leda till ojämlik vård. Exempelvis har inte alla sjukhus de resurser som krävs för att komplettera diagnosen med tekniskt avancerade avbildningar av hjärnan. Att tillämpa riktlinjerna är dessutom en komplex process som involverar många aktörer på flera olika nivåer, från administration till vårdpersonal. Tillämpningen av riktlinjerna förutsätter därför en tydlig plan, som identifierar vem som har ansvar för vad, samt hur aktörerna ska samverka.

Michele Farisco skissar en modell med tre ansvarsnivåer som han menar kan stödja en etiskt genomtänkt tillämpning av riktlinjerna i klinisk praxis. Vill du veta mer om hur riktlinjerna kan införas etiskt ansvarsfullt, läs blogginlägget här: An ethical strategy for improving the healthcare of brain-damaged patients.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Farisco, Michele; Salles, Arleen. American and European Guidelines on Disorders of Consciousness: Ethical Challenges of Implementation, Journal of Head Trauma Rehabilitation: April 13, 2022. doi: 10.1097/HTR.0000000000000776

Kommer med lästips

Diagnostisera medvetandestörning hos patienter med svåra hjärnskador

Att diagnostisera hur medvetandet störts hos patienter med svåra hjärnskador är en utmaning och observationerna av patienten feltolkas lätt. En stor andel av patienterna får antagligen fel diagnos. Detta är beklagligt, för olika typer av medvetandestörning (såsom ”icke-responsivt vakenhetssyndrom” och ”minimalt medvetandetillstånd”) har olika prognoser.

På The Ethics Blog diskuterar Michele Farisco problematiken. Han har tidigare provisoriskt identifierat sex indikatorer på medvetande. Dessa indikatorer kan härledas från beteendeobservationer, men de skulle även kunna härledas från observationer av reaktioner i hjärnan. Nämligen om dessa visat sig vara korrelerade med beteendena. Mätbara reaktioner i hjärnan skulle alltså kunna bidra till diagnosen av medvetandestörningen hos svårt hjärnskadade patienter, som ofta inte kan uppvisa tydliga beteenden eller kommunicera.

Läs Michele Fariscos engelska blogginlägg om denna tekniskt avancerade möjlighet: How can we detect consciousness in brain-damaged patients?

Blogginlägget presenterar en artikel som Michele Farisco nyligen publicerade.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Farisco, M., Pennartz, C., Annen, J. et al. Indicators and criteria of consciousness: ethical implications for the care of behaviourally unresponsive patients. BMC Med Ethics 23, 30 (2022). https://doi.org/10.1186/s12910-022-00770-3

Vi hittar nya angreppssätt

Faktaresistens, vår mänskliga natur och eftertänksamhet

Ibland gör vi alla motstånd mot fakta. Jag såg en cyklist ramla i vinterhalkan. När jag frågade om det gick bra var hon blixtsnabbt på benen och förnekade allt: ”Jag ramlade inte!” Det är mänskligt att förneka fakta. De kan göra ont och kan vara störande.

Vad gör vi motstånd mot? Det vanliga svaret är att faktaresistenta individer eller grupper gör motstånd mot fakta om vår omvärld, såsom statistiken om våldsbrott, om vaccinbiverkningar, om klimatförändringar eller om sjukdomars utbredning. Det blir då naturligt att bjuda motstånd mot faktaresistensen genom att kräva skärpning på kunskapens område. Människor borde lära sig att vända sig mer rigoröst mot världen de lever i! Problemet är att faktaresistenta attityder gör precis det. De är närmast förhäxade av världen och av orsakerna till vad som uppfattas som upprörande problem i den. Och nu förhäxas även vi av faktaresistensen och spekulerar om orsakerna till detta upprörande problem.

Vi anser naturligtvis att vårt motstånd är rättmätigt. Men vem anser inte det? Rättmätigt motstånd bemöts av rättmätigt motstånd, och snart tornar konflikten upp sig kring sin dubbla rättmätighetsspiral. Möjligheten att upplösa den blockeras av konflikten själv, för alla parter är lika rättmätiga motståndare till varandra. Alla hör sina egna inre röster varna dem från att erkänna sina fel, från att erkänna sin ovisshet, från att erkänna sitt mänskliga motstånd mot verkligheten, som när vi ramlar av cykeln och önskar att det aldrig hade hänt. Motståndarsidan skulle ju genast utnyttja tillfället! Snart är vår fadäs en skandal på sociala medier. Så vi gör som personen som ramlade av cykeln, vi förnekar allt utan att tänka efter: ”Jag hade inte fel, jag hade mitt eget faktaunderlag!” Att livet därmed blir lögnaktigt struntar vi i, för våra inre röster varnar oss från att erkänna vår ovisshet. Vi har minsann rätt att erkännas, insisterar våra röster, åtminstone som ett alternativ till ”den etablerade uppfattningen”.

Konflikter ger oss ingen tid för eftertanke. Ändå finns det egentligen ingenting som hindrar oss från att sätta oss ned, mitt i konflikten, och upplösa den inom oss själva. När vi ger oss tid att tänka efter själva, är vi friare att erkänna vår ovisshet och granska våra tankespiraler. Visst, denna filosofiska självgranskning löser inte konflikten mellan rättmätiga motståndare som tornar upp sig omkring oss som alltmer ogenomtränglig och verklig. Det upplöser bara konflikten inom oss själva. Men kanske att vår eftertänksamma filosofiska röst ändå ger en antydan om hur vi, bara genom att tillåta oss att sväva i ovisshet, redan ser konfliktens tomhet och är fria från den?

Om vi oftare vågade sväva i ovisshet, om det blev mer tillåtet att säga ”Jag vet inte”, om vi lyssnade mer uppmärksamt till eftertänksamma röster i stället för att tysta dem med högljudda kunskapsanspråk, så kanske även faktaresistensen minskar. Jag tror nämligen att faktaresistens inte minst är ett motstånd mot ett inre faktum. Mot ett enda inre faktum. Vilket faktum? Vår osäkerhet som människor, som vi inte tillåter oss själva. Men om du tillåter dig att falla i halkan, så behöver du inte förneka att du gjorde det!

Ett eftertänksammare sätt att vara människa borde vara möjligt. Vi formar samhällena som formar oss.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Detta inlägg på engelska

Vi ställer frågor

Kan neuro- och AI-etiken mötas?

I takt med att artificiell intelligens (AI) blir kraftfullare och används inom alltfler områden, växer behoven av etisk reflektion kring utvecklingen.

I ett inlägg på The Ethics Blog föreslår Michele Farisco idag att AI-etiken kan hämta inspiration från neuroetiken och att ett samarbete vore fruktbart. Några av frågorna som AI väcker är nämligen besläktade med frågor om intelligens och medvetande som undersökts inom neuroetiken. Vad betyder det att vara intelligent och i vilken mening kan maskiner tillskrivas intelligens? Vad betyder det att ha medvetande och är artificiellt medvetande tänkbart? Fundamentala frågor från de två etikområdena möts.

AI-utvecklingen har en tendens att väcka överdrivna förhoppningar och farhågor. Vi har även som människor en fantasifull tendens att projicera bilder av oss själva på tekniken. Sådana tendenser kan göra etikdiskussionen oklar och orealistisk. I blogginlägget föreslår Michele Farisco en arbetsmodell från neuroetiken, som kunde användas även inom AI-etiken för att hålla diskussionen klar och realistisk. Grundtanken är att börja med begreppsliga undersökningar för att belysa vad vi menar med vissa egenskaper när de tillskrivs AI, exempelvis autonomi. När vi klargjort begreppens tillämpbarhet på AI har vi en god grund att stå på för att undersöka den etiska relevansen och de normativa konsekvenserna av begreppen.

Vill du läsa blogginlägget så hittar du det här: How can neuroethics and AI join their forces? Inlägget bygger på en artikel som Michele Farisco nyligen publicerade med Kathinka Evers och Arleen Salles.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Farisco, M., Evers, K. & Salles, A. On the Contribution of Neuroethics to the Ethics and Regulation of Artificial Intelligence. Neuroethics 15, 4 (2022). https://doi.org/10.1007/s12152-022-09484-0

Vi hittar nya angreppssätt

Bilder av god och ond artificiell intelligens

Som Michele Farisco påpekat på den engelska versionen av denna blogg, fungerar artificiell intelligens (AI) ofta som projektionsyta för våra självbilder som människor. Ibland även som projektionsyta för våra bilder av gott och ont, som du snart ska få se.

Inom AI och robotteknik eftersträvas ofta autonomi, i meningen att den artificiella intelligensen ska kunna utföra sina uppgifter på bästa sätt utan mänsklig vägledning. Som en självkörande bil, som säkert tar dig dit du vill utan att du behöver styra, gasa eller bromsa. En annan form av autonomi som ofta eftersträvas är att den artificiella intelligensen ska vara självlärande och därmed kunna förbättra sig själv och bli kraftfullare utan mänsklig vägledning.

Filosofer har diskuterat om AI kan vara autonom även i en annan mening, som förknippas med vårt mänskliga förnuft. En autonom person kan, enligt denna bild, granska sina yttersta mål i livet och revidera dem, om hon bedömer att ny kunskap om världen gör det nödvändigt. Vissa filosofer menar att AI inte kan göra detta, eftersom det förprogrammerade målet, eller nyttofunktionen, skulle göra det irrationellt att ändra målet. Målet ligger fast. Idén om en sådan envist målinriktad AI kan väcka oroande bilder av ondskefull AI som löper amok mittibland oss. Men även betryggande bilder av god AI som pålitligt stödjer oss.

Oroade filosofer har föreställt sig en AI som har det yttersta målet att tillverka vanliga gem. Denna AI antas vara självförbättrande. Den blir därför allt intelligentare och kraftfullare vad gäller målet att tillverka gem. När råvaror sinar lär den sig nya sätt att förvandla jordens resurser till gem och när människor försöker hindra den från att förgöra planeten lär den sig att förgöra mänskligheten. När planeten är utplånad ger den sig ut i rymden och förvandlar universum till gem.

Filosofer som varnar för en sådan ”ond” superintelligent AI hyser även förhoppningar om en ”god” superintelligent AI. Anta nämligen att vi kunde ge självförbättrande AI målet att tjäna mänskligheten. Utan att tröttna skulle den utveckla allt intelligentare och kraftfullare sätt att vara vid vår sida, till tidens ände. Till skillnad från religionens gud skulle denna konstgjorda superintelligens höra våra böner och vidta allt smartare åtgärder för att hjälpa oss. Den skulle antagligen förr eller senare lära sig att förhindra jordbävningar och våra klimatproblem skulle snart vara borta. Inga teodicéproblem i världen kunde undergräva vår tro på denna AI-gud, vars makt att skydda oss mot allt ont bara ökar. Naturligtvis är det oklart hur målet att tjäna mänskligheten kan definieras. Men givet möjligheten att äntligen säkerställa mänsklighetens framtid, menar vissa hoppfulla filosofer att utveckling av människovänlig självförbättrande AI borde vara en av vår tids främsta uppgifter.

Allt detta läste jag i en välskriven artikel av Wolfhart Totschnig, som ifrågasätter den icke-reviderbara målorientering som förknippas med autonom AI i scenarierna ovan. Hans viktigaste poäng är att målstyrd AI som löper amok i universum eller räddar mänskligheten ur varje knipa inte ens är tänkbar. Utanför sin domän förlorar nämligen målet sin meningsfullhet. Målet för en självkörande bil att säkert ta användaren till destinationen har ingen mening utanför domänen vägtrafik. Domänspecifik AI kan därför inte generaliseras till världen som helhet, för nyttofunktionen förlorar sin mening utanför domänen, långt innan universum hinner förvandlas till gem eller mänsklighetens framtid hinner säkerställas av en artificiellt god gud.

Detta är naturligtvis en viktig filosofisk poäng om mål och mening, om begränsade domäner och världen som helhet. Kritiken hjälper oss att mer realistiskt bedöma risker och möjligheter av framtida AI, utan att förhäxas av våra bilder. Samtidigt får jag intrycket att även Totschnig fortsätter att använda AI som projektionsyta för bilder av oss själva. Han menar nämligen att framtida AI mycket väl kan revidera även sina yttersta mål i takt med att den utvecklar en allmän förståelse för världen. Svagheten i scenarierna ovan var ju att de utgick från dagens domänspecifika AI, inte från människans allmänna förnuftsförmåga. Vi ser då inte möjligheten av en äkta människolik AI, som självkritiskt omprövar sina yttersta mål när ny kunskap om världen motiverar detta. Sant människoekvivalent AI skulle ha full autonomi.

Att projicera mänskliga självbilder på framtida AI är inte bara en tendens, såvitt jag kan bedöma, utan en norm som styr diskussionen. Enligt denna norm projiceras fel bild i scenarierna ovan. En bild av dagens maskiner, inte av vår allmänna mänskliga intelligens. Att projicera rätt självbild på framtida AI framstår därmed som ett övergripande mål i diskussionen. Är målet meningsfullt eller borde det omprövas självkritiskt?

Detta är svåra frågor och mitt intryck av diskussionen kan vara felaktigt. Vill du göra en egen bedömning, läs artikeln: Fully autonomous AI.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Totschnig, W. Fully Autonomous AI. Sci Eng Ethics 26, 2473–2485 (2020). https://doi.org/10.1007/s11948-020-00243-z

Detta inlägg på engelska

Vi ställer frågor

Digitala tvillingar, virtuella hjärnor och språkets faror

En ny datorsimuleringsteknik har börjat användas exempelvis inom tillverkningsindustrin. Simuleringen kallas en digital tvilling, vilket utmanar mig att levandegöra för läsaren vad något som låter så fantasieggande kan vara i verkligheten.

Den mest realistiska förklaring jag kan hitta kommer faktiskt från Harry Potters värld. Minns du kartan över Hogwarts, som inte bara visar alla rum och korridorer, utan även fotstegen i realtid av dem som smyger omkring på skolan? En liknande karta kan lätt skapas i datormiljö genom att förbinda kartan i datorn med sensorer i golvet på byggnaden som kartan avbildar. Genast har du en interaktiv digital karta över byggnaden som automatiskt uppdateras och visar människors rörelser i den. Tänk dig vidare att datorsimuleringen kan göra beräkningar som förutsäger folksamlingar som överstiger myndigheternas rekommendationer, och att den automatiskt sänder ut varningsmeddelanden via ett högtalarsystem. Såvitt jag förstår kan en sådan interaktiv digital karta kallas en digital tvilling för ett intelligent hus.

Naturligtvis är detta en revolutionerande teknik. Arkitektens ritning i något datorprogram får förlängt liv i såväl produktionen som underhållet av byggnaden. Den digitala simuleringen kopplas till sensorer som uppdaterar simuleringen med aktuella data om relevanta faktorer i byggprocessen och därefter i den färdiga byggnaden. Huset får en digital tvilling som under byggnadens hela livscykel automatiskt kontaktar underhållstekniker när sensorerna visar att tvättmaskinerna börjar bli slitna eller luften inte cirkulerar som den ska.

Användningsområdet för digitala tvillingar är enormt. Poängen med dem, som jag förstår det, är inte att de är ”exakta virtuella kopior av verkligheten”, vad det nu kunde betyda. Poängen är att datorsimuleringen är sammanlänkad med det simulerade objektet på ett praktiskt relevant sätt. Sensorer uppdaterar automatiskt simuleringen med relevanta data, samtidigt som simuleringen automatiskt uppdaterar det simulerade objektet på relevanta sätt. Samtidigt uppdateras användare, tillverkare, underhållstekniker och andra aktörer, som lätt överblickar objektets aktuella status, möjligheter och risker, var de än befinner sig i världen.

Det europeiska flaggskeppsprojektet Human Brain Project planerar att utveckla digitala tvillingar till mänskliga hjärnor, detta genom att bygga virtuella hjärnor i datormiljö. I en artikel undersöker filosoferna Kathinka Evers och Arleen Salles, som båda arbetar i projektet, de enorma utmaningar som det skulle innebära att utveckla digitala tvillingar till levande mänskliga hjärnor. Är det ens tänkbart?

Författarna jämför typer av föremål som kan få digitala tvillingar. Det kan handla om artefakter såsom byggnader och bilar eller om naturliga livlösa företeelser såsom berggrunden vid en gruva. Men det skulle alltså även kunna handla om levande ting såsom hjärtat eller hjärnan. Jämförelserna i artikeln visar att hjärnan utmärker sig på flera sätt, som alla gör det oklart om det är rimligt att tala om digitala tvillingar till mänskliga hjärnor. Vore det mer klargörande att tala om digitala kusiner?

Hjärnan är astronomiskt komplex och trots ny kunskap om den så är den i hög grad ogenomskinlig för vårt kunskapssökande. Hur kan vi tala om en digital tvilling till något som är komplext som en galax och okänt som ett svart hål? Dessutom är hjärnan genomgående dynamiskt interaktiv. Den är sammankopplad inte bara med kroppen utan även med kultur, samhälle och omvärld, som den utvecklas i oavbrutet samspel med. Hjärnan smälter närmast ihop med omgivningen. Betyder det att en digital tvilling skulle behöva vara en tvilling till hjärnan-kroppen-kulturen-samhället-världen, det vill säga en digital tvilling till allting?

Nej, så är det naturligtvis inte. Syftet inom projektet är att finna specifika medicinska tillämpningar av den nya datorsimuleringstekniken. Genom att utveckla digitala tvillingar till vissa aspekter av vissa delar av patienters hjärnor, hoppas man kunna förbättra och individanpassa exempelvis kirurgiska ingrepp vid sjukdomar såsom epilepsi. Liksom kartan från Harry Potters värld följer människors fotsteg, skulle den digitala hjärntvillingen kunna följa vissa nervimpulsers utbredning i vissa delar av patientens hjärna. Detta kan öppna nya möjligheter att överblicka, diagnostisera, förutse och behandla sjukdomar såsom epilepsi.

Borde vi undvika termen digital tvilling när vi talar om hjärnan? Ja, det vore antagligen klokare att tala om digitala syskon eller om digitala kusiner, argumenterar Kathinka Evers och Arleen Salles. Även om experterna på området förstår begreppets tekniska användning, är uttrycket ”digital tvilling” språkligt riskabelt när vi talar om den mänskliga hjärnan. Det leder lätt tanken vilse. Vi tänker oss att den digitala tvillingen måste vara en exakt kopia av en människas hela hjärna. Detta riskerar att skapa orealistiska förväntningar och grundlös rädsla omkring teknikutvecklingen. Historien visar dessutom att språket rymmer fler faror. Ord kommer med normativa förväntningar som kan få etiska och sociala konsekvenser som kanske inte avsågs. Att tala om en digital tvilling till en gruvborr är nog ingen större språklig fara. Men handlar det om individuella människors hjärnor, kan talet om digitala tvillingar bli en ny språklig arena där vi befäster fördomar och sprider rädslor.

Efter att ha läst några populärvetenskapliga förklaringar av digital tvillingar vill jag tillägga att försiktighet kan behövas även i anknytning till industriella tillämpningar. För den digitala tvillingen till gruvborren är ju ingen ”exakt virtuell kopia av den verkliga borren” i någon absolut mening, ända ner till rörelserna hos enskilda atomer. Den digitala tvillingen är en kopia i den praktiska mening som tillämpningen gör relevant. Ibland räcker det att kopiera var människor sätter ner sina fötter, som i Harry Potters värld, vars magi oväntat hjälper oss att förstå begreppet digital tvilling mer realistiskt än många verbala ordförklaringar kan göra. Att förklara ord med hjälp av andra ord är inte alltid klargörande, om alla orden styr tanken i samma riktning. Orden ”kopia” och ”replik” leder vårt tänkande precis lika rätt och precis lika fel som ordet ”tvilling” gör.

Vill du bättre förstå utmaningarna kring digitala tvillingar till mänskliga hjärnor och vikten av begreppslig klarhet kring utvecklingen, läs den filosofiskt upplysande artikeln: Epistemic Challenges of Digital Twins & Virtual Brains: Perspectives from Fundamental Neuroethics.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Evers, Kathinka & Salles, Arleen. (2021). Epistemic Challenges of Digital Twins & Virtual Brains: Perspectives from Fundamental Neuroethics. SCIO: Revista de Filosofía. 27-53. 10.46583/scio_2021.21.846

Detta inlägg på engelska

Vi söker klarhet

« Äldre inlägg Nyare inlägg »