En forskningsblogg från Centrum för forsknings- & bioetik (CRB)

Etikett: filosofi (Sida 3 av 19)

Ger hjärnan utrymme för fri vilja?

Frågan om vi har en fri vilja har diskuterats i alla tider och överallt i världen. Kan vi påverka vår framtid eller är den förutbestämd? Om allt är förutbestämt och vi saknar fri vilja, varför skulle vi agera ansvarigt och med vilken rätt håller vi varandra ansvariga?

Det har funnits olika föreställningar om vad som förutbestämmer framtiden och utesluter fri vilja. Man har talat om ödet och om gudarna. Idag föreställer vi oss snarare att det handlar om nödvändiga orsakssamband i universum. Det tycks som om den materiella världens obönhörliga determinism måste utesluta den fria vilja som vi människor upplever oss ha. Om vi verkligen hade fri vilja, tänker vi, så skulle naturen behöva ge oss ett eget utrymme att bestämma i. Ett orsaksglapp där naturen inte bestämmer allt enligt sina lagar, utan låter oss agera enligt vår vilja. Men detta tycks motsäga vår vetenskapliga världsbild.

I en artikel i tidskriften Intellectica granskar Kathinka Evers vid CRB rimligheten av detta val mellan två extrema positioner: antingen strikt determinism som utesluter fri vilja, eller fri vilja som utesluter determinism.

Kathinka Evers närmar sig problemet ur ett neurovetenskapligt perspektiv. Just detta perspektiv har historiskt tenderat att stödja en av positionerna: strikt determinism som utesluter fri vilja. För hur kan hjärnan ge utrymme för fri vilja, om våra beslut är resultatet av elektrokemiska processer och av evolutionärt utvecklade program? Är det inte precis där, i hjärnan, som vår fria vilja omintetgörs av materiella processer som inte ger oss något utrymme?

Vissa författare som skrivit om den fria viljan ur neurovetenskapliga perspektiv har ibland förklarat bort friheten som ett slags hjärnans användarillusion: som en nödvändig illusion, som en fiktiv konstruktion. Somliga har menat att eftersom sociala grupper fungerar bäst när vi som individer antar oss vara ansvariga aktörer, så får vi finna oss i att trots allt behålla den här gamla illusionen vid liv. Den fria viljan är en fiktion som fungerar och behövs i samhället!

Denna inställning är osund, menar Kathinka Evers. Vi kan inte bygga våra samhällen på antaganden som motsäger vår bästa kunskap. Det vore absurt att hålla människor ansvariga för handlingar som de i själva verket inte har någon förmåga att påverka. Samtidigt håller hon med om att föreställningen om fri vilja är socialt viktig. Men om vi ska behålla föreställningen, så måste den vara förenlig med vår kunskap om hjärnan.

En av artikelns huvudpunkter är att dagens kunskap om hjärnan faktiskt skulle kunna ge ett visst utrymme för fri vilja. Hjärnan skulle kunna fungera bortom motsättningen mellan indeterminism och strikt determinism, föreslår åtminstone vissa neurovetenskapliga teorier. Det betyder inte att det skulle finnas icke-orsakade neurala händelser. Snarare föreslås en determinism där relationen mellan orsak och verkan är variabel, inte nödvändig och entydig, som vi vanligen föreställer oss. Såvitt jag förstår handlar det om att hjärnan har visat sig fungera mycket mer självständigt, aktivt och flexibelt än i bilden av den som ett slags programmerad maskin. Olika ingående nervsignaler kan stabilisera olika neurala kopplingsmönster i hjärnan, som stödjer samma beteendeförmåga. Och samma ingående nervsignal kan stabilisera olika kopplingsmönster i hjärnan som resulterar i samma beteendeförmåga. Trots stor variation i hur individers neurala kopplingsmönster stabiliseras, så stöds samma gemensamma förmågor. Denna modell av hjärnan är alltså deterministisk, samtidigt som den karaktäriseras av variabilitet. Den beskriver ett slags kalejdoskopiskt variabla orsakssammanhang i hjärnan mellan ingående signaler och resulterande beteenden och förmågor.

Kathinka Evers föreslår alltså hypotetiskt att denna variabilitet i hjärnan, om den är riktig, skulle kunna ge empiriskt belägg för att fri vilja är förenlig med determinism.

Läs den filosofiskt uppslagsrika artikeln här: Variable determinism in social applications: translating science to society.

Även om Kathinka Evers öppnar upp för att ett visst mått av fri vilja är förenlig med vad vi vet om hjärnan, så framhåller hon att neurovetenskapen ger oss alltmer ingående kunskap om hur vi betingas av nedärvda program exempelvis under puberteten, liksom av våra livsvillkor och erfarenheter under uppväxten. Vi bör alltså trots allt vara försiktiga med att berömma eller hålla varandra ansvariga, avslutar hon artikeln. Här hänvisar hon till stoikern Epiktetos, en av de tänkare som funderat över den fria viljan och som snarast betonade friheten från föreställningen om en fri vilja.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Evers Kathinka (2021/2). Variable Determinism in Social Applications: Translating Science to Society. In Monier Cyril & Khamassi Mehdi (Eds), Liberty and cognition, Intellectica, 75, pp.73-89.

Detta inlägg på engelska

Svåra frågor

Artificiell intelligens: stärka intelligens i människor eller skapa mänsklig intelligens i maskiner?

Ibland läser man artiklar i gränstrakten mellan filosofi och vetenskap som innehåller riktigt spännande visionära tankar, som det samtidigt är svårt att förstå och bedöma. Den tekniska utarbetningen av tankarna växer alltmedan man läser, och till slut vet man inte om man är kapabel att tänka självständigt omkring idéerna eller om det handlar om nya vetenskapliga rön och trender som man saknar expertis att bedöma.

Idag dristar jag mig till att rekommendera läsning av en sådan artikel. Inlägget måste av naturliga skäl bli kort. Men grundidéerna i artikeln är så pass intressanta att jag hoppas att några läsare av inlägget även blir läsare av artikeln och försöker förstå den.

Vad handlar artikeln om? Den handlar om ett alternativt sätt att närma sig de högsta anspråken inom artificiell intelligens. I stället för att försöka skapa maskiner som kan göra vad människor kan göra, maskiner med personligt medvetande och moral, fokuserar artikeln på möjligheten att skapa maskiner som stärker intelligensen hos redan medvetna, moraliskt tänkande människor. Denna idé är dock inte helt ny. Den har i funnits i över ett halvsekel inom exempelvis cybernetiken. Så vad är nytt i artikeln?

Något som jag själv slogs av var den medkännande rösten i artikeln, som annars inte är framträdande i AI-litteraturen. Artikeln fokuserar inte på att skapa supersmarta problemlösare, utan på att stärka våra band med varandra och med världen vi lever i. Exemplen som ges i artikeln handlar om bättre moraliska hänsynstaganden till människor långt borta, om bättre förutsägelser av naturkatastrofer i ett komplext klimat, samt om att återställa sociala kontakter hos människor som lider av depression eller schizofreni.

Men det originellaste i artikeln är kanske ändå förslaget att utvecklingen av dessa jag-stärkande maskiner skulle hämta inspiration från hur hjärnan redan upprätthåller kontakten med sin omgivning. Här bör man hålla i minnet att det handlar om matematiska modeller av hjärnan och om nyskapande sätt att tänka om hur hjärnan samspelar med omgivningen.

Det är frestande att se hjärnan som ett isolerat organ. Men hjärnan är via sinnen och nervbanor i ständigt dynamiskt utbyte med kroppen och världen. Du skulle inte uppleva världen om den inte gjorde ständigt nya avtryck i din hjärna och du ständigt agerade på de avtrycken. Denna intensiva interaktivitet på mängder av nivåer och tidsskalor syftar till att upprätthålla en stabil och begriplig kontakt med en omgivande värld. Tänkesättet i artikeln påminner mig om begreppet ”digital tvilling”, som jag tidigare bloggat om. Men här är det hjärnan som framstår som en neural tvilling med världen. Hjärnan liknar en kontinuerligt uppdaterad neural spegelbild av världen, som hjärnan samtidigt kontinuerligt förändrar.

Här börjar jag dock få svårt att riktigt begripa och bedöma tankarna i artikeln, särskilt beträffande den matematiska modell som antas beskriva hjärnans ”adaptiva dynamik”. Men som jag förstår saken, föreslår man möjligheten av att återskapa en liknande dynamik i intelligenta maskiner, som kan stärka vår förmåga att se komplexa mönster i vår miljö och vara i kontakt med varandra. En smula poetiskt kunde man kanske säga att det handlar om att stärka vårt neurala tvillingskap med världen. Ett slags neuralt-digitalt tvillingskap med omgivningen? Ett digitalt förstärkt neuralt tvillingskap med världen?

Mer vågar jag inte säga om den visionära artikeln. Kanske har jag redan tagit mig för stora poetiska friheter? Jag hoppas ändå att jag lyckats göra dig intresserad att läsa artikeln och bedöma den själv: Augmenting Human Selves Through Artificial Agents – Lessons From the Brain.

Jo, en sak vill jag avslutningsvis påpeka. Jag nämnde svårigheten att ibland förstå och bedöma spännande tankar som formuleras i gränstrakterna mellan filosofi och vetenskap. Är inte den svårigheten själv ett exempel på hur kontakten med omgivningen ibland försvagas? Här vet jag emellertid inte om jag skulle ha haft hjälp av digital intelligensförstärkning som raskt tog mig igenom de filosofiska svårigheter som man kan uppleva under läsning. Somliga frågor tycks väsentligen fordra tid, att man stannar upp och tänker efter!

Att ge sig själv tid att tänka är ett naturligt sätt att fördjupa kontakten med verkligheten, känt av filosofer i årtusenden.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Northoff G, Fraser M, Griffiths J, Pinotsis DA, Panangaden P, Moran R and Friston K (2022) Augmenting Human Selves Through Artificial Agents – Lessons From the Brain. Front. Comput. Neurosci. 16:892354. doi: 10.3389/fncom.2022.892354

Detta inlägg på engelska

Kommer med lästips

Självförtroende mitt i osäkerheten

Att känna självförtroende är naturligt när vi har kunskapen som uppgiften kräver. Däremot kan självförtroende bli skadligt om vi tror oss veta vad vi inte vet. Riktigt problematiskt kan det bli om vi gör en vana av att låtsas att vi vet. Kanske för att vi kräver det av oss själva.

Det finns även ett annat slags självförtroende, som kan förfalla onaturligt. Jag tänker på ett sällan uppmärksammat självförtroende, som kan vakna just när vi är osäkra på hur vi borde tänka och agera. Men hur kan självförtroende dyka upp när vi är osäkra? Det låter inte bara onaturligt, utan nästan ologiskt. Och var det inte skadligt att uppvisa självförtroende i sådana situationer?

Jag tänker på självförtroendet att vara precis så osäkra som vi är, för att osäkerheten är ett faktum som vi är säkra på: jag vet faktiskt inte. Det är lätt att förbise att även osäkerhet är en verklighet som kan undersökas hos oss själva. Ibland är det väsentligt att ta fasta på osäkerhetens faktum. Det är att ha hålla sig till fakta det också!

Vad händer om vi inte litar på osäkerheten när vi är osäkra? Jag tror att vi då gärna söker vägledning hos andra, som tycks veta vad vi inte vet. Det verkar inte bara naturligt, utan logiskt. Och visst är det rimligt att göra så, om relevant vetande verkligen finns någon annanstans. Att fråga andra, som kan bedömas veta bättre, fordrar även det ett betydande mått av självförtroende och gott omdöme, mitt i osäkerheten.

Men anta att vi instinktivt söker vägledning hos andra så fort vi är osäkra, för att vi inte vågar ta fasta på osäkerheten i sådana lägen. Vad händer om vi alltid springer bort från osäkerheten, utan att stanna upp och uppmärksamma den, som om ovisshet vore någonting otillåtet? I en sådan fördömande inställning till ovisshet kan kunskap och säkerhet bli ett krav som vi känner måste uppfyllas, inför oss själva och inför varandra, om så bara som en fasad. Vi är då tillbaka där vi började, i det låtsade vetandet, som nu riskerar att bli ett kollektivt högriskspel och inte bara en individuell dålig vana.

Kollektiva kunskapsspel kan naturligtvis fungera, om tillräckligt många inflytelserika spelare har kunskaperna som uppgifterna kräver och kunskaperna förmedlas välorganiserat. Kanske tänker vi att det borde vara möjligt att bygga ett sådant samhälle, ett säkert kunskapssamhälle. Frågan som jag undrar över är hur hållbart detta är i längden, om betoningen på säkerhet inte samtidigt betonar även osäkerheten och tvivlen. Inte för tvivlandets skull, utan för att även osäkerheten är ett faktum som behöver uppmärksammas.

I filosofi och etik är det ofta osäkerheten som framförallt driver arbetet. Det låter kanske konstigt, men även osäkerhet kan undersökas. Om vi ställer en trevande fråga om något som vi uppriktigt undrar över, kan snart klarare frågor vakna som vi fortsätter att undra över, och snart är undersökningen igång. Undersökningen vaknar till liv för att vi vågar lita på oss själva, för att vi vågar ge oss tid att tänka efter, mitt i osäkerheten, som kan bli till klarhet om vi inte springer iväg från den. I undersökningen kan vi naturligtvis märka att vi behöver mer kunskap om specifika frågor, kunskap som inhämtas från andra eller som vi själva tar fram genom empiriska studier. Men det är inte enbart specifik kunskap som upplyser undersökningen, utan arbetet med frågorna som uttrycker vår osäkerhet klargör oss själva och gör tänkandet klarare. Kunskapen får ett genomtänkt sammanhang, där den behövs, vilket upplyser kunskapen.

Ett ”rent” kunskapsspel är knappast hållbart i längden, om dess krav inte är öppna även för kunskapens andra sida, för ovissheten som kan vara svår att skilja från oss själva. En sådan öppenhet fordrar att vi litar inte bara på spelets regler, utan även på oss själva. Men vågar vi lita på oss själva när vi är osäkra?

Jag tror att vi vågar, om vi ser osäkerheten som ett faktum som kan undersökas och klargöras, i stället för att fördöma den som något farligt som inte borde få vara ett faktum. Det är då den kan bli farlig.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Detta inlägg på engelska

Vi ställer frågor

Diagnostisera medvetandestörning hos patienter med svåra hjärnskador

Att diagnostisera hur medvetandet störts hos patienter med svåra hjärnskador är en utmaning och observationerna av patienten feltolkas lätt. En stor andel av patienterna får antagligen fel diagnos. Detta är beklagligt, för olika typer av medvetandestörning (såsom ”icke-responsivt vakenhetssyndrom” och ”minimalt medvetandetillstånd”) har olika prognoser.

På The Ethics Blog diskuterar Michele Farisco problematiken. Han har tidigare provisoriskt identifierat sex indikatorer på medvetande. Dessa indikatorer kan härledas från beteendeobservationer, men de skulle även kunna härledas från observationer av reaktioner i hjärnan. Nämligen om dessa visat sig vara korrelerade med beteendena. Mätbara reaktioner i hjärnan skulle alltså kunna bidra till diagnosen av medvetandestörningen hos svårt hjärnskadade patienter, som ofta inte kan uppvisa tydliga beteenden eller kommunicera.

Läs Michele Fariscos engelska blogginlägg om denna tekniskt avancerade möjlighet: How can we detect consciousness in brain-damaged patients?

Blogginlägget presenterar en artikel som Michele Farisco nyligen publicerade.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Farisco, M., Pennartz, C., Annen, J. et al. Indicators and criteria of consciousness: ethical implications for the care of behaviourally unresponsive patients. BMC Med Ethics 23, 30 (2022). https://doi.org/10.1186/s12910-022-00770-3

Vi hittar nya angreppssätt

Faktaresistens, vår mänskliga natur och eftertänksamhet

Ibland gör vi alla motstånd mot fakta. Jag såg en cyklist ramla i vinterhalkan. När jag frågade om det gick bra var hon blixtsnabbt på benen och förnekade allt: ”Jag ramlade inte!” Det är mänskligt att förneka fakta. De kan göra ont och kan vara störande.

Vad gör vi motstånd mot? Det vanliga svaret är att faktaresistenta individer eller grupper gör motstånd mot fakta om vår omvärld, såsom statistiken om våldsbrott, om vaccinbiverkningar, om klimatförändringar eller om sjukdomars utbredning. Det blir då naturligt att bjuda motstånd mot faktaresistensen genom att kräva skärpning på kunskapens område. Människor borde lära sig att vända sig mer rigoröst mot världen de lever i! Problemet är att faktaresistenta attityder gör precis det. De är närmast förhäxade av världen och av orsakerna till vad som uppfattas som upprörande problem i den. Och nu förhäxas även vi av faktaresistensen och spekulerar om orsakerna till detta upprörande problem.

Vi anser naturligtvis att vårt motstånd är rättmätigt. Men vem anser inte det? Rättmätigt motstånd bemöts av rättmätigt motstånd, och snart tornar konflikten upp sig kring sin dubbla rättmätighetsspiral. Möjligheten att upplösa den blockeras av konflikten själv, för alla parter är lika rättmätiga motståndare till varandra. Alla hör sina egna inre röster varna dem från att erkänna sina fel, från att erkänna sin ovisshet, från att erkänna sitt mänskliga motstånd mot verkligheten, som när vi ramlar av cykeln och önskar att det aldrig hade hänt. Motståndarsidan skulle ju genast utnyttja tillfället! Snart är vår fadäs en skandal på sociala medier. Så vi gör som personen som ramlade av cykeln, vi förnekar allt utan att tänka efter: ”Jag hade inte fel, jag hade mitt eget faktaunderlag!” Att livet därmed blir lögnaktigt struntar vi i, för våra inre röster varnar oss från att erkänna vår ovisshet. Vi har minsann rätt att erkännas, insisterar våra röster, åtminstone som ett alternativ till ”den etablerade uppfattningen”.

Konflikter ger oss ingen tid för eftertanke. Ändå finns det egentligen ingenting som hindrar oss från att sätta oss ned, mitt i konflikten, och upplösa den inom oss själva. När vi ger oss tid att tänka efter själva, är vi friare att erkänna vår ovisshet och granska våra tankespiraler. Visst, denna filosofiska självgranskning löser inte konflikten mellan rättmätiga motståndare som tornar upp sig omkring oss som alltmer ogenomtränglig och verklig. Det upplöser bara konflikten inom oss själva. Men kanske att vår eftertänksamma filosofiska röst ändå ger en antydan om hur vi, bara genom att tillåta oss att sväva i ovisshet, redan ser konfliktens tomhet och är fria från den?

Om vi oftare vågade sväva i ovisshet, om det blev mer tillåtet att säga ”Jag vet inte”, om vi lyssnade mer uppmärksamt till eftertänksamma röster i stället för att tysta dem med högljudda kunskapsanspråk, så kanske även faktaresistensen minskar. Jag tror nämligen att faktaresistens inte minst är ett motstånd mot ett inre faktum. Mot ett enda inre faktum. Vilket faktum? Vår osäkerhet som människor, som vi inte tillåter oss själva. Men om du tillåter dig att falla i halkan, så behöver du inte förneka att du gjorde det!

Ett eftertänksammare sätt att vara människa borde vara möjligt. Vi formar samhällena som formar oss.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Detta inlägg på engelska

Vi ställer frågor

Kan neuro- och AI-etiken mötas?

I takt med att artificiell intelligens (AI) blir kraftfullare och används inom alltfler områden, växer behoven av etisk reflektion kring utvecklingen.

I ett inlägg på The Ethics Blog föreslår Michele Farisco idag att AI-etiken kan hämta inspiration från neuroetiken och att ett samarbete vore fruktbart. Några av frågorna som AI väcker är nämligen besläktade med frågor om intelligens och medvetande som undersökts inom neuroetiken. Vad betyder det att vara intelligent och i vilken mening kan maskiner tillskrivas intelligens? Vad betyder det att ha medvetande och är artificiellt medvetande tänkbart? Fundamentala frågor från de två etikområdena möts.

AI-utvecklingen har en tendens att väcka överdrivna förhoppningar och farhågor. Vi har även som människor en fantasifull tendens att projicera bilder av oss själva på tekniken. Sådana tendenser kan göra etikdiskussionen oklar och orealistisk. I blogginlägget föreslår Michele Farisco en arbetsmodell från neuroetiken, som kunde användas även inom AI-etiken för att hålla diskussionen klar och realistisk. Grundtanken är att börja med begreppsliga undersökningar för att belysa vad vi menar med vissa egenskaper när de tillskrivs AI, exempelvis autonomi. När vi klargjort begreppens tillämpbarhet på AI har vi en god grund att stå på för att undersöka den etiska relevansen och de normativa konsekvenserna av begreppen.

Vill du läsa blogginlägget så hittar du det här: How can neuroethics and AI join their forces? Inlägget bygger på en artikel som Michele Farisco nyligen publicerade med Kathinka Evers och Arleen Salles.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Farisco, M., Evers, K. & Salles, A. On the Contribution of Neuroethics to the Ethics and Regulation of Artificial Intelligence. Neuroethics 15, 4 (2022). https://doi.org/10.1007/s12152-022-09484-0

Vi hittar nya angreppssätt

Bilder av god och ond artificiell intelligens

Som Michele Farisco påpekat på den engelska versionen av denna blogg, fungerar artificiell intelligens (AI) ofta som projektionsyta för våra självbilder som människor. Ibland även som projektionsyta för våra bilder av gott och ont, som du snart ska få se.

Inom AI och robotteknik eftersträvas ofta autonomi, i meningen att den artificiella intelligensen ska kunna utföra sina uppgifter på bästa sätt utan mänsklig vägledning. Som en självkörande bil, som säkert tar dig dit du vill utan att du behöver styra, gasa eller bromsa. En annan form av autonomi som ofta eftersträvas är att den artificiella intelligensen ska vara självlärande och därmed kunna förbättra sig själv och bli kraftfullare utan mänsklig vägledning.

Filosofer har diskuterat om AI kan vara autonom även i en annan mening, som förknippas med vårt mänskliga förnuft. En autonom person kan, enligt denna bild, granska sina yttersta mål i livet och revidera dem, om hon bedömer att ny kunskap om världen gör det nödvändigt. Vissa filosofer menar att AI inte kan göra detta, eftersom det förprogrammerade målet, eller nyttofunktionen, skulle göra det irrationellt att ändra målet. Målet ligger fast. Idén om en sådan envist målinriktad AI kan väcka oroande bilder av ondskefull AI som löper amok mittibland oss. Men även betryggande bilder av god AI som pålitligt stödjer oss.

Oroade filosofer har föreställt sig en AI som har det yttersta målet att tillverka vanliga gem. Denna AI antas vara självförbättrande. Den blir därför allt intelligentare och kraftfullare vad gäller målet att tillverka gem. När råvaror sinar lär den sig nya sätt att förvandla jordens resurser till gem och när människor försöker hindra den från att förgöra planeten lär den sig att förgöra mänskligheten. När planeten är utplånad ger den sig ut i rymden och förvandlar universum till gem.

Filosofer som varnar för en sådan ”ond” superintelligent AI hyser även förhoppningar om en ”god” superintelligent AI. Anta nämligen att vi kunde ge självförbättrande AI målet att tjäna mänskligheten. Utan att tröttna skulle den utveckla allt intelligentare och kraftfullare sätt att vara vid vår sida, till tidens ände. Till skillnad från religionens gud skulle denna konstgjorda superintelligens höra våra böner och vidta allt smartare åtgärder för att hjälpa oss. Den skulle antagligen förr eller senare lära sig att förhindra jordbävningar och våra klimatproblem skulle snart vara borta. Inga teodicéproblem i världen kunde undergräva vår tro på denna AI-gud, vars makt att skydda oss mot allt ont bara ökar. Naturligtvis är det oklart hur målet att tjäna mänskligheten kan definieras. Men givet möjligheten att äntligen säkerställa mänsklighetens framtid, menar vissa hoppfulla filosofer att utveckling av människovänlig självförbättrande AI borde vara en av vår tids främsta uppgifter.

Allt detta läste jag i en välskriven artikel av Wolfhart Totschnig, som ifrågasätter den icke-reviderbara målorientering som förknippas med autonom AI i scenarierna ovan. Hans viktigaste poäng är att målstyrd AI som löper amok i universum eller räddar mänskligheten ur varje knipa inte ens är tänkbar. Utanför sin domän förlorar nämligen målet sin meningsfullhet. Målet för en självkörande bil att säkert ta användaren till destinationen har ingen mening utanför domänen vägtrafik. Domänspecifik AI kan därför inte generaliseras till världen som helhet, för nyttofunktionen förlorar sin mening utanför domänen, långt innan universum hinner förvandlas till gem eller mänsklighetens framtid hinner säkerställas av en artificiellt god gud.

Detta är naturligtvis en viktig filosofisk poäng om mål och mening, om begränsade domäner och världen som helhet. Kritiken hjälper oss att mer realistiskt bedöma risker och möjligheter av framtida AI, utan att förhäxas av våra bilder. Samtidigt får jag intrycket att även Totschnig fortsätter att använda AI som projektionsyta för bilder av oss själva. Han menar nämligen att framtida AI mycket väl kan revidera även sina yttersta mål i takt med att den utvecklar en allmän förståelse för världen. Svagheten i scenarierna ovan var ju att de utgick från dagens domänspecifika AI, inte från människans allmänna förnuftsförmåga. Vi ser då inte möjligheten av en äkta människolik AI, som självkritiskt omprövar sina yttersta mål när ny kunskap om världen motiverar detta. Sant människoekvivalent AI skulle ha full autonomi.

Att projicera mänskliga självbilder på framtida AI är inte bara en tendens, såvitt jag kan bedöma, utan en norm som styr diskussionen. Enligt denna norm projiceras fel bild i scenarierna ovan. En bild av dagens maskiner, inte av vår allmänna mänskliga intelligens. Att projicera rätt självbild på framtida AI framstår därmed som ett övergripande mål i diskussionen. Är målet meningsfullt eller borde det omprövas självkritiskt?

Detta är svåra frågor och mitt intryck av diskussionen kan vara felaktigt. Vill du göra en egen bedömning, läs artikeln: Fully autonomous AI.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Totschnig, W. Fully Autonomous AI. Sci Eng Ethics 26, 2473–2485 (2020). https://doi.org/10.1007/s11948-020-00243-z

Detta inlägg på engelska

Vi ställer frågor

Digitala tvillingar, virtuella hjärnor och språkets faror

En ny datorsimuleringsteknik har börjat användas exempelvis inom tillverkningsindustrin. Simuleringen kallas en digital tvilling, vilket utmanar mig att levandegöra för läsaren vad något som låter så fantasieggande kan vara i verkligheten.

Den mest realistiska förklaring jag kan hitta kommer faktiskt från Harry Potters värld. Minns du kartan över Hogwarts, som inte bara visar alla rum och korridorer, utan även fotstegen i realtid av dem som smyger omkring på skolan? En liknande karta kan lätt skapas i datormiljö genom att förbinda kartan i datorn med sensorer i golvet på byggnaden som kartan avbildar. Genast har du en interaktiv digital karta över byggnaden som automatiskt uppdateras och visar människors rörelser i den. Tänk dig vidare att datorsimuleringen kan göra beräkningar som förutsäger folksamlingar som överstiger myndigheternas rekommendationer, och att den automatiskt sänder ut varningsmeddelanden via ett högtalarsystem. Såvitt jag förstår kan en sådan interaktiv digital karta kallas en digital tvilling för ett intelligent hus.

Naturligtvis är detta en revolutionerande teknik. Arkitektens ritning i något datorprogram får förlängt liv i såväl produktionen som underhållet av byggnaden. Den digitala simuleringen kopplas till sensorer som uppdaterar simuleringen med aktuella data om relevanta faktorer i byggprocessen och därefter i den färdiga byggnaden. Huset får en digital tvilling som under byggnadens hela livscykel automatiskt kontaktar underhållstekniker när sensorerna visar att tvättmaskinerna börjar bli slitna eller luften inte cirkulerar som den ska.

Användningsområdet för digitala tvillingar är enormt. Poängen med dem, som jag förstår det, är inte att de är ”exakta virtuella kopior av verkligheten”, vad det nu kunde betyda. Poängen är att datorsimuleringen är sammanlänkad med det simulerade objektet på ett praktiskt relevant sätt. Sensorer uppdaterar automatiskt simuleringen med relevanta data, samtidigt som simuleringen automatiskt uppdaterar det simulerade objektet på relevanta sätt. Samtidigt uppdateras användare, tillverkare, underhållstekniker och andra aktörer, som lätt överblickar objektets aktuella status, möjligheter och risker, var de än befinner sig i världen.

Det europeiska flaggskeppsprojektet Human Brain Project planerar att utveckla digitala tvillingar till mänskliga hjärnor, detta genom att bygga virtuella hjärnor i datormiljö. I en artikel undersöker filosoferna Kathinka Evers och Arleen Salles, som båda arbetar i projektet, de enorma utmaningar som det skulle innebära att utveckla digitala tvillingar till levande mänskliga hjärnor. Är det ens tänkbart?

Författarna jämför typer av föremål som kan få digitala tvillingar. Det kan handla om artefakter såsom byggnader och bilar eller om naturliga livlösa företeelser såsom berggrunden vid en gruva. Men det skulle alltså även kunna handla om levande ting såsom hjärtat eller hjärnan. Jämförelserna i artikeln visar att hjärnan utmärker sig på flera sätt, som alla gör det oklart om det är rimligt att tala om digitala tvillingar till mänskliga hjärnor. Vore det mer klargörande att tala om digitala kusiner?

Hjärnan är astronomiskt komplex och trots ny kunskap om den så är den i hög grad ogenomskinlig för vårt kunskapssökande. Hur kan vi tala om en digital tvilling till något som är komplext som en galax och okänt som ett svart hål? Dessutom är hjärnan genomgående dynamiskt interaktiv. Den är sammankopplad inte bara med kroppen utan även med kultur, samhälle och omvärld, som den utvecklas i oavbrutet samspel med. Hjärnan smälter närmast ihop med omgivningen. Betyder det att en digital tvilling skulle behöva vara en tvilling till hjärnan-kroppen-kulturen-samhället-världen, det vill säga en digital tvilling till allting?

Nej, så är det naturligtvis inte. Syftet inom projektet är att finna specifika medicinska tillämpningar av den nya datorsimuleringstekniken. Genom att utveckla digitala tvillingar till vissa aspekter av vissa delar av patienters hjärnor, hoppas man kunna förbättra och individanpassa exempelvis kirurgiska ingrepp vid sjukdomar såsom epilepsi. Liksom kartan från Harry Potters värld följer människors fotsteg, skulle den digitala hjärntvillingen kunna följa vissa nervimpulsers utbredning i vissa delar av patientens hjärna. Detta kan öppna nya möjligheter att överblicka, diagnostisera, förutse och behandla sjukdomar såsom epilepsi.

Borde vi undvika termen digital tvilling när vi talar om hjärnan? Ja, det vore antagligen klokare att tala om digitala syskon eller om digitala kusiner, argumenterar Kathinka Evers och Arleen Salles. Även om experterna på området förstår begreppets tekniska användning, är uttrycket ”digital tvilling” språkligt riskabelt när vi talar om den mänskliga hjärnan. Det leder lätt tanken vilse. Vi tänker oss att den digitala tvillingen måste vara en exakt kopia av en människas hela hjärna. Detta riskerar att skapa orealistiska förväntningar och grundlös rädsla omkring teknikutvecklingen. Historien visar dessutom att språket rymmer fler faror. Ord kommer med normativa förväntningar som kan få etiska och sociala konsekvenser som kanske inte avsågs. Att tala om en digital tvilling till en gruvborr är nog ingen större språklig fara. Men handlar det om individuella människors hjärnor, kan talet om digitala tvillingar bli en ny språklig arena där vi befäster fördomar och sprider rädslor.

Efter att ha läst några populärvetenskapliga förklaringar av digital tvillingar vill jag tillägga att försiktighet kan behövas även i anknytning till industriella tillämpningar. För den digitala tvillingen till gruvborren är ju ingen ”exakt virtuell kopia av den verkliga borren” i någon absolut mening, ända ner till rörelserna hos enskilda atomer. Den digitala tvillingen är en kopia i den praktiska mening som tillämpningen gör relevant. Ibland räcker det att kopiera var människor sätter ner sina fötter, som i Harry Potters värld, vars magi oväntat hjälper oss att förstå begreppet digital tvilling mer realistiskt än många verbala ordförklaringar kan göra. Att förklara ord med hjälp av andra ord är inte alltid klargörande, om alla orden styr tanken i samma riktning. Orden ”kopia” och ”replik” leder vårt tänkande precis lika rätt och precis lika fel som ordet ”tvilling” gör.

Vill du bättre förstå utmaningarna kring digitala tvillingar till mänskliga hjärnor och vikten av begreppslig klarhet kring utvecklingen, läs den filosofiskt upplysande artikeln: Epistemic Challenges of Digital Twins & Virtual Brains: Perspectives from Fundamental Neuroethics.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Evers, Kathinka & Salles, Arleen. (2021). Epistemic Challenges of Digital Twins & Virtual Brains: Perspectives from Fundamental Neuroethics. SCIO: Revista de Filosofía. 27-53. 10.46583/scio_2021.21.846

Detta inlägg på engelska

Vi söker klarhet

Inspirerad

Vad betyder det att inspireras av någon? Tänk på dessa inspirerade musikalbum där artister kärleksfullt hyllar en stor musiker genom att göra egna låttolkningar. Dessa tolkningar uttrycker ofta djup tacksamhet för inspirationen man fått från musikern. Liknande tacksamhet kan vi känna till inspirerande människor på många olika områden.

Varför inspireras vi av inspirerande människor? Här är en frestande bild. Den som inspirerar oss har något som vi saknar. Att vara inspirerad är att vilja ha vad den inspirerande har: ”Jag vill också kunna…”; ”Jag vill bli lika bra som…” och så vidare. Därför imiterar vi den som inspirerar oss, därför hårdtränar vi. Genom att imitera, genom att öva, kan den inspirerandes förmågor överföras till oss som saknar dem.

Detta kunde kallas en pneumatisk bild av inspiration. Den inspirerande är så att säga en luftbehållare med övertryck. Vi andra är behållare med undertryck. Tryckskillnaden orsakar inspirationen. Genom att imitera den inspirerande människan, utjämnas tryckskillnaden. Trycket vandrar över från den inspirerande till de inspirerade. Vi inandas luften som flödar från behållaren med övertryck.

Bilden är säkert delvis riktig, men hela sanningen om inspiration är den knappast. Jag är inte musiker. Det finns en stor tryckskillnad mellan mig och vilken musiker som helst. Varför orsakar inte denna tryckskillnad inspiration? Varför börjar jag inte imitera musiker, hårdträna så att något av musikernas övertryck överförs till mig?

Den pneumatiska bilden är inte hela sanningen, andra bilder av inspiration är möjliga. Här är en. Kanske väcks inspiration inte av olikhet, inte av att vi saknar vad den inspirerande har. Kanske väcks inspiration av likhet, av att vi anar ett djupt släktskap med den som inspirerar oss. När vi inspireras kan vi känna igen oss i den som inspirerar oss. Vi upptäcker något som vi inte visste om oss själva. Frön som vi inte trodde fanns inom oss börjar gro, när den inspirerande människan gör oss uppmärksam på att vi har samma känsla, samma passion, samma kreativitet… I det ögonblicket väcks inspirationen hos oss.

I denna alternativa bild av inspiration sker ingen överföring av förmågor från den inspirerande till de inspirerade. Förmågorna växer snarare spontant hos de inspirerade själva, när de anar sin likhet med den inspirerande. Hos den inspirerande har detta växande redan fullbordats. Kreativiteten har hunnit ta form, så att vi andra kan spegla oss i den och ana hur den gror i oss själva. Denna alternativa bild av inspiration ger även en alternativ bild av människans historia på olika områden. Vi är bekanta med historiska framställningar av hur föregångare inspirerat efterföljare, som om föregångarnas förmågor överfördes horisontellt i tiden. I den alternativa bilden är historien inte bara horisontell. Den har framförallt en vertikal djupdimension hos var och en av oss. Ett växande sker vertikalt i varje ny generation, ungefär som frön gror i jorden och växer mot himlen. Historien är, i denna alternativa bild, en serie av vertikalt växande, där det är svårt att skilja kreativiteten på djupet från imitationen på ytan.

Varför skriver jag ett inlägg om inspiration? Förutom att det är inspirerande att fundera över något så livsviktigt som inspiration, så vill jag visa hur obemärkt vi gör oss bilder av fakta. Vi ser inte att det faktiskt bara är bilder, som kunde ersättas av helt andra bilder. Detta har jag lärt mig av filosofen Ludwig Wittgenstein, som inspirerat mig att själv undersöka filosofiska frågor. Dessa frågor bygger överraskande ofta på hur vi fastnar i våra bilder av saker och ting. Låsningen vid bilderna hindrar oss från att se andra möjligheter och uppenbara fakta.

Dessutom vill jag visa att det verkligen gör skillnad om vi sitter fast i våra bilder eller öppnar oss för möjligheten av helt andra bilder. Det var länge sedan jag skrev om apspråksforskning på denna blogg, men försöket att lära apor mänskligt språk är ett exempel på vilken enorm skillnad det kan göra, om vi befriar oss från en bild som hindrar oss från att se möjligheten av andra bilder.

Försöken att lära apor mänskligt språk utgick från den första bilden, som framhäver skillnaden mellan den som inspirerar och den som inspireras. Man tänkte att eftersom apor saknar språkförmågan som vi människor har, så finns bara en möjlighet att lära apor mänskligt språk. Vi måste överföra språkförmågan horisontellt till aporna, genom att träna dem. Denna ”enda” möjlighet misslyckades så tydligt och väldokumenterat, att bara ett fåtal forskare därefter var öppna för resultaten från ett markant framgångsrikare, minst lika väldokumenterat försök, som utgick från den alternativa bilden av inspiration.

I det alternativa försöket såg forskarna en möjlighet som den första bilden gjorde det svårt att se. Om apor och människor dagligen lever tillsammans i en sammansvetsad grupp, så att de får möjlighet att känna igen sig i varandra, ana släktskap, så skulle språkfrön som vi inte visste fanns hos apor kunna inspireras att gro och växa spontant hos aporna själva. Vertikalt inom aporna, snarare än genom horisontell överföring, som när människor tränar djur. Faktum är att detta alternativa försök lyckades så väl, att det resulterade i en serie av spontant växande av språk hos apor. Allteftersom tiden gick, inspirerades nyfödda apor inte bara av människorna i gruppen, utan även av de äldre apor vars språkliga kreativitet hunnit ta form.

Vill du läsa mer om denna oväntade möjlighet av inspiration mellan arter, som antyder oanat släktskap, som när människor inspireras av varandra, hittar du en bokreferens nedan. Boken skrev jag för länge sedan med William M. Fields och Sue Savage-Rumbaugh. Båda har inspirerat mig – vilket jag är tacksam för – bland annat till detta blogginlägg, med sin alternativa bild av inspiration. Att jag återigen påminner om boken beror på att jag hoppas att tiden är mogen för filosofer, psykologer, antropologer, pedagoger, språkvetare, hjärnforskare och många andra, att inspireras av den oväntade möjligheten av människoinspirerad språklig kreativitet hos våra släktingar bland djuren.

För att avslutningsvis knyta ihop trådarna musik och språk hos apor, kan jag berätta att två stora musiker, Paul McCartney och Peter Gabriel, har besökt de språkinspirerade aporna. Bägge två spelade musik med aporna och Peter Gabriel och Panbanisha skapade även en låt tillsammans. Kan vi leva utan inspiration?

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Segerdahl, P., Fields, W. & Savage-Rumbaugh, S. 2005. Kanzi’s Primal Language. The Cultural Initiation of Primates into Language. Palgrave Macmillan

Segerdahl, P. 2009. Djuren i kulturen: Hur naturligt kan våra husdjur leva? Göteborg: Daidalos.

Wittgenstein, L. 2020. Filosofiska undersökningar, översättning av Martin Gustafsson och Lars Hertzberg. Stockholm: Thales

Detta inlägg på engelska

Vi pratar med apor

Hjärninspirerad AI: mänsklig självbespegling?

Trots att användningarna av artificiell intelligens (AI) idag närmast exploderar på flera områden, så är tekniken i vissa avseenden mer begränsad än man kan tro. Det är inte konstigt. All teknik tenderar att vara både användbar och begränsad. Men när det gäller just AI finns en tendens att se varje begränsning som en defekt. Varför?

En jämförelse smyger sig vanligen in vår bild av AI: jämförelsen med människan. Rättare sagt så är detta en jämförelse inte med oss själva, utan med vår självbild som intelligenta varelser med en generaliserad problemlösningsförmåga, som vi antar har gjort oss mer anpassningsbara och framgångsrika än andra arter på planeten. Denna självbild jämförs med en bild av AI som teknisk renodling av denna mänskliga intelligens. Därför blir vi missnöjda med tekniken när den inte löser problem lika generaliserat och självständigt som vi föreställer oss att vi människor gör. Samtidigt kan vi bli missnöjda med oss själva, och kanske lite rädda, när vi upplever att AI löser vissa problem bättre än vi.

Idag talar man om hjärninspirerad AI som ett sätt att lösa de tekniska begränsningarna hos AI. Man söker alltså teknisk inspiration i forskningen om hur den mänskliga hjärnan fungerar. I ett inlägg på The Ethics Blog idag ställer Michele Farisco filosofiska frågor om denna användning av människohjärnan som förebild för AI-tekniken. Vad talar för att detta är den bästa vägen att utveckla tekniken? Många AI-system avviker redan från hur hjärnan arbetar. Kanske har tekniken större potential om vi låter den avvika från hur den biologiska hjärnan fungerar?

Michele Farisco ställer även frågor om vår tendens att spegla oss själva i idealiserade bilder av mänsklig och artificiell intelligens. En risk med detta självbespeglande är att det tudelar allt vi möter i antingen mänskligt eller omänskligt, intelligent eller ointelligent, perfekt eller defekt. Sådana tendenser i vår historia har inte varit harmlösa.

Läs Michele Fariscos blogginlägg som ställer frågor om AI och mänsklig självbespegling: Brain-inspired AI: human narcissism again?

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Vad är hållbarhet i framtiden?

« Äldre inlägg Nyare inlägg »