Internationell hjärnforskning behöver kulturell medvetenhet

12 november, 2018

Pär SegerdahlIdag satsas miljardbelopp på att bygga upp enorma forskningssamarbeten om den mänskliga hjärnan. Australien, Kanada, Japan, Korea och USA har egna hjärnprojekt. Här i Europa har vi Human Brain Project, med en total budget på omkring en miljard euro under en tioårsperiod, 2013-2023.

Vetenskaplig forskning ses ofta som en verksamhet som står över kulturella skillnader. Men forskning om hjärnan berör så grundläggande sidor av den mänskliga existensen, att den inte kan bortse från skillnaderna. Exempelvis är föreställningen att hjärnan, som separat organ, skulle vara sätet för mänsklig identitet, för själslivet eller jaget, inte allmänt omfattad. Hjärnforskning berör djupt liggande kulturella idéer om mänskligt liv, vilket kräver ödmjuk filosofisk och etisk uppmärksamhet.

De internationella hjärninitiativen berör även andra kulturellt känsliga frågor, jämte frågor om mänsklig identitet. Uppfattningar om död och hjärndöd, om användning av apor i forskning, om personlig integritet och autonomi, om psykisk sjukdom, skiljer sig mellan kulturer. Exempelvis kan en sjukdomsdiagnos som i en kultur ses som väg till individuell behandling, i en annan kultur ses som risk att hela familjen döms till utanförskap.

Neuroetiker från länder som nu storsatsar på hjärnforskning möttes i Korea för att enas om etiska frågor som de internationella hjärnforskningsinitiativen bör beakta. Detta för att forskningen ska bedrivas ansvarsfullt, med medvetenhet om relevanta kulturella skillnader. Frågorna som neuroetikerna (däribland Arleen Salles) menar att hjärnforskningsprojekten bör beakta, sammanställs i en artikel i tidskriften Neuron.

Författarna nämner frågor om hur hjärnforskning kan orsaka stigma hos individer eller grupper, liksom frågor om hur kulturella föreställningar kan styra forskning och tolkning av resultat. De undrar hur hjärnvävnad får samlas in och sparas, samt hur vi etiskt bör betrakta robotar och datorsimulerade hjärnor. De nämner frågor om hur nya sätt att påverka hjärnan (elektriskt eller med substanser) kan påverka synen på ansvar och autonomi, samt frågor om hur vi bör dra gränsen mellan legitim och illegitim användning av tekniker från hjärnforskningen. Slutligen uppmärksammas frågor om rättvis tillgång till resultaten av forskningen.

Hur kan frågorna i praktiken diskuteras i de internationella hjärnforskningsinitiativen? Författarna förslår mer undervisning i neuroetik, dialog med forskare i humaniora och samhällsvetenskap, samt bättre forskningskommunikation och interaktion med allmänheten.

Inom det europeiska Human Brain Project går fyra procent av budgeten till etik och samhälle. Liknande satsningar på etisk reflektion vore önskvärda även i övriga hjärnforskningsinitiativ.

Pär Segerdahl

Global Neuroethics Summit Delegates. 2018. Neuroethics questions to guide ethical research in the international brain initiatives. Neuron 100, October 10, 2018.  https://doi.org/10.1016/j.neuron.2018.09.021

Detta inlägg på engelska

Vi vill ha dialog : www.etikbloggen.crb.uu.se


Filosofi i ansvarsfull forskning och innovation

22 augusti, 2018

Pär SegerdahlDet ärevördiga ämnet filosofi är knappast något som vi förknippar med banbrytande forskning och teknikutveckling. Kanske är det dags att vi ändrar på det.

Till att börja med kan vi släppa idén att filosofi är ett ärevördigt ämne. I stället kan vi tala om den filosofiska andan. Den som tänker själv (som filosofer gör) finner sig nämligen sällan tillrätta i avgränsade ämnen eller fält. Inte ens om de kallas filosofiska. Tvärtom, stöter en sådan människa på gränser som disciplinerar tanken, så undersöker hon gränserna. Och spränger dem, om så behövs.

Glöm den klassiska bildningens vördnadsfulla sätt att presentera filosofiämnet.

Filosofins anda är att undvika disciplinering, underkastelse, tradition och uppfostran. Den filosof som lydigt agerar som representant för en filosofisk skola, är knappast äkta. Filosof är den som i en anda av absolut oberoende ifrågasätter allt som utger sig för att vara sant och riktigt. Därför har det sagts att man inte kan lära sig filosofi, bara att filosofera. Så snart en filosofi utkristalliserar sig, väcks den filosofiska andan till liv och undersöker gränserna för vad som oftast visar sig vara en modefluga, som osjälvständiga intellekt anammar för att de inte vågar tänka själva. Inga tankesystem begränsar en fritt undersökande tänkare. Framförallt inte filosofin på modet.

Vad har denna filosofiska anda att göra med forskning och teknikutveckling? Kopplingen ser annorlunda ut än du nog först gissar. För det handlar inte om att accelerera utvecklingen genom att spränga alla gränser för den, utan om att ta ansvar för utvecklingen. Filosofiskt tänkande liknar nämligen inte ett överhettat forskningsområdes snabba idéflöde, eller en entreprenörs grandiosa framtidsvisioner. Tvärtom, en filosof vill lugnt och stilla undersöka det snabba idéflödet och de stora visionerna. Filosofins frihet är i grund och botten ett ansvar.

Ansvarsfull forskning och innovation (”Responsible Research and Innovation”) har blivit ett viktigt politiskt tema för Europeiska kommissionen. Man föreställer sig detta ansvarstagande som en interaktiv process, som engagerar sociala aktörer, forskare, och uppfinnare. Tillsammans ska de arbeta mot etiskt riktiga forskningsaktiviteter och produkter. Detta förutsätter att man även diskuterar bakomliggande samhällsvisioner, normer och prioriteringar.

Men för att detta ska fungera kan inte separata aktörer ensidigt driva egna agendor. Man måste kunna lugna ner sig själv, göra sig oberoende av sina fragmentariska särintressen. Man måste göra sig oberoende av sig själv! Lära sig att reflektera friare än man disciplinerats göra. Se större sammanhang än det egna lilla fältet. Denna filosofiska anda måste väckas till liv; den tankens frihet som i grunden är ett ansvar.

Konkreta exempel på detta ges i tidskriften Neuroethics. I en artikel beskriver Arleen Salles, Kathinka Evers och Michele Farisco den roll som filosofisk reflektion spelar i det europeiska flaggskeppsprojektet Human Brain Project. Här är filosofi och neuroetik inga bihang till den neurovetenskapliga forskningen. Tvärtom, genom att reflektera över neurovetenskapligt centrala begrepp, bidrar filosoferna i projektet till den övergripande självförståelsen i projektet. Inte genom att införa filosofi som särintresse, som konkurrerande ämne med egna begrepp, utan genom att öppet reflektera över de neurovetenskapliga begreppen och språkbruken. Förutsättningslöst klargöra frågorna som begreppen väcker.

Författarna beskriver tre områden där filosofin bidrar i Human Brain Projekt, just genom att väcka filosofins anda till liv. För det första, begreppsliga frågor kring kopplingar mellan hjärna och mänsklig identitet. För det andra, begreppsliga frågor kring kopplingar mellan hjärna och medvetande, samt mellan medvetenhet och omedvetenhet. För det tredje, begreppsliga frågor om kopplingar mellan neurovetenskaplig forskning och politiska satsningar, såsom fattigdomsbekämpning.

Låt oss släppa bilden av filosofin som ämne. För vi behöver filosofins anda.

Pär Segerdahl

Salles, A., Evers, K. & Farisco, M. Neuroethics (2018). https://doi.org/10.1007/s12152-018-9372-9

(Förresten, alla kan filosofera. Om du har andan, så är du filosof. En krävande utbildning i filosofi som separat ämne kan faktiskt vara ett hinder som du måste komma över.)

Detta inlägg på engelska

Vad är hållbarhet i framtiden? - Etikbloggen


Förarlös trafiketik

20 juni, 2018

Pär SegerdahlRobotbilar styrs av datorprogram med stora mängder trafikregler. Men i trafiken sker inte allt friktionsfritt enligt reglerna. Plötsligt springer ett barn ut i vägen. Två personer försöker hjälpa en cyklist som kollapsat på vägen. En bilist försöker göra en U-sväng på en alltför smal väg och blir stående på tvären.

Förutsatt att robotbilarnas program lyckas kategorisera trafiksituationerna via bildinformation från bilens kameror, så måste programmen välja lämpliga körbeteenden för robotbilarna. Ska bilarna bryta mot viktiga trafikregler genom att exempelvis styra in på trottoaren?

Det är mer komplicerat än så. Anta att en vuxen person promenerar på trottoaren. Bör den vuxnes liv äventyras för att rädda barnet? Eller för att rädda cyklisten och de två hjälpsamma?

Konstruktörerna av självkörande bilar har en svår uppgift. De måste programmera bilarnas val av körbeteende i etiskt komplexa situationer som vi kallar oväntade, men som konstruktörerna måste förutse långt i förväg. De måste så att säga redan i fabriken bestämma hur bilmodellen ska bete sig i framtida ”helt oväntade” trafiksituationer. Kanske tio år senare. (Jag förutsätter att programvaran inte uppdaterats; men även uppdaterad mjukvara innebär att man förutser vad vi normalt ser som oväntat.)

På ett samhälleligt plan försöker man nu enas kring etiska regler för hur framtida robotbilar bör bete sig i tragiska trafiksituationer där det kanske inte går att helt undvika skador eller dödsfall. En kommission initierad av tyska transportministeriet föreslår exempelvis att robotbilarnas passagerares liv aldrig får offras för att rädda livet på ett större antal personer i trafiksituationen.

Vem skulle för övrigt köpa en robotbil som är programmerad att offra ens liv? Vem skulle ta en sådan robottaxi? Samtidigt är vi kanske som förare beredda att offra oss, när vi faktiskt konfronteras med oväntade trafiksituationer. Några forskare bestämde sig för att undersöka saken. Du kan läsa om studien i ScienceDaily, eller läsa forskningsartikeln i Frontiers in Behavioral Neuroscience.

Forskarna använde VR-teknik (Virtual Reality) för att utsätta försökspersoner för etiskt svåra trafiksituationer. Sedan studerade man försökspersonernas val av trafikbeteende. Forskarna fann att försökspersonerna var överraskande villiga att offra sig själva för att rädda andra. Men de tog även hänsyn till potentiella trafikoffers ålder samt var beredda att styra in på trottoaren för att minimera antalet trafikoffer. Detta strider mot normer som vi håller viktiga i samhället, som att åldersdiskriminering inte får förekomma och att oskyldigas liv bör skyddas.

Folk är kort sagt benägna att köra bil på ett politiskt inkorrekt sätt!

Varför gjordes studien? Såvitt jag förstår för att de trafiketiska regler som nu föreslås centralt inte tar hänsyn till empiriska data om hur levande förare är benägna att köra sina bilar i etiskt svåra trafiksituationer. Robotbilarna kommer att fatta etiska beslut som kan göra ägarna av bilarna missnöjda med sina bilar; moraliskt missnöjda!

Forskarna förespråkar dock inte att förarlösa bilar bör reagera på etiskt komplexa trafiksituationer så som levande människor gör det. Men diskussionen om förarlös trafiketik bör ta hänsyn även till data om hur levande människor är benägna att köra sina bilar i trafiksituationer där det kanske inte går att undvika olyckor.

Låt mig komplettera empirin med några filosofiska funderingar. Något som slår mig när jag läser om förarlös trafiketik, är nämligen detta att ”det oväntade” försvinner som realitet. En levande förare som försöker hantera en plötslig trafiksituation hanterar något som mycket påtagligt händer just nu. Robotbilen fattar däremot beslut som tickar fram lika förutbestämt som varje annat beslut; som att stanna vid rött ljus. Trafiketiken är bara ytterligare programvara som robotbilen utrustats med på fabrik (eller vid uppdatering av programvaran).

Vad får det för konsekvenser?

En levande förare som plötsligt hamnar i en svår trafiksituation konfronteras (som sagt) med något som sker just nu. Föraren får bära ansvaret för sitt agerande i detta intensiva ögonblick under resten av sitt liv. Även om en medtrafikant rationellt offras för att rädda livet på tio, så kommer föraren att bära bördan av detta dödsfall, drömma om det, fundera över det. Och om föraren fattar ett dumt beslut som skadar fler än det räddar, så kan det ändå vara möjligt att med tiden försonas med det, just för att situationen var så oväntad.

Detta gäller däremot inte för robotbilen, som programmerats på fabrik enligt riktlinjer från trafikmyndigheterna. Vi skulle kanske vilja säga att robotbilen var förprogrammerad att offra vår systers liv, där hon helt oskyldigt kom gående på trottoaren. Hade bilen styrts av en levande människa, så hade vi blivit arga på föraren. Men efter en tid hade vi möjligen kunnat börja försona oss med förarens beteende. Det var ju en oväntad situation! Och föraren lider själv av sitt agerande!

Men om det var en robotbil som betedde sig perfekt enligt tillverkarens program och myndigheternas rekommendationer, då kanske vi skulle ha sett det som en skandal att bilen var förprogrammerad att styra in på trottoaren, där vår syster oskyldigt kom gående.

Ett skäl som anförs för förarlösa bilar är att de, genom att minimera den mänskliga faktorn, kan minska antalet trafikolyckor. Det är möjligt att de kan. Men kanske har vi, just för att den mänskliga faktorn minimeras, mindre överseende med hur de programmerats att rädda liv i etiskt svåra situationer. Inte nog med att de är förprogrammerade. De bär inte heller det ansvar som levande människor tvingas bära. Även för rationella beslut.

Nåväl, vi kommer säkert att finna oss tillrätta med de förarlösa bilarna. Men en annan fråga bekymrar mig ännu. Om det levande nuet försvinner som realitet i de förarlösa bilarnas etikmjukvara, har det inte redan försvunnit i den etik som föreskriver moraliskt rätt och fel för oss levande?

Pär Segerdahl

Detta inlägg på engelska

Vi tar upp aktuella frågor : www.etikbloggen.crb.uu.se


Rovdjurstidskrifter och etisk utbildning

5 juni, 2018

Idag ger jag tre lästips. Först två artiklar i tidningen Curie, fint skrivna av Sara Nilsson, om fenomenet rovdjurstidskrifter:

De ger en klar överblick av företeelsen och kan vara upplysande inte bara för etablerade forskare och doktorander, utan för alla och envar. Detta händer nu! (Observera länkarna vidare till engelska översättningar av artiklarna.)

I båda artiklarna intervjuas Stefan Eriksson vid CRB, som inte bara forskar om rovdjurstidskrifter utan dessutom menar att vi bör sluta använda begreppet. Han föreslår att vi i stället talar om bedrägliga respektive lågkvalitativa tidskrifter. De är problematiska på olika sätt.

Kan man genom etisk utbildning dana forskare som inte faller för frestelsen att publicera sig i bedrägliga tidskrifter? Om inte, varför lyckas det inte? Kan neurovetenskapen kasta ljus över det? Mitt tredje lästips idag är ett inlägg på The Ethics Blog:

Där berättar Daniel Pallarés Domínguez om sitt postdoktorala projekt vid CRB. Han kommer att kritiskt undersöka ambitioner att förena neurovetenskapen med strävan att genom utbildning göra människor mer moraliska.

Pär Segerdahl

Kommer med lästips - Etikbloggen


Kan en robot lära sig tala?

29 maj, 2018

Pär SegerdahlDet finns självmodifierande datorprogram som ”lär sig” av framgång och misslyckande. Schackspelande datorer kan exempelvis bli bättre av att spela mot människor.

Skulle en liknande robot kunna lära sig tala? Om roboten får samma input som ett barn får, så borde det väl i princip vara möjligt?

Lägg märke till hur frågan växlar fram och tillbaka mellan människa och maskin. Vi säger att roboten lär sig. Vi säger att barnet får input. Vi talar roboten som om den vore ett barn. Vi talar om barnet som om det vore en robot. Sedan tar vi detta språkliga sicksackande på allvar som en fascinerande fråga, kanske till och med en stor forskningsuppgift.

En AI-expert och blivande far som drömde om forskningsuppgiften vidtog följande ambitiösa åtgärd. Han utrustade hela huset med kameror och mikrofoner. Syfte? Han ville veta exakt vilken typ av språklig input barnet får när det lär sig tala. I ett senare skede skulle han kunna ge en självmodifierande robot samma slags input och testa om den också lär sig tala.

Hur utföll projektet? Den personliga erfarenheten av barnet fick AI-experten att ifrågasätta hela projektet att lära en robot tala. Hur kunde en personlig erfarenhet leda till att ett till synes seriöst vetenskapligt projekt ifrågasattes?

Här kunde jag börja jollra om hur varmt sociala barn är jämfört med iskalla maskiner. Hur de lär sig i intima relationer till föräldrarna. Hur de nyfiket och med upptäckarglädje tar initiativet, i stället för att beräknande invänta input.

Problemet är att sådant joller från min sida får det att låta som om AI-experten enbart hade fel om robotar och barn. Att han saknade faktakoll, men nu vet bättre. Så enkelt är det inte. Idén om projektet förutsatte nämligen ett omedvetet språkligt sicksackande. Redan i frågan suddas gränserna mellan robotar och barn ut. Redan i frågan har man till hälften besvarat den!

Vi kan alltså inte nöja oss med att besvara frågan i rubriken med ett Nej. Vi måste tillbakavisa frågan som nonsens. Det är frågans bedrägliga sicksackande som får den att låta trovärdig; som något att utforska.

Att språkteknologiska lösningar alltmer använder självmodifierande program är däremot troligt. Men det är en annan fråga.

Pär Segerdahl

Beard, Alex. How babies learn – and why robots can’t compete. The Guardian, 3 April 2018

Detta inlägg på engelska

Vi är kritiska : www.etikbloggen.crb.uu.se


Läs denna intervju med Kathinka Evers!

26 april, 2018

Genom filosofisk analys och begreppsutveckling bidrar Uppsala universitet starkt till den stora europeiska satsningen, Human Brain Project. Det handlar om nya sätt att tänka om hjärnan och medvetandet, som tar oss bortom motsättningar mellan medvetet och omedvetet; mellan medvetande och materia.

Vill du veta mer? Läs den fascinerande intervjun med Kathinka Evers: A continuum of consciousness: The Intrinsic Consciousness Theory

Kathinka Evers vid CRB i Uppsala leder arbetet kring neuroetik och neurofilosofi i Human Brain Project.

Pär Segerdahl

Kommer med lästips - Etikbloggen


Förbered er på robottrams

26 februari, 2018

Pär SegerdahlI takt med att datorer och robotar tar över uppgifter som hittills bara kunnat utföras av människor, som att köra bil, kommer vi antagligen att utsättas för alltfler försåtliga språkliga glidningar från teknikens prästerskap.

Idén om intelligenta datorer, om medvetna robotar, är av någon anledning ohyggligt fascinerande. Vi ser oss själva som intelligenta och medvetna varelser. Tänk om robotar också kan vara intelligenta och medvetna! Faktum är att vi redan har sett dem (nästan): på bioduken. Snart ser vi dem kanske i verkligheten också (på riktigt)!

Tänk om artefakter som vi betraktat som dött mekaniska en vacker dag får livets karaktär! Tänk om vi skapar intelligent liv! Har vi tillräckligt många utropstecken för ett sådant mirakel?

Idén om intelligent liv i superdatorer kommer ofta tillsammans med idén att det finns ett test som kan avgöra om en superdator är intelligent. Det är lite som om jag ville göra idén om evighetsmaskiner trovärdig genom att tala om ett evighetsmaskin-test, uppfunnet av en supersmart matematiker på 1600-talet. Frågan om något är en evighetsmaskin är i princip avgörbar och alltså värd att beakta! Snart driver de kanske våra intelligenta, robotstyrda bilar!

Det finns en välkänd idé om ett intelligenstest för datorer, uppfunnet av den brittiske matematikern Alan Turing. Testet antas kunna avgöra om en maskin ”har vad vi har”: intelligens. Hur funkar testet? I princip handlar det om huruvida du kan skilja en dator från en människa – eller inte kan göra det.

Men det är väl ingen konst att skilja en dator från en människa? Nej, visst! Jag glömde säga att det finns dimridåer i testet, så att du varken ser, hör, känner, smakar eller luktar något! I princip skickar du in nedskrivna frågor i dimman. Ur dimman kommer nedskrivna svar. Men vem skrev/genererade svaren? Människa eller dator? Om du inte kan skilja de datorgenererade svaren från mänskliga svar – ja, då är det säkrast att du hukar, för då lurar en intelligent superdator i dimman!

Testet är alltså anpassat till datorn, som inte kan ha ett intelligent ansiktsuttryck eller se perplex ut, och som inte kan stöna ”Åh neej, vilken dum fråga!” Testet är anpassat till ett ingenjörsbegrepp om intelligent hantering av skrivna symbolsekvenser. Att den stackars testpersonen är en människa som inte alltid är säker på ”vem” som ”genererat” det skrivna svaret, döljer allt detta.

Dessa språkliga glidningar syns ovanligt tydligt i en artikel jag stött på via en ganska smart sökmotor. Artikeln frågar om maskiner kan vara medvetna. Och den svarar: Ja, och ett nytt Turing-test kan bevisa det.

Artikeln börjar med att hänryckas av medvetandet som ”vårt obeskrivliga och gåtfulla inre liv”. Medvetandet exemplifieras sedan med virveln av sensationer som väcks inom oss när vi äntligen återser vår käresta, hör ett underbart violinsolo, eller avnjuter en makalös måltid.

Efter denna extatiska hyllning av medvetandet, börjar anpassningarna av begreppet, så att det till slut bara är ett begrepp om maskinell informationshantering. Författarna ”visar” att medvetande inte förutsätter något samspel med omgivningen. Det förutsätter inte heller minnen. Medvetande förutsätter vidare inga känslor som ilska, rädsla eller glädje. Det förutsätter varken uppmärksamhet, självreflektion, språk eller förmåga att agera i världen.

Vad blir då kvar av medvetandet, som det nyss lät så läckert att ha? Svaret i artikeln är att medvetande har att göra med ”mängden integrerad information som en organism, eller en maskin, kan generera”.

Begreppet anpassas alltså gradvis till vad som skulle bevisas. Det blir slutligen något som föga överraskande kan karaktärisera en datamaskin. Efter att vi svalt denna anpassning, är det meningen att vi i slutet av artikeln återigen ska häpna och känna hänryckning över att en maskin kan ha ”detta gåtfulla inre liv” som vi har, medvetande: ”Åh, vilket utsökt violinsolo, för att inte tala om sniglarna, åh så ljuvligt att återses så här!”

Det nya Turing-test som författarna föreställer sig är såvitt jag förstår ett slags bildidentifierings-test: Kan en dator identifiera innehållet i en bild som ”ett rån mot ett affärsbiträde”? En medveten dator ska kunna identifiera bildinnehåll lika bra som en människa. Jag gissar att tanken är att uppgiften kräver supermycket integrerad information. Inga enkla tumregler av typen man + pistol + byggnad + rädd kund = rån. Det måste handla om så himla mycket integrerad information att datorn verkligen alldeles själv fattar att det är ett rån (och inte en femåring som leker med en leksakspistol).

Tron på testet förutsätter alltså att vi svalt anpassningarna av begreppet medvetande och börjat hänryckas av superstora mängder integrerad information som: ”Vårt obeskrivliga och gåtfulla inre liv”.

Den här typen av försåtliga språkliga glidningar kommer att attrahera oss ännu mer i takt med att robottekniken utvecklas. Tänk dig en android med mimik och röst som kan uttrycka intelligens och som kan stöna inför dumma frågor. Då har vi väl en intelligent och medveten maskin!

Eller bara en bedrägligare dimridå, en vandrande interaktiv superbioduk?

Pär Segerdahl

Detta inlägg på engelska

Vi söker klarhet - www.etikbloggen.crb.uu.se


%d bloggare gillar detta: