Internationell hjärnforskning behöver kulturell medvetenhet

12 november, 2018

Pär SegerdahlIdag satsas miljardbelopp på att bygga upp enorma forskningssamarbeten om den mänskliga hjärnan. Australien, Kanada, Japan, Korea och USA har egna hjärnprojekt. Här i Europa har vi Human Brain Project, med en total budget på omkring en miljard euro under en tioårsperiod, 2013-2023.

Vetenskaplig forskning ses ofta som en verksamhet som står över kulturella skillnader. Men forskning om hjärnan berör så grundläggande sidor av den mänskliga existensen, att den inte kan bortse från skillnaderna. Exempelvis är föreställningen att hjärnan, som separat organ, skulle vara sätet för mänsklig identitet, för själslivet eller jaget, inte allmänt omfattad. Hjärnforskning berör djupt liggande kulturella idéer om mänskligt liv, vilket kräver ödmjuk filosofisk och etisk uppmärksamhet.

De internationella hjärninitiativen berör även andra kulturellt känsliga frågor, jämte frågor om mänsklig identitet. Uppfattningar om död och hjärndöd, om användning av apor i forskning, om personlig integritet och autonomi, om psykisk sjukdom, skiljer sig mellan kulturer. Exempelvis kan en sjukdomsdiagnos som i en kultur ses som väg till individuell behandling, i en annan kultur ses som risk att hela familjen döms till utanförskap.

Neuroetiker från länder som nu storsatsar på hjärnforskning möttes i Korea för att enas om etiska frågor som de internationella hjärnforskningsinitiativen bör beakta. Detta för att forskningen ska bedrivas ansvarsfullt, med medvetenhet om relevanta kulturella skillnader. Frågorna som neuroetikerna (däribland Arleen Salles) menar att hjärnforskningsprojekten bör beakta, sammanställs i en artikel i tidskriften Neuron.

Författarna nämner frågor om hur hjärnforskning kan orsaka stigma hos individer eller grupper, liksom frågor om hur kulturella föreställningar kan styra forskning och tolkning av resultat. De undrar hur hjärnvävnad får samlas in och sparas, samt hur vi etiskt bör betrakta robotar och datorsimulerade hjärnor. De nämner frågor om hur nya sätt att påverka hjärnan (elektriskt eller med substanser) kan påverka synen på ansvar och autonomi, samt frågor om hur vi bör dra gränsen mellan legitim och illegitim användning av tekniker från hjärnforskningen. Slutligen uppmärksammas frågor om rättvis tillgång till resultaten av forskningen.

Hur kan frågorna i praktiken diskuteras i de internationella hjärnforskningsinitiativen? Författarna förslår mer undervisning i neuroetik, dialog med forskare i humaniora och samhällsvetenskap, samt bättre forskningskommunikation och interaktion med allmänheten.

Inom det europeiska Human Brain Project går fyra procent av budgeten till etik och samhälle. Liknande satsningar på etisk reflektion vore önskvärda även i övriga hjärnforskningsinitiativ.

Pär Segerdahl

Global Neuroethics Summit Delegates. 2018. Neuroethics questions to guide ethical research in the international brain initiatives. Neuron 100, October 10, 2018.  https://doi.org/10.1016/j.neuron.2018.09.021

Detta inlägg på engelska

Vi vill ha dialog : www.etikbloggen.crb.uu.se


Stödja vårdpersonal att lita på sig själv

3 oktober, 2018

Pär SegerdahlAnta att du vill lära dig ett språk, men kursen är överlastad av grammatisk terminologi. På lektionerna hör du knappast orden i språket du vill lära dig tala. De drunknar i alla grammatiska termer. Det är som om du hamnat på en kurs i allmän språkteori, snarare än i tyska.

Något liknande kan vårdpersonal ibland uppleva, när de konfronteras med vårdetik som undervisningsämne. Som vuxna människor har de redan förmågan att avkänna när allt är som det ska. Eller när något är på tok: När uppmärksamheten måste skärpas och åtgärder vidtas. (Vi gör det alla dagligen.) Men de kan behöva stöd att vidareutveckla denna mänskliga förmåga, för att hantera de särskilda situationer som utmanar i vården.

Tyvärr förmedlas inte alltid vårdetik som utveckling av förmågor vi redan har. I stället framställs etik som ett nytt ämne. Att vara etisk framställs som att ha kunskaper i detta särskilda ämne. Etik tycks handla om att resonera i termer av särskilda etiska begrepp och principer. Det är som om du hamnat på en kurs i allmän moralteori, snarare än i vårdetik. Och eftersom de flesta av oss inte vet ett skvatt om moralteori, tycks vi plötsligt etiskt okunniga. Självförtroendet sjunker.

Men lika lite som du behöver språkteori för att tala ett språk, behöver du moralteori för att fungera etiskt. Snarare är det tvärtom. Det är för att vi redan talar och fungerar etiskt, som det kan finnas intellektuella verksamheter som grammatik och moralteori. Kan vårdetik undervisas utan denna teoretiska bakvändhet?

En ny (gratis nedladdningsbar) bok diskuterar frågan: Rethinking Health Care Ethics. Boken är en kritik av hur vårdetik ofta framställs som särskilt ämne. En kritik som leder över i förslag på alternativ pedagogik. Boken bör vara högintressant för lärare i vårdetik, för etiker, och för alla som upplever att bilden av etik gör oss främmande för oss själva.

Vad som inte minst gör intryck på mig i denna bok är tilliten till människan. Grundvalen för etiken finns hos oss själva, inte i moralteorin. En vuxen människa har redan etiken i sig, utan att den verbaliseras som särskilda etiska begrepp och principer.

Visst behöver vårdpersonal särskild undervisning i vårdetik. Men det särskilda i undervisningen är de etiska utmaningarna i vården. Etiken själv är redan på plats, i form av högst levande människor, på väg in i vårdyrket.

Etiken behöver alltså inte införas som nytt ämne. Den behöver bara stöd att växa inom människor själva, för att bli mogen utmaningarna i vårdyrket.

Denna tillit till människan är ovanlig. Kontrollsystemen vill ständigt ta över oss.

Pär Segerdahl

Scher, S. & Kozlowska, K. 2018. Rethinking Health Care Ethics. Palgrave

Detta inlägg på engelska

Kommer med lästips - Etikbloggen


Genetisk risk: Ska forskare berätta?

24 september, 2018

Ska genetikforskare informera forskningsdeltagare om de upptäcker genetiska sjukdomsrisker hos dem? Ja, skulle många säga, om informationen är till nytta för deltagarna. Men hur vet vi om komplex genetisk information är relevant för enskilda människor? Enligt Jennifer Viberg Johansson behöver både etiker och genetiker förhålla sig till att nyttan inte är garanterad.

I samband med stora genetiska studier erbjuder forskare ofta en stor hälsokontroll för att samla in data. De som deltar får veta vilket blodtryck de har, hur deras lungfunktion ser ut och resultaten från olika blodprov. I framtiden kan möjligheten att få information om genetisk risk vara något som lockar forskningsdeltagare. Jennifer Viberg Johansson undersöker vad forskare behöver tänka på innan de lämnar ut sådana resultat.

Genetisk riskinformation gör kanske inte så stor nytta för enskilda individer som man kan tro. Att känna till vilken genuppsättning du har är inte samma sak som att veta hur sannolikt det är att du ska utveckla en viss sjukdom. Dessutom är den typ av genetisk information som du får när du deltar i forskning inte anpassad efter vad du har för symptom eller vad du oroar dig för. Görs däremot ett genetiskt test på sjukhus, är det ofta för att bekräfta misstankar om att du har, eller är i riskzonen för att utveckla en genetisk sjukdom.

Genetisk riskinformation är komplex och kan vara svår att förstå. Forskningsdeltagarna som Jennifer Viberg Johansson intervjuat, ser information om genetisk risk som något som kan förklara vilka de är, och varifrån de kommer. Men också som något som påverkar deras framtid. Att ta del av informationen är för dem en möjlighet att planera livet, och förebygga sjukdom.

Om forskningsdeltagare egentligen vill ha information om genetisk sjukdomsrisk är svårare att ta reda på. Deras svar kan ändras beroende på hur frågan ställs. Riskforskning visar att vi tolkar sannolikhet på olika sätt beroende på hur resultat och konsekvenser presenteras. Jennifer Viberg Johanssons forskning visar samma mönster: När det finns sätt att förebygga sjukdom är sannolikheten att bli sjuk inte en viktig del i vårt beslutsfattande.

Vi har svårt att förstå genetisk risk när den presenteras i siffror. Det är svårt för oss att bedöma vad det betyder att ha 10 procent eller 50 procent risk för sjukdom. Istället har vi en tendens att förstå genetisk risk som ett binärt begrepp: antingen har du risk, eller så har du det inte. Jennifer Viberg Johansson föreslår att genetisk rådgivning bör ta hänsyn till den uppfattningen, och anpassas till mottagarens ofta binära tolkning av genetisk risk.

Det är svårt att kommunicera risk. Det kräver att den som arbetar med genetisk rådgivning uppmärksammar att olika människor tolkar samma siffror på olika sätt.

Jennifer Viberg Johansson försvarade sin avhandling den 21 september 2018.

Anna Holm

Viberg Johansson J., (2018), INDIVIDUAL GENETIC RESEARCH RESULTS – Uncertainties, Conceptions, and Preferences, Uppsala: Acta Universitatis Upsaliensis

Detta inlägg på engelska

Vi söker klarhet - www.etikbloggen.crb.uu.se


Filosofi i ansvarsfull forskning och innovation

22 augusti, 2018

Pär SegerdahlDet ärevördiga ämnet filosofi är knappast något som vi förknippar med banbrytande forskning och teknikutveckling. Kanske är det dags att vi ändrar på det.

Till att börja med kan vi släppa idén att filosofi är ett ärevördigt ämne. I stället kan vi tala om den filosofiska andan. Den som tänker själv (som filosofer gör) finner sig nämligen sällan tillrätta i avgränsade ämnen eller fält. Inte ens om de kallas filosofiska. Tvärtom, stöter en sådan människa på gränser som disciplinerar tanken, så undersöker hon gränserna. Och spränger dem, om så behövs.

Glöm den klassiska bildningens vördnadsfulla sätt att presentera filosofiämnet.

Filosofins anda är att undvika disciplinering, underkastelse, tradition och uppfostran. Den filosof som lydigt agerar som representant för en filosofisk skola, är knappast äkta. Filosof är den som i en anda av absolut oberoende ifrågasätter allt som utger sig för att vara sant och riktigt. Därför har det sagts att man inte kan lära sig filosofi, bara att filosofera. Så snart en filosofi utkristalliserar sig, väcks den filosofiska andan till liv och undersöker gränserna för vad som oftast visar sig vara en modefluga, som osjälvständiga intellekt anammar för att de inte vågar tänka själva. Inga tankesystem begränsar en fritt undersökande tänkare. Framförallt inte filosofin på modet.

Vad har denna filosofiska anda att göra med forskning och teknikutveckling? Kopplingen ser annorlunda ut än du nog först gissar. För det handlar inte om att accelerera utvecklingen genom att spränga alla gränser för den, utan om att ta ansvar för utvecklingen. Filosofiskt tänkande liknar nämligen inte ett överhettat forskningsområdes snabba idéflöde, eller en entreprenörs grandiosa framtidsvisioner. Tvärtom, en filosof vill lugnt och stilla undersöka det snabba idéflödet och de stora visionerna. Filosofins frihet är i grund och botten ett ansvar.

Ansvarsfull forskning och innovation (”Responsible Research and Innovation”) har blivit ett viktigt politiskt tema för Europeiska kommissionen. Man föreställer sig detta ansvarstagande som en interaktiv process, som engagerar sociala aktörer, forskare, och uppfinnare. Tillsammans ska de arbeta mot etiskt riktiga forskningsaktiviteter och produkter. Detta förutsätter att man även diskuterar bakomliggande samhällsvisioner, normer och prioriteringar.

Men för att detta ska fungera kan inte separata aktörer ensidigt driva egna agendor. Man måste kunna lugna ner sig själv, göra sig oberoende av sina fragmentariska särintressen. Man måste göra sig oberoende av sig själv! Lära sig att reflektera friare än man disciplinerats göra. Se större sammanhang än det egna lilla fältet. Denna filosofiska anda måste väckas till liv; den tankens frihet som i grunden är ett ansvar.

Konkreta exempel på detta ges i tidskriften Neuroethics. I en artikel beskriver Arleen Salles, Kathinka Evers och Michele Farisco den roll som filosofisk reflektion spelar i det europeiska flaggskeppsprojektet Human Brain Project. Här är filosofi och neuroetik inga bihang till den neurovetenskapliga forskningen. Tvärtom, genom att reflektera över neurovetenskapligt centrala begrepp, bidrar filosoferna i projektet till den övergripande självförståelsen i projektet. Inte genom att införa filosofi som särintresse, som konkurrerande ämne med egna begrepp, utan genom att öppet reflektera över de neurovetenskapliga begreppen och språkbruken. Förutsättningslöst klargöra frågorna som begreppen väcker.

Författarna beskriver tre områden där filosofin bidrar i Human Brain Projekt, just genom att väcka filosofins anda till liv. För det första, begreppsliga frågor kring kopplingar mellan hjärna och mänsklig identitet. För det andra, begreppsliga frågor kring kopplingar mellan hjärna och medvetande, samt mellan medvetenhet och omedvetenhet. För det tredje, begreppsliga frågor om kopplingar mellan neurovetenskaplig forskning och politiska satsningar, såsom fattigdomsbekämpning.

Låt oss släppa bilden av filosofin som ämne. För vi behöver filosofins anda.

Pär Segerdahl

Salles, A., Evers, K. & Farisco, M. Neuroethics (2018). https://doi.org/10.1007/s12152-018-9372-9

(Förresten, alla kan filosofera. Om du har andan, så är du filosof. En krävande utbildning i filosofi som separat ämne kan faktiskt vara ett hinder som du måste komma över.)

Detta inlägg på engelska

Vad är hållbarhet i framtiden? - Etikbloggen


Intellektuell asketism

7 augusti, 2018

Pär SegerdahlVi avfärdar magikerns anspråk på att stå i kontakt med andevärlden. Vi avfärdar prästens anspråk på att stå i kontakt med det gudomliga. Vi tror inte på övernaturlig kontakt med en renare värld bortom denna!

Ändå förekommer liknande anspråk i vår upplysta förnuftstradition. Även filosofer utlovade kontakt med en renare sfär. Skillnaden är att de beskrev den rena sfären i intellektuella termer. De utlovade kontroll av ”begrepp”, ”kategorier”, ”principer” och så vidare. De levde, i likhet med munkar och magiker, som asketer. De sökte makt över livet självt, men de gjorde det via intellektuell självdisciplin.

Om du vill fundera över asketism som ett drag i vår förnuftstradition, så kanske du vill ta en titt på en artikel jag skrivit: Intellectual asceticism and hatred of the human, the animal, and the material.

I artikeln försöker jag visa att filosofins ofta påtalade människocentrering är ett bländverk. Filosoferna idealiserade aldrig människan. De idealiserade något mycket exklusivare. De idealiserade det asketiskt renodlade intellektet.

Pär Segerdahl

Segerdahl, P. 2018. Intellectual asceticism and hatred of the human, the animal, and the material. Nordic Wittgenstein Review 7 (1): 43-58. DOI 10.15845/nwr.v7i1.3494

Detta inlägg på engelska

Kommer med lästips - Etikbloggen


Förarlös trafiketik

20 juni, 2018

Pär SegerdahlRobotbilar styrs av datorprogram med stora mängder trafikregler. Men i trafiken sker inte allt friktionsfritt enligt reglerna. Plötsligt springer ett barn ut i vägen. Två personer försöker hjälpa en cyklist som kollapsat på vägen. En bilist försöker göra en U-sväng på en alltför smal väg och blir stående på tvären.

Förutsatt att robotbilarnas program lyckas kategorisera trafiksituationerna via bildinformation från bilens kameror, så måste programmen välja lämpliga körbeteenden för robotbilarna. Ska bilarna bryta mot viktiga trafikregler genom att exempelvis styra in på trottoaren?

Det är mer komplicerat än så. Anta att en vuxen person promenerar på trottoaren. Bör den vuxnes liv äventyras för att rädda barnet? Eller för att rädda cyklisten och de två hjälpsamma?

Konstruktörerna av självkörande bilar har en svår uppgift. De måste programmera bilarnas val av körbeteende i etiskt komplexa situationer som vi kallar oväntade, men som konstruktörerna måste förutse långt i förväg. De måste så att säga redan i fabriken bestämma hur bilmodellen ska bete sig i framtida ”helt oväntade” trafiksituationer. Kanske tio år senare. (Jag förutsätter att programvaran inte uppdaterats; men även uppdaterad mjukvara innebär att man förutser vad vi normalt ser som oväntat.)

På ett samhälleligt plan försöker man nu enas kring etiska regler för hur framtida robotbilar bör bete sig i tragiska trafiksituationer där det kanske inte går att helt undvika skador eller dödsfall. En kommission initierad av tyska transportministeriet föreslår exempelvis att robotbilarnas passagerares liv aldrig får offras för att rädda livet på ett större antal personer i trafiksituationen.

Vem skulle för övrigt köpa en robotbil som är programmerad att offra ens liv? Vem skulle ta en sådan robottaxi? Samtidigt är vi kanske som förare beredda att offra oss, när vi faktiskt konfronteras med oväntade trafiksituationer. Några forskare bestämde sig för att undersöka saken. Du kan läsa om studien i ScienceDaily, eller läsa forskningsartikeln i Frontiers in Behavioral Neuroscience.

Forskarna använde VR-teknik (Virtual Reality) för att utsätta försökspersoner för etiskt svåra trafiksituationer. Sedan studerade man försökspersonernas val av trafikbeteende. Forskarna fann att försökspersonerna var överraskande villiga att offra sig själva för att rädda andra. Men de tog även hänsyn till potentiella trafikoffers ålder samt var beredda att styra in på trottoaren för att minimera antalet trafikoffer. Detta strider mot normer som vi håller viktiga i samhället, som att åldersdiskriminering inte får förekomma och att oskyldigas liv bör skyddas.

Folk är kort sagt benägna att köra bil på ett politiskt inkorrekt sätt!

Varför gjordes studien? Såvitt jag förstår för att de trafiketiska regler som nu föreslås centralt inte tar hänsyn till empiriska data om hur levande förare är benägna att köra sina bilar i etiskt svåra trafiksituationer. Robotbilarna kommer att fatta etiska beslut som kan göra ägarna av bilarna missnöjda med sina bilar; moraliskt missnöjda!

Forskarna förespråkar dock inte att förarlösa bilar bör reagera på etiskt komplexa trafiksituationer så som levande människor gör det. Men diskussionen om förarlös trafiketik bör ta hänsyn även till data om hur levande människor är benägna att köra sina bilar i trafiksituationer där det kanske inte går att undvika olyckor.

Låt mig komplettera empirin med några filosofiska funderingar. Något som slår mig när jag läser om förarlös trafiketik, är nämligen detta att ”det oväntade” försvinner som realitet. En levande förare som försöker hantera en plötslig trafiksituation hanterar något som mycket påtagligt händer just nu. Robotbilen fattar däremot beslut som tickar fram lika förutbestämt som varje annat beslut; som att stanna vid rött ljus. Trafiketiken är bara ytterligare programvara som robotbilen utrustats med på fabrik (eller vid uppdatering av programvaran).

Vad får det för konsekvenser?

En levande förare som plötsligt hamnar i en svår trafiksituation konfronteras (som sagt) med något som sker just nu. Föraren får bära ansvaret för sitt agerande i detta intensiva ögonblick under resten av sitt liv. Även om en medtrafikant rationellt offras för att rädda livet på tio, så kommer föraren att bära bördan av detta dödsfall, drömma om det, fundera över det. Och om föraren fattar ett dumt beslut som skadar fler än det räddar, så kan det ändå vara möjligt att med tiden försonas med det, just för att situationen var så oväntad.

Detta gäller däremot inte för robotbilen, som programmerats på fabrik enligt riktlinjer från trafikmyndigheterna. Vi skulle kanske vilja säga att robotbilen var förprogrammerad att offra vår systers liv, där hon helt oskyldigt kom gående på trottoaren. Hade bilen styrts av en levande människa, så hade vi blivit arga på föraren. Men efter en tid hade vi möjligen kunnat börja försona oss med förarens beteende. Det var ju en oväntad situation! Och föraren lider själv av sitt agerande!

Men om det var en robotbil som betedde sig perfekt enligt tillverkarens program och myndigheternas rekommendationer, då kanske vi skulle ha sett det som en skandal att bilen var förprogrammerad att styra in på trottoaren, där vår syster oskyldigt kom gående.

Ett skäl som anförs för förarlösa bilar är att de, genom att minimera den mänskliga faktorn, kan minska antalet trafikolyckor. Det är möjligt att de kan. Men kanske har vi, just för att den mänskliga faktorn minimeras, mindre överseende med hur de programmerats att rädda liv i etiskt svåra situationer. Inte nog med att de är förprogrammerade. De bär inte heller det ansvar som levande människor tvingas bära. Även för rationella beslut.

Nåväl, vi kommer säkert att finna oss tillrätta med de förarlösa bilarna. Men en annan fråga bekymrar mig ännu. Om det levande nuet försvinner som realitet i de förarlösa bilarnas etikmjukvara, har det inte redan försvunnit i den etik som föreskriver moraliskt rätt och fel för oss levande?

Pär Segerdahl

Detta inlägg på engelska

Vi tar upp aktuella frågor : www.etikbloggen.crb.uu.se


Kan en robot lära sig tala?

29 maj, 2018

Pär SegerdahlDet finns självmodifierande datorprogram som ”lär sig” av framgång och misslyckande. Schackspelande datorer kan exempelvis bli bättre av att spela mot människor.

Skulle en liknande robot kunna lära sig tala? Om roboten får samma input som ett barn får, så borde det väl i princip vara möjligt?

Lägg märke till hur frågan växlar fram och tillbaka mellan människa och maskin. Vi säger att roboten lär sig. Vi säger att barnet får input. Vi talar roboten som om den vore ett barn. Vi talar om barnet som om det vore en robot. Sedan tar vi detta språkliga sicksackande på allvar som en fascinerande fråga, kanske till och med en stor forskningsuppgift.

En AI-expert och blivande far som drömde om forskningsuppgiften vidtog följande ambitiösa åtgärd. Han utrustade hela huset med kameror och mikrofoner. Syfte? Han ville veta exakt vilken typ av språklig input barnet får när det lär sig tala. I ett senare skede skulle han kunna ge en självmodifierande robot samma slags input och testa om den också lär sig tala.

Hur utföll projektet? Den personliga erfarenheten av barnet fick AI-experten att ifrågasätta hela projektet att lära en robot tala. Hur kunde en personlig erfarenhet leda till att ett till synes seriöst vetenskapligt projekt ifrågasattes?

Här kunde jag börja jollra om hur varmt sociala barn är jämfört med iskalla maskiner. Hur de lär sig i intima relationer till föräldrarna. Hur de nyfiket och med upptäckarglädje tar initiativet, i stället för att beräknande invänta input.

Problemet är att sådant joller från min sida får det att låta som om AI-experten enbart hade fel om robotar och barn. Att han saknade faktakoll, men nu vet bättre. Så enkelt är det inte. Idén om projektet förutsatte nämligen ett omedvetet språkligt sicksackande. Redan i frågan suddas gränserna mellan robotar och barn ut. Redan i frågan har man till hälften besvarat den!

Vi kan alltså inte nöja oss med att besvara frågan i rubriken med ett Nej. Vi måste tillbakavisa frågan som nonsens. Det är frågans bedrägliga sicksackande som får den att låta trovärdig; som något att utforska.

Att språkteknologiska lösningar alltmer använder självmodifierande program är däremot troligt. Men det är en annan fråga.

Pär Segerdahl

Beard, Alex. How babies learn – and why robots can’t compete. The Guardian, 3 April 2018

Detta inlägg på engelska

Vi är kritiska : www.etikbloggen.crb.uu.se


%d bloggare gillar detta: