En forskningsblogg från Centrum för forsknings- & bioetik (CRB)

Etikett: framtidsfrågor (Sida 1 av 11)

Dags att reglera teknik som kan optimera människors egenskaper

Kanske har du också drömt om att vara mer än du är. Snabbare, smartare, modigare, starkare, eller kanske mer attraktiv? Det är inte länge sedan det bara var i science fiction som sådant var möjligt. Nu utmanar ny teknik som kan förändra våra kroppar och hjärnor våra föreställningar om vad som är normalt och abnormalt. Och gränserna mellan att behandla, förbättra och optimera suddas sakta ut. Under hösten har till exempel SVT-serien Framtiden runt hörnet lyft frågan i ett avsnitt om att optimera sig själv

Men det är inte många forskare eller företag som utvecklar läkemedel, proteser eller implantat som själva skulle hävda att de sysslar med att optimera människor, eller det som på engelska kallas human enhancement. Men teknologierna  de utvecklar kommer ändå att kunna röra sig från en domän till en annan. Våra kroppar kan förändras både funktionellt och kosmetiskt. Det finns både forskning och (icke evidensbaserad) behandling som syftar till att få oss att leva längre. Våra hjärnor kan också optimeras på olika sätt. Våra tankar och känslor kan förändras med läkemedel och terapi. Kanske kan man också förändra vår moral, både till det bättre och sämre. 

Den här spänningen kan vi känna igen från olika debatter om mer vanliga sätt att optimera människor. Doping inom idrotten till exempel. Eller studenter som använder ADHD-medicin för att plugga inför en stor tenta. Men det finns andra exempel på teknologier som kan användas för att optimera egenskaper. Vad händer om man förändrar människors moral eller använder cybernetiska implantat inom militären? Eller om friska individer får tillgång till neuroproteser för att förbättra minnet eller någon annan kognitiv funktion, när tekniken från början var avsedd för människor som skadats av neurologiska sjukdomar.  

Det har såklart funnits diskussion om hur etiken kring sådan utveckling ska regleras. Men eftersom väldigt få av de forskare och ingenjörer som utvecklar teknik som kan användas för att optimera olika egenskaper hos människor själva skulle säga att de är i optimeringsbranschen har initiativen inte varit så framgångsrika. Men kanske är tiden inne för etiska riktlinjer? Och då väcks frågan: hur gör man det på ett område som är brett, komplext och svårt att avgränsa? Ska det vara en uppsättning fristående allmänna riktlinjer för hela fältet, eller är det så spretigt att det kräver en reglering för varje fält eller domän? 

Ett försök till att svara på frågan kommer från SIENNA-projektet (Stakeholder-Informed Ethics for New technologies with high socio-ecoNomic and human rights impAct). Det är ett EU-projekt som fått i uppgift att utveckla den här typen av etiska regler och riktlinjer för tre väldigt olika teknikområden. Dels optimering av mänskliga egenskaper, men också av genetik och genomik, samt artificiell intelligens och robotik. Det kanske inte kommer som ett överraskning att det svåraste uppdraget varit just optimering. I närmare tre år har SIENNA kartlagt fältet, analyserat de etiska implikationerna, kartlagt lagstiftningen, studerat hur forskningsetikkommitteer hanterar de etiska frågorna, och kommit med förslag på olika sätt att förbättra befintlig lagstiftning. Input har kommit från olika typer av intressenter, experter och allmänheten. Representanter från industri, akademi och myndigheter har deltagit i olika workshops och granskat förslag. Allmänhetens syn på frågorna har undersökts i fokusgrupper i fem länder och kompletterats med en enkätundersökning där 11,000 personer i 11 länder från Europa, Afrika, Asien, Nord- och Sydamerika fått svara på frågor om sina attityder till att använda olika teknologier för att optimera människors egenskaper eller prestationer. Resultatet är ett etiskt ramverk, som beskriver olika alternativ för hur det här arbetet kan översättas till praktisk etisk vägledning. 

Ramverket för optimering bygger på tre fallstudier som kan ge lite klarhet i vad som står på spel i ett väldigt spretigt fält: användandet av antidepressiva läkemedel, behandling av demens, och genetik. Fallstudierna lyfter fram olika typer frågor som sannolikt kommer att bli aktuella. Och de svårigheter som kommer med den komplexa uppgift som SIENNA nu står inför: att utveckla en etisk riktlinje för teknologier som används för att optimera mänskliga förmågor. 

Utvecklingen av många av de här teknologierna, deras applikationer och den potential för optimering de har, är fortfarande i sin linda. Så kanske är det här precis rätt läge att föreslå sätt för forskningsetikkommittéer att informera forskare om de etiska utmaningar som följer med den här potentialen att optimera människor? Och att uppmuntra forskarna att reflektera kring potentiella konsekvenser av att tekniken används för optimering i samband med att de ansöker om etikgodkännande för sin forskning.  

För den som vill vara med och påverka hur förslaget från SIENNA kommer att se ut finns möjligheten att delta i en remissrunda i mitten av januari nästa år. Mellan den 11-25 januari 2021 kommer projektets förslag för etisk reglering av teknologier som kan optimera våra egenskaper att finnas tillgängliga för kommentar. Men du kan också ge input till förslag som rör genomik, AI och robotik. Den som vill vara med rekommenderas besöka webbplatsen, www.sienna-project.eu.

Josepine Fernow

Skrivet av…

Josepine Fernow, koordinator vid Centrum för forsknings- och bioetik och kommunikationsledare i SIENNA-projektet.

SIENNA-projektets logotyp

Det här inlägget på engelska

”Samarbetsvillig”, ”trevlig” och ”pålitlig” robotkollega sökes

Robotar får alltfler funktioner på våra arbetsplatser. Logistikrobotar hämtar varorna på lagret. Militärrobotar desarmerar minorna. Skötarrobotar lyfter patienterna och kirurgiska robotar utför operationerna. Allt detta i samspel med mänsklig personal, som tycks ha fått sköna nya robotkolleger på sina arbetsplatser.

Med tanke på att somliga behandlar robotarna som bra kolleger och att bra kolleger bidrar till god arbetsmiljö, blir det rimligt att fråga: Kan en robot vara en bra kollega? Frågan undersöks av Sven Nyholm och Jilles Smids i tidskriften Science and Engineering Ethics.

Författarna behandlar frågan begreppsligt. Först föreslår de kriterier för vad en bra kollega är. Därefter frågar de om robotar kan leva upp till kraven. Frågan om en robot kan vara en bra kollega är intressant, eftersom den visar sig vara mer realistisk än vi först tror. Vi kräver nämligen inte lika mycket av en kollega som av en vän eller en livspartner, resonerar författarna. Många av kraven på bra kolleger har att göra med deras yttre beteende i specifika situationer på arbetsplatsen, snarare än med hur de tänker, känner och är som människor i livets många sammanhang. Ibland är en bra kollega bara någon som får jobbet gjort!

Vilka kriterier nämns i artikeln? Här återger jag med egna ord författarnas lista, som de framhåller inte är menad att vara fullständig. En bra kollega samarbetar för att uppnå mål. En bra kollega kan småprata och göra arbetet trevligt. En bra kollega mobbar inte utan behandlar andra respektfullt. En bra kollega stöttar efter behov. En bra kollega lär sig och utvecklas med andra. En bra kollega är alltid på plats och är pålitlig. En bra kollega anpassar sig efter hur andra mår och delar arbetsrelaterade värden. En bra kollega får gärna socialisera vänskapligt.

Författarna menar att många robotar redan idag lever upp till flera av dessa idéer om vad en bra kollega är, och att robotarna på våra arbetsplatser snart är ännu bättre kolleger. Kraven är, som sagt, lägre än vi först tror, eftersom de inte handlar så mycket om kollegans inre mänskliga liv, utan mer om pålitligt uppvisade beteenden i specifika arbetssituationer. Det är inte så svårt att tänka sig kriterierna omvandlade till specifikationer till robotutvecklarna. Ungefär som i en jobbannons, som listar beteenden som den sökande bör kunna uppvisa.

En butikschef för en mataffär i denna stad annonserade efter personal. Annonsen innehöll märkliga citationstecken, som avslöjade hur butikschefen sökte en människas fasad, snarare än det inre. Det är inte konstigt: att vara professionell är att kunna spela en roll. Butikens affärsidé var ”vi bryr oss om”. Denna idé skulle bli en positiv ”upplevelse” för kunderna i mötet med personalen. En hälsning, en nick, ett leende, ett allmänt trevligt bemötande, skulle skänka denna ”upplevelse” av att man i affären ”bryr sig om människor”. Alltså sökte man en person som, inom citationstecken, ”tycker om människor”.

Om personal kan sökas på detta sätt, varför skulle vi inte efterfråga ”samarbetsvilliga”, ”trevliga” och ”pålitliga” robotkolleger i samma anda? Jag är övertygad om att liknande krav redan förekommer som specifikationer när robotar designas för olika funktioner på våra arbetsplatser.

Livet är inte alltid djupt och innerligt, vilket robotiseringen av arbetslivet speglar. Frågan är vad som händer när ytorna blir så vanliga att vi glömmer citationstecknen omkring de mekaniska fasaderna. Alla är inte lika tydliga på den punkten som den ”människoälskande” butikschefen.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Nyholm, S., Smids, J. Can a Robot Be a Good Colleague?. Sci Eng Ethics 26, 2169–2188 (2020). https://doi.org/10.1007/s11948-019-00172-6

Detta inlägg på engelska

Vi tar upp aktuella frågor

Vi formar samhällena som formar oss: vårt ansvar för den mänskliga naturen

Visionära akademiska texter är ovanliga – texter som belyser hur forskning kan bidra till de riktigt stora mänskliga frågorna. I en artikel i filosofitidskriften Theoria öppnar Kathinka Evers upp ett djupt visionärt perspektiv på neurovetenskapen och den mänskliga naturen. Vågar ni följa med?

I årtusenden har känsliga tänkare bekymrats över människan själv. Visst skapar vi välstånd och säkerhet åt oss. Men som inga andra djur har vi även en olycklig benägenhet att skapa elände åt oss själva (och andra livsformer). 1900-talet var extremt i bägge riktningarna. Vad är mekanismen bakom det mänskliga självskadebeteendet? Kan den belysas och förändras?

Som jag läser henne, ställer Kathinka Evers väsentligen denna stora mänskliga fråga. Hon gör det utifrån dagens neurovetenskapliga syn på hjärnan, som hon menar motiverar ett nytt sätt att förstå och påverka mekanismen bakom det storskaliga mänskliga självskadebeteendet. Väsentligt i den neurovetenskapliga synen, är att människohjärnan är byggd för att aldrig bli helt färdigbyggd. Liksom vi har ett unikt självskadebeteende, föds vi med unikt ofärdiga hjärnor. Dessa hjärnor är formbara under decennier och skulle behöva lika lång omsorg. De formas inte passivt, utan genom att aktivt finna nya, mer eller mindre lyckliga sätt att fungera i samhällena som vi utsätter oss för.

Eftersom våra hjärnor påverkar våra samhällen, kan man säga att vi bygger samhällena som bygger oss själva, i ett ständigt kretslopp. Mitt i detta känsliga utbyte mellan människa och samhälle står alltså hjärnan. Med sin kreativa formbarhet gör den många deterministiska anspråk på genetiken och människans ”medfödda” natur problematiska. Varför är vi som vi är? Delvis för att vi skapar samhällena som skapar oss så som vi är. I årtusenden har vi genererat oss själva via samhällena som vi byggt, okunniga om det hyperinteraktiva organet mitt i processen. Det är alltid bakom våra ögon.

Kathinka Evers poäng är att vi idag har vi så stor kunskap om hjärnans inneboende aktivitet, dynamik och variabilitet, att vi får ett nytt ansvar för vår egen natur. Hon uttrycker tekniskt läget så här: Dagens neurovetenskapliga kunskap om hjärnan ger oss ett naturalistiskt ansvar att vara epigenetiskt proaktiva. Om vi vet att vår aktiva och variabla hjärna stödjer en kulturell evolution bortom vårt genetiska arv, så får vi ett ansvar att påverka evolutionen genom att anpassa samhället till vad vi vet om hjärnans styrkor och svagheter.

Tanken på ett neurovetenskapligt ansvar att utforma samhällen som formar den mänskliga naturen i önskvärd riktning, kan låta som en uppmaning till en ny social ingenjörskonst. Artikeln utvecklar emellertid tanken om detta ansvar inom ramen för en samvetsgrann genomgång av liknande tendenser i vår historia, tendenser som ofta kretsat kring genetiken. Det handlar inte om att stödja ideologier som redan bestämt sig för hur människan bör vara. Det handlar snarare om att låta kunskap om hjärnan inspirera till sociala förändringar, där vi annars okunnigt skulle riskera att återskapa mänskligt elände. Sådan kunskap förutsätter givetvis samarbete mellan natur-, samhälls- och humanvetenskaperna, tillsammans med fri filosofisk reflektion.

I artikeln nämns exemplet ungdomsvåld. I vissa länder finns en politisk vilja att döma ungdomsbrottslingar som om de vore vuxna och även placera dem i vuxenfängelser. Idag vet vi att hjärnan under puberteten är i en utvecklingskris, där viktiga neurala kretsar förändras dramatiskt. Krisande ungdomshjärnor behöver särskild hänsyn. Men här riskerar de att placeras i precis sådana miljöer som vi kan räkna med genererar mer mänskligt elände.

Kunskap om hjärnan kan alltså motivera sociala förändringar som minskar det mänskliga självskadebeteende som bekymrat tänkare i årtusenden. Neurovetenskaplig självkännedom ger oss en nyckel till mekanismen bakom beteendet och ett ansvar att använda den.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Kathinka Evers. 2020. The Culture‐Bound Brain: Epigenetic Proaction Revisited. Theoria. doi:10.1111/theo.12264

Detta inlägg på engelska

I dialog med filosofer

Mer om ansvarsfull forskning och innovation

För några veckor sedan skrev jag ett inlägg om ansvarsfull forskning och innovation (RRI, Responsible Research and Innovation). Vill du läsa mer om RRI, rekommenderas dagens engelska inlägg på The Ethics Blog: Science and society: a changing framework and the role of RRI.

Inlägget är skrivet av gästbloggaren Daniele Mezzana, samhällsforskare i projektet STARBIOS2.

Jag passar på att påminna om att projektet nyss publicerat en bok om RRI, samt anordnar sin slutkonferens via Zoom fredagen den 29 maj 2020.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

I dialog med samhällsvetare

Inspiration till ansvarsfull forskning och innovation

Vår inställning till vetenskapen förändras. Frågan är om vi längre kan tala högstämt om den i bestämd form singularis, eller ens om vetenskaper. Det tycks idag mer träffande att tala om forskningsaktiviteter som producerar nyttiga och tillämpbara kunskaper.

Vetenskapen har detroniserats, tycks det. Förr vördades den som fritt och självständigt sanningssökande. Vi bugade som inför en högre sanningsinstans. I dag kräver vi att den levererar nyttigheter och anpassar sig till samhället. Förändringen är motsägelsefull eftersom vi samtidigt vill kunna åberopa vetenskaplig expertis som högre auktoritetskälla. Ska vi böja oss för experterna eller korrigera dem om de inte levererar ”rätt kunskaper” eller ”önskvärda fakta”?

Ett sätt att aktivt hantera den riskabla förändringen är ansvarsfull forskning och innovation, RRI (Responsible Research and Innovation). Långsiktigt försöker man anpassa vetenskapen till nya samhälleliga krav. Som du hör av namnet är RRI delvis ett uttryck för samma attitydförändring. Man kunde tala om ansvarsfull detronisering av vetenskapen.

Somliga sörjer detroniseringen, andra gläds. Här vill jag bara förknippa RRI med den ändrade inställningen till vetenskap. RRI kan uppfattas som ett försök att ansvarsfullt genomdriva förändringen, som man i grunden bejakar. Den tvetydiga inställningen till vetenskaplig expertis, som nämndes ovan, visar hur viktigt det är att vi tar ansvar för människors förtroende för vad som numera alltså kallas forskning och innovation. För varför bör vi lyssna till företrädare för en sektor med så föga aktningsvärd benämning?

RRI har införts i europeisk forskning inom Horisont 2020. Flera projekt handlar specifikt om att implementera och studera RRI. Viktiga aspekter av RRI är genus och jämställdhet; publicering med öppen tillgänglighet; vetenskapsundervisning och forskningskommunikation; allmänhetens delaktighet; samt etik. Det handlar om att anpassa forskning och innovation till ett samhälle med nya krav och förhoppningar på vad som förr stolt benämndes vetenskapen.

En nyutkommen bok redovisar erfarenheter av implementering av RRI i ett antal biovetenskapliga organisationer runtom i världen. Boken är skriven inom projektet STARBIOS2, som med partners i Europa, Afrika, Syd- och Nordamerika planerat och genomfört RRI-satsningar och reflekterat över arbetsprocessen. Syftet i STARBIOS2 har varit att förändra organisationerna långsiktigt och strukturellt. Med boken vill man hjälpa läsare att själva formulera handlingsplaner och initiera strukturförändringar på de egna arbetsplatserna.

Boken beskrivs något missvisande som riktlinjer (”guidelines”). Några formulerade riktlinjer hittar du inte. Däremot hittar du något som kanske är mer hjälpsamt, nämligen självreflekterande exempel på hur man i praktiken arbetat med RRI-handlingsplaner. Du hittar konkreta förslag på hur man lyfter ansvar i forskning och utveckling. Du kan således läsa om sätt att stödja jämställdhet, utbyte med allmänhet och samhälle, öppen publicering, samt etik och forskningskommunikation. Läs och inspireras!

Avslutningsvis kan jag nämna att Etikbloggen, liksom etikverksamheten på CRB, kan betraktas som exempel på RRI. Jag hoppas återkomma längre fram med ett inlägg om forskningskommunikation.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Declich, Andrea. 2019. RRI implementation in bioscience organisations: Guidelines from the STARBIOS2 project.

Detta inlägg på engelska

Vad är hållbarhet i framtiden?

Maning till försiktighet med vaccin mot covid-19

Läkemedelsföretag vill snabbtillverka vaccin mot covid-19, med tester på människor och lansering på marknaden så snart som möjligt. I en debattartikel varnar Jessica Nihlén Fahlquist vid CRB för risken att vi förlorar det större riskperspektivet: ”Tester på människor och en potentiellt för tidig massvaccination medför risker. Det är lätt att få tunnelseende och glömma tidigare liknande situationer,” skriver hon.

Bieffekter visar sig ibland först efter längre tid. Därför tar det tyvärr tid att utveckla säkra vaccin. Vi behöver utveckla vaccin, men även med nya vaccin behövs försiktighet.

Läs artikeln på Svenska Dagbladets debattsida: Gå försiktigt fram med vaccin mot covid-19

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Vi deltar i debatten

Vad är en moralisk maskin?

Jag läste nyss en på många sätt klargörande artikel om så kallade moraliska robotar. Filosofen John-Stewart Gordon varnar för fallgropar som icke-etiker (robotforskare och AI-programmerare) kan ramla ned i när de försöker konstruera moraliska maskiner. Helt enkelt för att de saknar etisk expertis.

Den första fallgropen är de rena nybörjarmisstagen. Man kanske naivt identifierar etik med vissa berömda bioetiska principer, som om etik inte kunde vara något annat än så kallad principlism. Eller så tror man att datorsystem genom automatiserad analys av enskilda fall kan ”lära sig” etiska principer och ”bli moraliska”. Som om moral kunde upptäckas erfarenhetsmässigt eller empiriskt.

Den andra utmaningen har att göra med att etikexperterna själva är oeniga om den ”rätta” moralteorin. Det finns flera konkurrerande etiska teorier (konsekvensetik, pliktetik, dygdeetik med mera). Vilken moralisk rättningsmall ska programmerarna använda när datorer ska fås att lösa moraliska problem och dilemman som uppkommer i olika verksamheter? (Tänk på robotbilar i svåra trafiksituationer.)

Den första fallgropen kan åtgärdas med mer kunskap i etik. Hur hanterar vi den andra? Ska programmerare få välja moralteori fritt som det passar dem? Ska vi tillåta såväl konsekvensetiska som pliktetiska robotbilar på våra gator?

John-Stewart Gordons förslag är att så kallad maskinetik bör fokusera på överensstämmelser mellan olika moralteorier angående vad man inte får göra. Robotar bör förses med en bindande lista på sådant som måste undvikas som omoraliskt. Med den inskränkningen får robotarna sedan spelrum att använda och balansera mångfalden av moralteorier, för att på olika sätt lösa moraliska problem.

Sammanfattningsvis bör robotforskare och AI-programmerare konsultera etikexperterna, så att de undviker nybörjarmisstagen och förstår de metodologiska problem som uppkommer när inte ens experterna på området kan enas om den rätta moralteorin.

Allt detta förefaller både klokt och klargörande på ett plan. Samtidigt känner jag mig uppriktigt förvirrad kring själva idén om ”moraliska maskiner” (även om artikeln inte diskuterar idén, utan fokuserar på etiska utmaningar för ingenjörerna). Vad betyder idén? Inte så att jag betvivlar att artificiell intelligens kan designas enligt etiska krav. Vi kanske inte vill att robotbilar ska undvika kollisioner i stadstrafik genom att svänga in på trottoarer där många människor promenerar. I den meningen kan det finnas etisk programvara, ungefär som det finns etiska aktiefonder. Vi kunde tala om moraliska och omoraliska robotbilar, lika självklart som vi talar om etiska och oetiska fonder.

Ändå känner jag mig som sagt osäker. Varför? Jag inledde med att skriva ”så kallade” moraliska robotar. Det gjorde jag för att jag inte är bekväm med att tala om moraliska maskiner, men är öppen för förslag på vad det kan betyda. Jag tror att vad som förvirrar mig är att moraliska maskiner omnämns utan distanserande uttryck, som om alla egentligen borde veta vad det måste betyda. Etikexperter är oense om den ”rätta” moralteorin. Men de tycks eniga om att moralteori bestämmer vad ett moraliskt beslut är, ungefär som språkläran bestämmer vad en grammatisk mening är. Med den tilltron till moralteori behöver man inte fundera över vad en moralisk maskin är. Det är helt enkelt en maskin som fattar beslut enligt accepterad moralteori. Men fattar maskiner beslut i samma mening som människor gör det?

Kanske handlar det om betoning. Vi talar om etiska fonder utan att känna yrsel inför att en aktiefond kan vara etisk (”Kan de vara humoristiska också?”). Det finns ingen mytologisk betoning i talet om etiska fonder. På samma sätt kan vi tala om etiska robotbilar utan att känna yrsel som inför något övernaturligt. Men i den filosofiska diskussionen om maskinetik omnämns ibland moraliska maskiner på ett mytologiskt sätt, tycks det mig. Som om en kentaur, en maskin-människa, snart ser dagens ljus. Samtidigt ska vi inte känna yrsel inför dessa sköna nya kentaurer, eftersom experterna kan bokstavera exakt vad de talar om. Med alla rättningsmallar i händerna behöver de inga distanserande uttryck!

Jag misstänker att även etisk expertis kan vara en filosofisk fallgrop när vi intellektuellt närmar oss så kallade moraliska maskiner. Expertattityden kan tysta de förvirrande frågor som vi alla behöver tid att reda ut, när uppriktiga tvivel gör uppror mot anspråket att veta.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Gordon, J. Building Moral Robots: Ethical Pitfalls and Challenges. Sci Eng Ethics 26, 141–157 (2020). https://doi.org/10.1007/s11948-019-00084-5

Detta inlägg på engelska

Vi ställer frågor

Artificiell intelligens och det levande medvetandet

Etikbloggen kommer med flera inlägg om artificiell intelligens framöver. Idag vill jag bara göra en liten iakttagelse av någonting märkvärdigt.

Förra århundradet präglades av rädsla för människans medvetande. Vårt psyke föreföll lika mystiskt som själen, lika överflödigt i en vetenskaplig tidsålder som Gud. I psykologin frodades behaviorismen, som definierade psykologiska ord i termer av kroppsliga beteenden, som kunde studeras vetenskapligt i laboratoriet. Det levande medvetandet behandlades som en relik från en svunnen vidskeplig tid.

Vad är då så märkvärdigt med artificiell intelligens? Plötsligt tycks man avguda medvetandet. Man vältrar sig i psykologiska ord, åtminstone när man talar om vad datorer och robotar kan göra. Dessa maskiner ser och hör, de tänker och talar. De till och med lär sig själva.

Betyder detta att rädslan för medvetandet upphört? Knappast, för när man inom artificiell intelligens använder psykologiska ord såsom se och höra, tänka och förstå, så är orden inte psykologiska längre. Att datorer ”lär sig” är ett tekniskt begrepp som datorexperterna definierar i sina laboratorier.

När företrädare för artificiell intelligens vältrar psykologiska ord över robotar, så upprepar de alltså hur behavioristerna definierade människans psyke i termer av någonting annat. De psykologiska orden får nya maskinella betydelser, som överskuggar ordens betydelser hos levande människor.

Tänk på det, nästa gång du undrar om robotarna kan bli medvetna i framtiden. Utvecklingen bygger på rädslan för medvetandet. Vad du undrar är alltså inte om robotar kan bli medvetna. Du undrar om ditt eget medvetande kan vara vidskepelse. Märkvärdigt, eller hur?

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Detta inlägg på engelska

Vi diskuterar aktuella frågor

Etiska frågor när genetisk redigering närmar sig människan

Pär SegerdahlGenteknik som redan används för att utveckla genetiskt modifierade organismer (GMO), skulle i framtiden kunna användas även kliniskt på människor. En sådan tillämpning vore genetisk modifiering av mänskliga embryon, där man redigerar gener som annars skulle orsaka sjukdom.

Givetvis väcker tanken på kliniska användningar av genmodifiering på människor både oro och debatt. Förutom frågor om säkerhet och effektivitet för människorna som direkt skulle beröras av behandlingarna, väcks stora frågor om mänsklighetens öde. När modifieringarna görs på könsceller eller på embryon, så förs ändringarna vidare till framtida generationer.

Något som ofta förbises i debatten, är etiska frågor om forskningen som skulle föregå sådana kliniska tillämpningar. För att utveckla gentekniker som är effektiva och säkra för människor, fordras ju forskning. Man måste bland annat testa teknikerna på mänskliga embryon. Men eftersom genetisk redigering görs bäst vid befruktningsögonblicket (görs den på embryot modifieras inte alltid alla celler), fordras antagligen ett stort antal donerade könsceller, där äggen befruktas i laboratoriet för att skapa genmodifierade embryon.

Emilia Niemiec och Heidi Carmen Howard, båda vid CRB, riktar uppmärksamheten mot dessa i tiden mer närliggande etiska utmaningar. De påpekar att redan forskningen, som föregår eventuella kliniska tillämpningar, måste beaktas och debatteras noga. Den väcker sina egna etiska frågor.

I en insändare till tidskriften Nature framhåller de det stora antal donerade ägg som forskningen antagligen skulle behöva. Äggdonation innebär påfrestningar och risker för kvinnor. Den ekonomiska kompensering de erbjuds kan dessutom fungera som otillbörlig lockelse för ekonomiskt utsatta kvinnor.

Emilia Niemiec och Heidi Carmen Howard skriver i inlägget att kvinnor som tar ställning till äggdonation bör få tillfälle att ordentligt sätta sig in i de etiska frågorna, så att de kan göra ett informerat beslut och delta i debatter om genetisk redigering. Jag tror att de har en bra poäng när de påminner om etiska frågor som väcks redan av det forskningsarbete som föregår eventuella kliniska tillämpningar.

En fråga som jag själv undrar över, är under vilka former vi kan samtala om djupt oroande framtidsscenarier. Hur skiljer vi mellan bild och verklighet, när oron startar en hel kärnreaktion av skrämmande bilder, som tycks besannade av ångesten de triggar? Hur kyler vi ner denna psykologiska reaktivitet utan att släcka det kritiska sinnet?

Kort sagt, hur tänker och samtalar vi klokt om angelägna framtidsfrågor?

Pär Segerdahl

Niemiec, E. and Carmen Howard, H. 2019. Include egg donors in CRISPR gene-editing debate. Nature 575: 51

Detta inlägg på engelska

Frågar efter den samtida etiken - Etikbloggen

Brett och djupt samtycke till biobanker

Pär SegerdahlEn ny artikel om samtycke för biobanker lyckas överraska mig. Hur? Genom att påpeka vad som borde vara uppenbart. Om vi vill bedöma vilket slags samtycke som fungerar bäst för biobanker, så bör vi utgå från biobanker och inte snegla bakåt mot traditionell medicinsk forskning.

Riskerna i traditionell medicinsk forskning är inte minst fysiska. Forskningsdeltagaren kan skadas av substanserna som prövas eller av ingreppen som görs. Deltagaren måste därför informeras om dessa fysiska risker, som är unika för det specifika projektet. Studiespecifikt informerat samtycke är därmed väsentligt i traditionell medicinsk forskning.

I biobanksforskning däremot är riskerna framförallt informationsrisker. Personliga data kan hamna i fel händer. Här är riskerna inte så mycket knutna till de specifika projekt som använder material från biobanken. Riskerna är snarare knutna till biobanken, till hur den är uppbyggd, leds och kontrolleras. Vill vi ge biobanksdeltagare etiskt skydd genom informerat samtycke, är det snarast information om biobanken de behöver, inte om specifika projekt.

I debatten om samtycke för biobanker har studiespecifikt samtycke fungerat som krav på vad informerat samtycke ska vara. Men i biobankssammanhang riskerar det kravet att ställa ett irrelevant krav. Deltagarna får fel skydd! Vad göra?

I stället för att snegla bakåt, som om studiespecifikt samtycke vore en evig norm för medicinsk forskning, formulerar författarna tre krav som är relevanta för dagens biobanker. För det första bör potentiella deltagare informeras om relevant risk och nytta. För det andra bör de få möjlighet att bedöma om forskningen på biobanksmaterialet är i linje med egna värderingar. Slutligen bör de ges etiskt skydd så länge de deltar, samt god möjlighet att regelbundet ompröva sitt deltagande.

I jämförelsen mellan de samtyckesformer som figurerat i debatten, kommer författarna fram till att brett samtycke särskilt väl uppfyller det första kriteriet. Eftersom risken inte är fysisk utan handlar om persondata som biobanken sparar, är information till deltagarna om själva biobanken relevantare än information om de specifika projekt som ansöker om biobankens tjänster. Det är vad brett samtycke levererar.

Däremot menar författarna att de två senare kriterierna inte uppfylls av brett samtycke. När potentiella deltagare inte informeras om specifika projekt blir det svårt att bedöma om sparat material används enligt deltagarnas värderingar. Och när tiden går (biobanksmaterial kan sparas i årtionden), kan deltagare rentav glömma att de gett prover och data till biobanken. Det underminerar värdet av rätten att dra tillbaka sitt samtycke.

Återigen, vad göra? Författarna föreslår en fördjupad form av brett samtycke, som ska tillfredsställa samtliga tre krav. För det första bör informationen till deltagarna innehålla en tydlig ram kring vilket slags forskning som får använda materialet, så att deltagarna kan bedöma om den är förenlig med egna värderingar, och så att framtida etikprövning kan bedöma om specifika projekt faller inom ramen. För det andra bör deltagarna regelbundet informeras om biobankens verksamhet, samt påminnas om att de fortfarande deltar och fortfarande kan dra tillbaka samtycket.

Etiska resonemang är svåra att sammanfatta. Vill du själv bedöma författarnas slutsats att brett och djupt samtycke är bäst när det handlar om biobanker, måste jag hänvisa till artikeln.

I det här inlägget ville jag främst framhålla originaliteten i författarnas sätt att diskutera samtycke: de formulerar nya relevanta kriterier, för att befria oss från gamla vanor. Det uppenbara är ofta det djupast överraskande.

Pär Segerdahl

Rasmus Bjerregaard Mikkelsen, Mickey Gjerris, Gunhild Waldemar & Peter Sandøe. Broad consent for biobanks is best – provided it is also deep. BMC Medical Ethics volume 20, Article number: 71 (2019)

Detta inlägg på engelska

Kommer med lästips - Etikbloggen

« Äldre inlägg