En forskningsblogg från Centrum för forsknings- & bioetik (CRB)

Etikett: bioetik (Sida 1 av 9)

Dags att reglera teknik som kan optimera människors egenskaper

Kanske har du också drömt om att vara mer än du är. Snabbare, smartare, modigare, starkare, eller kanske mer attraktiv? Det är inte länge sedan det bara var i science fiction som sådant var möjligt. Nu utmanar ny teknik som kan förändra våra kroppar och hjärnor våra föreställningar om vad som är normalt och abnormalt. Och gränserna mellan att behandla, förbättra och optimera suddas sakta ut. Under hösten har till exempel SVT-serien Framtiden runt hörnet lyft frågan i ett avsnitt om att optimera sig själv

Men det är inte många forskare eller företag som utvecklar läkemedel, proteser eller implantat som själva skulle hävda att de sysslar med att optimera människor, eller det som på engelska kallas human enhancement. Men teknologierna  de utvecklar kommer ändå att kunna röra sig från en domän till en annan. Våra kroppar kan förändras både funktionellt och kosmetiskt. Det finns både forskning och (icke evidensbaserad) behandling som syftar till att få oss att leva längre. Våra hjärnor kan också optimeras på olika sätt. Våra tankar och känslor kan förändras med läkemedel och terapi. Kanske kan man också förändra vår moral, både till det bättre och sämre. 

Den här spänningen kan vi känna igen från olika debatter om mer vanliga sätt att optimera människor. Doping inom idrotten till exempel. Eller studenter som använder ADHD-medicin för att plugga inför en stor tenta. Men det finns andra exempel på teknologier som kan användas för att optimera egenskaper. Vad händer om man förändrar människors moral eller använder cybernetiska implantat inom militären? Eller om friska individer får tillgång till neuroproteser för att förbättra minnet eller någon annan kognitiv funktion, när tekniken från början var avsedd för människor som skadats av neurologiska sjukdomar.  

Det har såklart funnits diskussion om hur etiken kring sådan utveckling ska regleras. Men eftersom väldigt få av de forskare och ingenjörer som utvecklar teknik som kan användas för att optimera olika egenskaper hos människor själva skulle säga att de är i optimeringsbranschen har initiativen inte varit så framgångsrika. Men kanske är tiden inne för etiska riktlinjer? Och då väcks frågan: hur gör man det på ett område som är brett, komplext och svårt att avgränsa? Ska det vara en uppsättning fristående allmänna riktlinjer för hela fältet, eller är det så spretigt att det kräver en reglering för varje fält eller domän? 

Ett försök till att svara på frågan kommer från SIENNA-projektet (Stakeholder-Informed Ethics for New technologies with high socio-ecoNomic and human rights impAct). Det är ett EU-projekt som fått i uppgift att utveckla den här typen av etiska regler och riktlinjer för tre väldigt olika teknikområden. Dels optimering av mänskliga egenskaper, men också av genetik och genomik, samt artificiell intelligens och robotik. Det kanske inte kommer som ett överraskning att det svåraste uppdraget varit just optimering. I närmare tre år har SIENNA kartlagt fältet, analyserat de etiska implikationerna, kartlagt lagstiftningen, studerat hur forskningsetikkommitteer hanterar de etiska frågorna, och kommit med förslag på olika sätt att förbättra befintlig lagstiftning. Input har kommit från olika typer av intressenter, experter och allmänheten. Representanter från industri, akademi och myndigheter har deltagit i olika workshops och granskat förslag. Allmänhetens syn på frågorna har undersökts i fokusgrupper i fem länder och kompletterats med en enkätundersökning där 11,000 personer i 11 länder från Europa, Afrika, Asien, Nord- och Sydamerika fått svara på frågor om sina attityder till att använda olika teknologier för att optimera människors egenskaper eller prestationer. Resultatet är ett etiskt ramverk, som beskriver olika alternativ för hur det här arbetet kan översättas till praktisk etisk vägledning. 

Ramverket för optimering bygger på tre fallstudier som kan ge lite klarhet i vad som står på spel i ett väldigt spretigt fält: användandet av antidepressiva läkemedel, behandling av demens, och genetik. Fallstudierna lyfter fram olika typer frågor som sannolikt kommer att bli aktuella. Och de svårigheter som kommer med den komplexa uppgift som SIENNA nu står inför: att utveckla en etisk riktlinje för teknologier som används för att optimera mänskliga förmågor. 

Utvecklingen av många av de här teknologierna, deras applikationer och den potential för optimering de har, är fortfarande i sin linda. Så kanske är det här precis rätt läge att föreslå sätt för forskningsetikkommittéer att informera forskare om de etiska utmaningar som följer med den här potentialen att optimera människor? Och att uppmuntra forskarna att reflektera kring potentiella konsekvenser av att tekniken används för optimering i samband med att de ansöker om etikgodkännande för sin forskning.  

För den som vill vara med och påverka hur förslaget från SIENNA kommer att se ut finns möjligheten att delta i en remissrunda i mitten av januari nästa år. Mellan den 11-25 januari 2021 kommer projektets förslag för etisk reglering av teknologier som kan optimera våra egenskaper att finnas tillgängliga för kommentar. Men du kan också ge input till förslag som rör genomik, AI och robotik. Den som vill vara med rekommenderas besöka webbplatsen, www.sienna-project.eu.

Josepine Fernow

Skrivet av…

Josepine Fernow, koordinator vid Centrum för forsknings- och bioetik och kommunikationsledare i SIENNA-projektet.

SIENNA-projektets logotyp

Det här inlägget på engelska

Att publicera bioetik 2020 – var och var inte?

Stefan Eriksson och Gert Helgesson uppdaterar varje år en lista över tveksamma tidskrifter, ofta kallade ”predatory journals”, som kan locka bioetikforskare att publicera sig i dem.

Listan för 2020 finns nu tillgänglig på The Ethics Blog: Where to publish and not to publish in bioethics – the 2020 list.

Tanken är att listan ska fungera som en utgångspunkt när forskare i bioetik överväger lämplig tidskrift att publicera sitt arbete i.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Vi tycker om etik

Ansvarsfullt planerad forskningskommunikation

Akademisk forskning drivs av hur resultat sprids till kolleger via konferenser och publikationer i vetenskapliga tidskrifter. Men forskningsresultat tillhör inte bara forskarsamhället. De tillhör hela samhället. Därför bör resultaten nå inte bara specialisterna i fältet eller i angränsande fält. De bör även nå utanför akademin.

Vilka finns därute? En homogen allmänhet? Nej, så enkelt är det inte. Kommunikation av forskning handlar inte om att forskarna först kommunicerar resultat inomvetenskapligt till varandra och sedan populärvetenskapligt till ”allmänheten”. Utanför akademin finns ingenjörer, företagare, politiker, myndighetsföreträdare, lärare, skolelever, forskningsfinansiärer, skattebetalare, sjukvårdspersonal… Utanför akademin finns vi alla, med våra olika erfarenheter, uppgifter och förmågor.

Forskningskommunikation är därför en strategiskt mer komplicerad uppgift än bara den att ”nå allmänheten”. Varför vill du kommunicera din forskning, vad gör den viktig? Vem kan finna din forskning viktig, vem vill du nå? Hur vill du kommunicera? När vill du kommunicera? Här finns inte bara en uppgift, utan många. Du måste tänka igenom din uppgift i varje enskilt fall. För uppgiften varierar med svaren på dessa frågor. Först när du kan tänka en smula strategiskt om uppgiften, kan du kommunicera forskning ansvarsfullt.

Josepine Fernow är en skicklig och erfaren forskningskommunikatör vid CRB. Hon arbetar med kommunikation i flera forskningsprojekt, däribland Human Brain Project och STARBIOS2. I det senare projektet, som handlar om ansvarsfull forskning och innovation (RRI), bidrar hon i en ny bok med argument för ansvarsfullt planerad forskningskommunikation: Achieving impact: some arguments for designing a communications strategy.

Josepine Fernows bidrag är, anser jag, mer än ett övertygande argument. Det är en ögonöppnande text som hjälper forskningsföreträdare att tydligare se sina relationer till samhället – och därmed sitt ansvar. Akademin är ingen kunskapsklippa i ett hav av okunniga lekmän. I samhället finns tvärtom erfarna människor, som på grund av vad de kan, kan ha glädje av din forskning. Det är lättare att tänka strategiskt om forskningskommunikation om du överblickar forskningens relationer till ett mångsidigt samhälle som redan är kunnigt. Texten öppnar den överblicken.

Josepine Fernow varnar även mot att överdriva betydelsen av din forskning. Biovetenskaplig forskning har möjlighet att i framtiden ge oss nya effektiva behandlingar av svåra sjukdomar, nya näringsrika och motståndskraftiga grödor och mycket mera. Eftersom vi alla är möjliga förmånstagare av sådan forskning, i egenskap av framtida patienter och konsumenter, kan vi vara benägna att tro på överdrivet hoppfulla budskap som överdrivet ambitiösa forskare förmedlar. Vi stirrar oss blinda på den möjliga framtida nyttan, i en farlig ringdans av alltmer orealistiska förhoppningar.

Ringdansen kallas hype. Hype kan i längden hindra din forskning genom förlorat förtroende. Hype kan också göra att din forskning kör fast i återvändsgränder eller tar oetiska genvägar. Den fantastiska framtida ”möjliga nyttan” grumlar ditt omdöme som ansvarsfull forskare.

Inom vissa forskningsfält är det extra svårt att undvika hype, eftersom överdrivna förhoppningar tycks inskrivna i fältets språk. Ett exempel är artificiell intelligens (AI), där det psykologiska och neurovetenskapliga språk som används om maskiner kan ge intryck av att förhoppningarna redan infriats. Genom att tala om maskiner i psykologiska och neurologiska termer, kan det låta som om vissa maskiner redan tänkte som människor och fungerade som hjärnor.

Att kommunicera forskning ansvarsfullt är lika viktigt som svårt. Därför förtjänar uppgiften – dessa uppgifter – största uppmärksamhet. Läs Josepine Fernows argument för noga planerade kommunikationsstrategier och överblicka ansvaret.

Slutligen en påminnelse för alla intresserade: Projektet STARBIOS2 anordnar sin slutkonferens via Zoom fredagen den 29 maj 2020.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Fernow, J. (2019). Note #11: Achieving impact: Some arguments for designing a communications strategy, In A. Declich (Ed.), RRI implementation in bioscience organisations: Guidelines from the STARBIOS2 project, (pp. 177-180). Uppsala University. ISBN: 978-91-506-2811-1

Detta inlägg på engelska

Vi tycker om öppenhet

Mer om ansvarsfull forskning och innovation

För några veckor sedan skrev jag ett inlägg om ansvarsfull forskning och innovation (RRI, Responsible Research and Innovation). Vill du läsa mer om RRI, rekommenderas dagens engelska inlägg på The Ethics Blog: Science and society: a changing framework and the role of RRI.

Inlägget är skrivet av gästbloggaren Daniele Mezzana, samhällsforskare i projektet STARBIOS2.

Jag passar på att påminna om att projektet nyss publicerat en bok om RRI, samt anordnar sin slutkonferens via Zoom fredagen den 29 maj 2020.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

I dialog med samhällsvetare

Inspiration till ansvarsfull forskning och innovation

Vår inställning till vetenskapen förändras. Frågan är om vi längre kan tala högstämt om den i bestämd form singularis, eller ens om vetenskaper. Det tycks idag mer träffande att tala om forskningsaktiviteter som producerar nyttiga och tillämpbara kunskaper.

Vetenskapen har detroniserats, tycks det. Förr vördades den som fritt och självständigt sanningssökande. Vi bugade som inför en högre sanningsinstans. I dag kräver vi att den levererar nyttigheter och anpassar sig till samhället. Förändringen är motsägelsefull eftersom vi samtidigt vill kunna åberopa vetenskaplig expertis som högre auktoritetskälla. Ska vi böja oss för experterna eller korrigera dem om de inte levererar ”rätt kunskaper” eller ”önskvärda fakta”?

Ett sätt att aktivt hantera den riskabla förändringen är ansvarsfull forskning och innovation, RRI (Responsible Research and Innovation). Långsiktigt försöker man anpassa vetenskapen till nya samhälleliga krav. Som du hör av namnet är RRI delvis ett uttryck för samma attitydförändring. Man kunde tala om ansvarsfull detronisering av vetenskapen.

Somliga sörjer detroniseringen, andra gläds. Här vill jag bara förknippa RRI med den ändrade inställningen till vetenskap. RRI kan uppfattas som ett försök att ansvarsfullt genomdriva förändringen, som man i grunden bejakar. Den tvetydiga inställningen till vetenskaplig expertis, som nämndes ovan, visar hur viktigt det är att vi tar ansvar för människors förtroende för vad som numera alltså kallas forskning och innovation. För varför bör vi lyssna till företrädare för en sektor med så föga aktningsvärd benämning?

RRI har införts i europeisk forskning inom Horisont 2020. Flera projekt handlar specifikt om att implementera och studera RRI. Viktiga aspekter av RRI är genus och jämställdhet; publicering med öppen tillgänglighet; vetenskapsundervisning och forskningskommunikation; allmänhetens delaktighet; samt etik. Det handlar om att anpassa forskning och innovation till ett samhälle med nya krav och förhoppningar på vad som förr stolt benämndes vetenskapen.

En nyutkommen bok redovisar erfarenheter av implementering av RRI i ett antal biovetenskapliga organisationer runtom i världen. Boken är skriven inom projektet STARBIOS2, som med partners i Europa, Afrika, Syd- och Nordamerika planerat och genomfört RRI-satsningar och reflekterat över arbetsprocessen. Syftet i STARBIOS2 har varit att förändra organisationerna långsiktigt och strukturellt. Med boken vill man hjälpa läsare att själva formulera handlingsplaner och initiera strukturförändringar på de egna arbetsplatserna.

Boken beskrivs något missvisande som riktlinjer (”guidelines”). Några formulerade riktlinjer hittar du inte. Däremot hittar du något som kanske är mer hjälpsamt, nämligen självreflekterande exempel på hur man i praktiken arbetat med RRI-handlingsplaner. Du hittar konkreta förslag på hur man lyfter ansvar i forskning och utveckling. Du kan således läsa om sätt att stödja jämställdhet, utbyte med allmänhet och samhälle, öppen publicering, samt etik och forskningskommunikation. Läs och inspireras!

Avslutningsvis kan jag nämna att Etikbloggen, liksom etikverksamheten på CRB, kan betraktas som exempel på RRI. Jag hoppas återkomma längre fram med ett inlägg om forskningskommunikation.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Declich, Andrea. 2019. RRI implementation in bioscience organisations: Guidelines from the STARBIOS2 project.

Detta inlägg på engelska

Vad är hållbarhet i framtiden?

Antropomorfism inom AI kan begränsa tekniken

Antropomorfism tycks nästan tillhöra forskning om artificiell intelligens (AI). Ända sedan områdets begynnelse har maskiner beskrivits i termer som normalt beskriver mänskliga förmågor, som att förstå och att lära sig. Betoningen ligger på likheter mellan människor och maskiner, medan skillnader ofta slätas över. Som när man säger att maskiner kan göra samma saker som människor, som att fatta beslut och lösa problem, med den förment obetydliga skillnaden att maskinerna gör det ”automatiserat”.

Detta kan du läsa mer om i en upplysande diskussion om antropomorfism inom och omkring AI, skriven av Arleen Salles, Kathinka Evers och Michele Farisco, samtliga vid vid CRB och Human Brain Project. Artikeln är publicerad i AJOB Neuroscience.

Artikeln uppmärksammar särskilt så kallad hjärninspirerad AI-forskning, där teknikutvecklingen hämtar inspiration från vad vi vet om hjärnans funktionssätt. Här betonas banden mellan AI och neurovetenskap: band som anses avgörande för utvecklingen inom bägge forskningsfälten. Neurovetenskapen behöver inspiration från AI-forskningen, menar man, liksom AI-forskningen behöver inspiration från hjärnforskningen.

Artikeln varnar dock för att denna idé om ett släktskap mellan områdena förutsätter att vi redan accepterat en antropomorf tolkning av AI. Faktum är att hjärninspirerad AI utvidgar de begreppsliga dubbelexponeringarna genom att projicera inte bara psykologiska utan även neurovetenskapliga begrepp på maskiner. Man talar om artificiella neuroner, synapser och neurala nätverk i datorer. Som om man byggt in konstgjord hjärnvävnad i maskinerna.

En förbisedd risk med antropomorfism inom AI, skriver artikelförfattarna, är att den kan dölja väsentliga egenarter hos tekniken som gör den fundamentalt annorlunda mänsklig intelligens. Antropomorfism kan riskera att begränsa den tekniska utvecklingen inom AI, eftersom man låser sig vid den mänskliga hjärnan som priviligierad inspirationskälla för AI. Antropomorfism kan locka även hjärnforskningen att okritiskt använda AI som förebild för hur hjärnan fungerar.

Författarna förnekar naturligtvis inte att AI och neurovetenskap ömsesidigt befruktar varandra och bör samarbeta. Men för att samarbetet ska fungera väl, utan att riskera att hämma utvecklingen, behövs även filosofiskt tänkande. Vi behöver klargöra våra olikartade begrepp om människor och maskiner, hjärnor och datorer. Detta för att befria oss från tendensen att låsa oss vid likheterna, som kan vara mer verbala än reella. Vi behöver uppmärksamma även skillnader mellan människor och maskiner, lära oss att inspireras av olikheter.

Antropomorfism inom AI riskerar dessutom att uppmuntra till oansvarig forskningskommunikation, menar artikelförfattarna. Detta eftersom överdrivna förhoppningar (”hype”) ligger i själva språkbruket. Genom att tala om datorer i psykologiska och neurologiska termer, kan det låta som om datorerna redan väsentligen fungerade som mänskliga hjärnor.

Filosofi kan därför bidra till ansvarsfullare kommunikationen om AI. Eftertänksam forskningskommunikation kan uppmärksamma överdrivna anspråk och förhoppningar som ligger i det antropomorfa språkbruket. Den kan motverka tendenser att överdriva likheter mellan maskiner och människor, som inte alltid går så djupt som orden får det att låta.

Skillnader kan kort sagt vara lika viktiga och lärorika som likheter. Inte bara i filosofi, utan även i vetenskap, teknikutveckling och ansvarsfull forskningskommunikation.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Arleen Salles, Kathinka Evers & Michele Farisco (2020) Anthropomorphism in AI, AJOB Neuroscience, 11:2, 88-95, DOI: 10.1080/21507740.2020.1740350

Detta inlägg på engelska

Vi söker klarhet

Vi kan inte kontrollera allt: livets filosofiska dimensioner

Livet överträffar oss alltid. Vi trodde att vi hade kontroll, men så händer något oväntat som tycks rubba ordningen i grunden. En storm, en skogsbrand, en pandemi. Livet framstår som en teckning i sand, vars konturer plötsligt upplöses.

Så illa är det naturligtvis inte, för även en storm, en skogsbrand, en pandemi, går över. Konturerna blir tydliga igen, i något nya former. Men det oväntade påminde oss om att livet är större än vår förmåga att kontrollera det. Min fråga i detta inlägg är hur vi balanserar viljan att kontrollera livet mot vetskapen om att livet alltid överträffar oss.

Att livet är större än vår förmåga att kontrollera det visar sig inte bara i form av stormar, skogsbränder och pandemier. Det visar sig också i form av skönt varierande väder, växande skogar och god hälsa. Visst bidrar medicinen till bättre hälsa. Men det är inte tack vare några piller som blod cirkulerar i våra kroppar och mat blir till näring för våra celler. Vi är med rätta tacksamma mot medicinen, som hjälper sjuka. Men kanske kunde vi även ägna livet självt en tacksamhetens tanke ibland. Är inte kroppen fantastisk, som utvecklar immunitet i samröre med virus? Är inte skogarna och klimatet underbara, som ger syre, sol och regn? Och naturen, som vi är som utväxter på?

Många vill nog invända att det är bortkastat att filosofera om sådant som vi inte kan göra något åt. Varför ödsla tid på att reflektera över livets okontrollerbara dimensioner, när vi kan utveckla nya mediciner? Borde vi inte fokusera alla krafter på att förbättra världen?

Jag påpekar bara att vi då resonerar som konstnären som trodde sig kunna måla enbart förgrunder, utan bakgrunder. Som om bakgrunden distraherade från det viktiga. Men vill du framhäva förgrunden, måste du uppmärksamma även bakgrunden. Då framträder förgrunden. Förgrunden behöver omfamnas av bakgrunden. Litet och stort förutsätter varandra.

Viljan till kontroll fungerar klokare, tror jag, om vi besinnar oss på vårt ofrånkomliga beroende av omfamning av en större bakgrund. Vi kan som sagt inte styra allt, lika lite som en konstnär kan måla enbart förgrunder. Jag vill föreslå att filosofi utmärks av att den påminner oss om just detta. Den hjälper oss att se det kontrollerbara mot bakgrund av det okontrollerbara. Den påminner om det större sammanhanget: bakgrunden som det mänskliga intellektet inte bemästrar, utan måste förutsätta och samspela klokt med.

Det behöver inte vara dramatiskt. Även vardagslivet har filosofiska dimensioner som överträffar vår medvetna kontroll. Barnen lär sig prata bortom föräldrarnas kontroll, utan vare sig läroplaner eller examinationer. Ingen språklärare i världen kan lära ett litet barn att prata genom lektioner i klassrum. Det kan bara ske spontant och gränslöst mitt i livet. Bara den som redan pratar kan lära sig språk genom lektioner i ett klassrum.

Förmågan att prata är alltså bakgrunden till språkundervisning i klassrum. En språklärare kan planera lektionerna i detalj. De yngstas språktillägnelse, däremot, är så oupplösligt förenad med vad det är att leva som människa, att den överträffar intellektets förmåga att ordna och styra. Vi kan bara påminna oss om skillnaden mellan förgrund och bakgrund. Här följer en sådan filosofisk påminnelse. En förälder till ett skolbarn kan säga: ”Nu har du pluggat engelska i två timmar och behöver en rast: gå ut och lek.” Men en förälder till ett litet barn som börjar prata kan inte säga: ”Nu har du pratat i två timmar och behöver en rast: gå ut och lek!” Barnet pratar jämt. Det lär sig mitt i leken, mitt i livet, bortom kontroll. Därför har barnet inga raster.

Hade Herb Terrace sett skillnaden mellan språkets förgrund och bakgrund, hade han aldrig använt den vansinniga metoden att träna teckenspråk med schimpansen Nim i ett särskilt klassrum, som om Nim var en skolelev som redan kunde prata. Ibland behövs en smula filosofi (en smula förnuft) för att våra projekt ska fungera. Förgrund och bakgrund samspelar överallt. Våra välfärdssamhällen fungerar inte om vi inte i grunden lever av egen kraft. Pandemier avtar knappast utan att virus vandrar genom tillräckligt många av våra därefter immuna kroppar – under kontrollerade former som skyddar riskgrupper och ger svårt sjuka vård. Överallt samspelar förgrund och bakgrund, kontrollerbart och okontrollerbart.

Strävan efter intellektuell kontroll är därför en fallgrop när vi filosoferar. Åtminstone om filosofi behövs för att belysa den levande bakgrunden till det som låter sig kontrolleras. Då kan vi inte drömma om att definiera livet som en enda intellektuellt kontrollerbar förgrund. En smula filosofi hjälper oss att se samspelet mellan förgrund och bakgrund. Den hjälper oss att leva aktivt och agera klokt i zonen mellan kontrollerbart och okontrollerbart.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Detta inlägg på engelska

I dialog med filosofer

Vad är en moralisk maskin?

Jag läste nyss en på många sätt klargörande artikel om så kallade moraliska robotar. Filosofen John-Stewart Gordon varnar för fallgropar som icke-etiker (robotforskare och AI-programmerare) kan ramla ned i när de försöker konstruera moraliska maskiner. Helt enkelt för att de saknar etisk expertis.

Den första fallgropen är de rena nybörjarmisstagen. Man kanske naivt identifierar etik med vissa berömda bioetiska principer, som om etik inte kunde vara något annat än så kallad principlism. Eller så tror man att datorsystem genom automatiserad analys av enskilda fall kan ”lära sig” etiska principer och ”bli moraliska”. Som om moral kunde upptäckas erfarenhetsmässigt eller empiriskt.

Den andra utmaningen har att göra med att etikexperterna själva är oeniga om den ”rätta” moralteorin. Det finns flera konkurrerande etiska teorier (konsekvensetik, pliktetik, dygdeetik med mera). Vilken moralisk rättningsmall ska programmerarna använda när datorer ska fås att lösa moraliska problem och dilemman som uppkommer i olika verksamheter? (Tänk på robotbilar i svåra trafiksituationer.)

Den första fallgropen kan åtgärdas med mer kunskap i etik. Hur hanterar vi den andra? Ska programmerare få välja moralteori fritt som det passar dem? Ska vi tillåta såväl konsekvensetiska som pliktetiska robotbilar på våra gator?

John-Stewart Gordons förslag är att så kallad maskinetik bör fokusera på överensstämmelser mellan olika moralteorier angående vad man inte får göra. Robotar bör förses med en bindande lista på sådant som måste undvikas som omoraliskt. Med den inskränkningen får robotarna sedan spelrum att använda och balansera mångfalden av moralteorier, för att på olika sätt lösa moraliska problem.

Sammanfattningsvis bör robotforskare och AI-programmerare konsultera etikexperterna, så att de undviker nybörjarmisstagen och förstår de metodologiska problem som uppkommer när inte ens experterna på området kan enas om den rätta moralteorin.

Allt detta förefaller både klokt och klargörande på ett plan. Samtidigt känner jag mig uppriktigt förvirrad kring själva idén om ”moraliska maskiner” (även om artikeln inte diskuterar idén, utan fokuserar på etiska utmaningar för ingenjörerna). Vad betyder idén? Inte så att jag betvivlar att artificiell intelligens kan designas enligt etiska krav. Vi kanske inte vill att robotbilar ska undvika kollisioner i stadstrafik genom att svänga in på trottoarer där många människor promenerar. I den meningen kan det finnas etisk programvara, ungefär som det finns etiska aktiefonder. Vi kunde tala om moraliska och omoraliska robotbilar, lika självklart som vi talar om etiska och oetiska fonder.

Ändå känner jag mig som sagt osäker. Varför? Jag inledde med att skriva ”så kallade” moraliska robotar. Det gjorde jag för att jag inte är bekväm med att tala om moraliska maskiner, men är öppen för förslag på vad det kan betyda. Jag tror att vad som förvirrar mig är att moraliska maskiner omnämns utan distanserande uttryck, som om alla egentligen borde veta vad det måste betyda. Etikexperter är oense om den ”rätta” moralteorin. Men de tycks eniga om att moralteori bestämmer vad ett moraliskt beslut är, ungefär som språkläran bestämmer vad en grammatisk mening är. Med den tilltron till moralteori behöver man inte fundera över vad en moralisk maskin är. Det är helt enkelt en maskin som fattar beslut enligt accepterad moralteori. Men fattar maskiner beslut i samma mening som människor gör det?

Kanske handlar det om betoning. Vi talar om etiska fonder utan att känna yrsel inför att en aktiefond kan vara etisk (”Kan de vara humoristiska också?”). Det finns ingen mytologisk betoning i talet om etiska fonder. På samma sätt kan vi tala om etiska robotbilar utan att känna yrsel som inför något övernaturligt. Men i den filosofiska diskussionen om maskinetik omnämns ibland moraliska maskiner på ett mytologiskt sätt, tycks det mig. Som om en kentaur, en maskin-människa, snart ser dagens ljus. Samtidigt ska vi inte känna yrsel inför dessa sköna nya kentaurer, eftersom experterna kan bokstavera exakt vad de talar om. Med alla rättningsmallar i händerna behöver de inga distanserande uttryck!

Jag misstänker att även etisk expertis kan vara en filosofisk fallgrop när vi intellektuellt närmar oss så kallade moraliska maskiner. Expertattityden kan tysta de förvirrande frågor som vi alla behöver tid att reda ut, när uppriktiga tvivel gör uppror mot anspråket att veta.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Gordon, J. Building Moral Robots: Ethical Pitfalls and Challenges. Sci Eng Ethics 26, 141–157 (2020). https://doi.org/10.1007/s11948-019-00084-5

Detta inlägg på engelska

Vi ställer frågor

Artificiell intelligens och det levande medvetandet

Etikbloggen kommer med flera inlägg om artificiell intelligens framöver. Idag vill jag bara göra en liten iakttagelse av någonting märkvärdigt.

Förra århundradet präglades av rädsla för människans medvetande. Vårt psyke föreföll lika mystiskt som själen, lika överflödigt i en vetenskaplig tidsålder som Gud. I psykologin frodades behaviorismen, som definierade psykologiska ord i termer av kroppsliga beteenden, som kunde studeras vetenskapligt i laboratoriet. Det levande medvetandet behandlades som en relik från en svunnen vidskeplig tid.

Vad är då så märkvärdigt med artificiell intelligens? Plötsligt tycks man avguda medvetandet. Man vältrar sig i psykologiska ord, åtminstone när man talar om vad datorer och robotar kan göra. Dessa maskiner ser och hör, de tänker och talar. De till och med lär sig själva.

Betyder detta att rädslan för medvetandet upphört? Knappast, för när man inom artificiell intelligens använder psykologiska ord såsom se och höra, tänka och förstå, så är orden inte psykologiska längre. Att datorer ”lär sig” är ett tekniskt begrepp som datorexperterna definierar i sina laboratorier.

När företrädare för artificiell intelligens vältrar psykologiska ord över robotar, så upprepar de alltså hur behavioristerna definierade människans psyke i termer av någonting annat. De psykologiska orden får nya maskinella betydelser, som överskuggar ordens betydelser hos levande människor.

Tänk på det, nästa gång du undrar om robotarna kan bli medvetna i framtiden. Utvecklingen bygger på rädslan för medvetandet. Vad du undrar är alltså inte om robotar kan bli medvetna. Du undrar om ditt eget medvetande kan vara vidskepelse. Märkvärdigt, eller hur?

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Detta inlägg på engelska

Vi diskuterar aktuella frågor

Exakt när blir en människa till egentligen?

Den som lagar maten brukar säga ”Nu är maten klar” när maten är klar. Men exakt när är maten klar egentligen? När äggklockan ringer? Potatisen är ju kokt då. Eller när kastrullen lyfts från spisen? Kokandet avbryts ju då. Eller när vattnet hälls bort? Potatisen friläggs ju från sitt tillagningsmedium då. Eller när potatisen hamnar på bordet? Den blir ju tillgänglig för gästerna runt bordet då. Men är maten verkligen tillgänglig för ätande innan den ligger på tallriken? Borde inte varje middagsgäst själv säga ”Nu är maten klar” när maten ligger på tallriken? Men om maten är för het, är den verkligen klar då? Borde inte någon runt bordet säga till när man inte längre bränner sig på tungan, ”Nu är maten klar”?

Ja, exakt när är maten klar egentligen? Du anar nog att frågan är lömsk. Själva ställandet av frågan ”exakt när egentligen?” omöjliggör systematiskt varje svar. Frågan bygger på att inte acceptera svaret. Den bygger på att föreslå ett klyftigare sätt att svara. Som inte accepteras för att man föreslår ett ännu klyftigare sätt att svara. Och så vidare. Frågor som systematiskt avfärdar svaret är inte vilka frågor som helst. De kan ge sken av djup, eftersom inget vanligt mänskligt svar duger. De kan ge sken av hög intellektuell nivå, eftersom frågeställaren tycks kräva att få veta exakt hur det egentligen ligger till. Sådana sällsynt vetgiriga frågor brukar kallas metafysiska.

Men vi upplever knappast frågan om exakt när maten egentligen är klar som viktig och djup. Vi ser tricket. Frågan är som en trilskande tonåring som nyss upptäckt hur man systematiskt rider på ord. Men ibland kan dessa verbalt ystra frågor ändå hamna på dagordningen och upplevas som viktiga att besvara. I bioetiken har frågan om människans tillblivelse blivit en sådan fråga. Exakt när blir en människa till egentligen?

Varför ställs frågan i bioetiken? Bakgrunden är naturligtvis att medicinska forskare etiskt och juridiskt inte får göra vad som helst med människor. Frågan vad som räknas som en människa får då betydelse. När blir ett befruktat ägg en människa? Omedelbart? Efter några veckor? Frågan kommer att avgöra vad forskare får göra med mänskliga embryon. Får de skörda stamceller från embryona och förstöra dem? Det råder oenighet om det.

När människor är oeniga vill de övertyga varandra genom att debattera. Frågan om tidpunkten för människans tillblivelse har debatterats i årtionden. Problemet är att frågan beter sig minst lika trilskande som frågan om när maten egentligen är klar. Frågans sken av djup och vetgirighet fungerar dessutom som intellektuellt lockbete. Vi tycks ju kunna avgöra exakt vem som egentligen har rätt. Alla debatters heliga graal!

Avgörandets stund kommer aldrig. Den heliga graal visar sig ständigt vara en hägring, eftersom frågan systematiskt avfärdar varje svar genom att förslå ännu klyftigare svar, precis som frågan om maten. Frågan om människans tillblivelse är numera så klyftig, att den inte kan återges med vanliga mänskliga ord. Filosofer tjänar sitt levebröd som intellektuella advokater, som ger debatterande klienter strategiska råd om metafysiska kryphål undan motståndarens senaste klurigheter. Så här kan det låta när filosofer ger metafysisk rådgivning till debattörer som vill hävda att människan blir till exakt vid befruktningen och inte en dag senare:

”Given the twinning argument, the conceptionist then faces a choice between perdurantist conceptionism and exdurantist conceptionism, and we argue that, apart from commitments beyond the metaphysics of embryology, they should prefer the latter over the former.”

Blir du sugen på att läsa mer? Läs då artikeln och bedöm själv frågans djup och allvar. Personligen önskar jag mognare sätt att hantera bioetiska konflikter än genom metafysisk rådgivning till trilskande debattörer.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Efird, D, Holland, S. Stages of life: A new metaphysics of conceptionism. Bioethics. 2019; 33: 529– 535. https://doi.org/10.1111/bioe.12556

Detta inlägg på engelska

Vi är kritiska

« Äldre inlägg