En forskningsblogg från Centrum för forsknings- & bioetik (CRB)

Etikett: artificiell intelligens (Sida 3 av 3)

Etiska fitnessappar för moraliskt högpresterande

I en ovanligt retorisk artikel för att vara i en vetenskaplig tidskrift, tecknas bilden av en mänsklighet som befriar sig från moralisk svaghet genom nerladdning av etiska fitnessappar.

Författarna menar att devisen ”Känn dig själv!” från Apollontemplet i Delfi idag besvarats grundligare än någonsin. Aldrig har människan känt sig själv bättre. Etiskt är vi i princip fullärda. Samtidigt vet vi mer än någonsin om de moraliska svagheter, som hindrar oss från att agera enligt dessa etiska principer, som vi idag alltså känner så väl. Forskningen upptäcker alltfler mekanismer i hjärna och psyke, som påverkar mänsklighetens moraliska tillkortakommanden.

Givet denna enorma och växande självkännedom, varför utvecklar vi inte artificiell intelligens som stödjer en moraliskt haltande mänsklighet? Varför satsas så mycket resurser på ännu intelligentare artificiell intelligens, som tar våra arbeten ifrån oss och en dag kan hota hela mänskligheten i form av okontrollerbar superintelligens? Varför beter vi oss så oklokt, när vi kunde utveckla artificiell intelligens som hjälper oss människor att bli superetiska?

Hur kan AI göra moraliskt svaga människor superetiska? Författarna jämför med fitnessapparna, som idag hjälper motionärer att träna hälsosammare, effektivare och mer regelbundet än de annars skulle göra. Författarnas förslag är att dagens etiska kunskap om moralteorier i kombination med växande vetenskaplig kunskap om moraliska svagheter kunde stödja en teknikutveckling av kloka appar: visa föremål som stödjer människor på precis de punkter, där vi idag vet att vi haltar moraliskt.

Min personliga bedömning av detta utopiska förslag, är att det mycket väl kan förverkligas i mindre utopiska former. AI används redan flitigt som stöd i beslutsfattande. Man kunde tänka sig mobilappar som stödjer konsumenter att göra etiska matval i butiken. Eller dataspel där matkonsumenter tränas att väga olika etiska hänsynstaganden mot varandra, som djurvälfärd, klimateffekter, ekologiska effekter och mycket annat. Snygga presentationer av de etiska problemen och uppmuntrande musik som gör det roligt att vara moralisk.

Den filosofiska fråga jag ställer mig, är om mänskligheten verkligen kan sägas bli klokare och mer moralisk av artificiellt beslutsstöd i matbutiker och andra sammanhang. Föreställ dig en människa som väljer bland grönsakerna, ivrigt letande efter beslutsstöd i sin intelligenta mobiltelefon. Vad ser du? En människa som tack vare mobilappen blivit klokare än Sokrates, som levde långt innan vi visste så mycket om oss själva som vi vet idag?

Etiska fitnessappar är fullt tänkbara. Risken är bara att de sprider en självkännedom som flyger över oss själva, misstänkt lik den moraliska bristen självgodhet.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Pim Haselager & Giulio Mecacci (2020) Superethics Instead of Superintelligence: Know Thyself, and Apply Science Accordingly, AJOB Neuroscience, 11:2, 113-119, DOI: 10.1080/21507740.2020.1740353

Detta inlägg på engelska

Vi vill ha djup

Ansvarsfullt planerad forskningskommunikation

Akademisk forskning drivs av hur resultat sprids till kolleger via konferenser och publikationer i vetenskapliga tidskrifter. Men forskningsresultat tillhör inte bara forskarsamhället. De tillhör hela samhället. Därför bör resultaten nå inte bara specialisterna i fältet eller i angränsande fält. De bör även nå utanför akademin.

Vilka finns därute? En homogen allmänhet? Nej, så enkelt är det inte. Kommunikation av forskning handlar inte om att forskarna först kommunicerar resultat inomvetenskapligt till varandra och sedan populärvetenskapligt till ”allmänheten”. Utanför akademin finns ingenjörer, företagare, politiker, myndighetsföreträdare, lärare, skolelever, forskningsfinansiärer, skattebetalare, sjukvårdspersonal… Utanför akademin finns vi alla, med våra olika erfarenheter, uppgifter och förmågor.

Forskningskommunikation är därför en strategiskt mer komplicerad uppgift än bara den att ”nå allmänheten”. Varför vill du kommunicera din forskning, vad gör den viktig? Vem kan finna din forskning viktig, vem vill du nå? Hur vill du kommunicera? När vill du kommunicera? Här finns inte bara en uppgift, utan många. Du måste tänka igenom din uppgift i varje enskilt fall. För uppgiften varierar med svaren på dessa frågor. Först när du kan tänka en smula strategiskt om uppgiften, kan du kommunicera forskning ansvarsfullt.

Josepine Fernow är en skicklig och erfaren forskningskommunikatör vid CRB. Hon arbetar med kommunikation i flera forskningsprojekt, däribland Human Brain Project och STARBIOS2. I det senare projektet, som handlar om ansvarsfull forskning och innovation (RRI), bidrar hon i en ny bok med argument för ansvarsfullt planerad forskningskommunikation: Achieving impact: some arguments for designing a communications strategy.

Josepine Fernows bidrag är, anser jag, mer än ett övertygande argument. Det är en ögonöppnande text som hjälper forskningsföreträdare att tydligare se sina relationer till samhället – och därmed sitt ansvar. Akademin är ingen kunskapsklippa i ett hav av okunniga lekmän. I samhället finns tvärtom erfarna människor, som på grund av vad de kan, kan ha glädje av din forskning. Det är lättare att tänka strategiskt om forskningskommunikation om du överblickar forskningens relationer till ett mångsidigt samhälle som redan är kunnigt. Texten öppnar den överblicken.

Josepine Fernow varnar även mot att överdriva betydelsen av din forskning. Biovetenskaplig forskning har möjlighet att i framtiden ge oss nya effektiva behandlingar av svåra sjukdomar, nya näringsrika och motståndskraftiga grödor och mycket mera. Eftersom vi alla är möjliga förmånstagare av sådan forskning, i egenskap av framtida patienter och konsumenter, kan vi vara benägna att tro på överdrivet hoppfulla budskap som överdrivet ambitiösa forskare förmedlar. Vi stirrar oss blinda på den möjliga framtida nyttan, i en farlig ringdans av alltmer orealistiska förhoppningar.

Ringdansen kallas hype. Hype kan i längden hindra din forskning genom förlorat förtroende. Hype kan också göra att din forskning kör fast i återvändsgränder eller tar oetiska genvägar. Den fantastiska framtida ”möjliga nyttan” grumlar ditt omdöme som ansvarsfull forskare.

Inom vissa forskningsfält är det extra svårt att undvika hype, eftersom överdrivna förhoppningar tycks inskrivna i fältets språk. Ett exempel är artificiell intelligens (AI), där det psykologiska och neurovetenskapliga språk som används om maskiner kan ge intryck av att förhoppningarna redan infriats. Genom att tala om maskiner i psykologiska och neurologiska termer, kan det låta som om vissa maskiner redan tänkte som människor och fungerade som hjärnor.

Att kommunicera forskning ansvarsfullt är lika viktigt som svårt. Därför förtjänar uppgiften – dessa uppgifter – största uppmärksamhet. Läs Josepine Fernows argument för noga planerade kommunikationsstrategier och överblicka ansvaret.

Slutligen en påminnelse för alla intresserade: Projektet STARBIOS2 anordnar sin slutkonferens via Zoom fredagen den 29 maj 2020.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Fernow, J. (2019). Note #11: Achieving impact: Some arguments for designing a communications strategy, In A. Declich (Ed.), RRI implementation in bioscience organisations: Guidelines from the STARBIOS2 project, (pp. 177-180). Uppsala University. ISBN: 978-91-506-2811-1

Detta inlägg på engelska

Vi tycker om öppenhet

Antropomorfism inom AI kan begränsa tekniken

Antropomorfism tycks nästan tillhöra forskning om artificiell intelligens (AI). Ända sedan områdets begynnelse har maskiner beskrivits i termer som normalt beskriver mänskliga förmågor, som att förstå och att lära sig. Betoningen ligger på likheter mellan människor och maskiner, medan skillnader ofta slätas över. Som när man säger att maskiner kan göra samma saker som människor, som att fatta beslut och lösa problem, med den förment obetydliga skillnaden att maskinerna gör det ”automatiserat”.

Detta kan du läsa mer om i en upplysande diskussion om antropomorfism inom och omkring AI, skriven av Arleen Salles, Kathinka Evers och Michele Farisco, samtliga vid vid CRB och Human Brain Project. Artikeln är publicerad i AJOB Neuroscience.

Artikeln uppmärksammar särskilt så kallad hjärninspirerad AI-forskning, där teknikutvecklingen hämtar inspiration från vad vi vet om hjärnans funktionssätt. Här betonas banden mellan AI och neurovetenskap: band som anses avgörande för utvecklingen inom bägge forskningsfälten. Neurovetenskapen behöver inspiration från AI-forskningen, menar man, liksom AI-forskningen behöver inspiration från hjärnforskningen.

Artikeln varnar dock för att denna idé om ett släktskap mellan områdena förutsätter att vi redan accepterat en antropomorf tolkning av AI. Faktum är att hjärninspirerad AI utvidgar de begreppsliga dubbelexponeringarna genom att projicera inte bara psykologiska utan även neurovetenskapliga begrepp på maskiner. Man talar om artificiella neuroner, synapser och neurala nätverk i datorer. Som om man byggt in konstgjord hjärnvävnad i maskinerna.

En förbisedd risk med antropomorfism inom AI, skriver artikelförfattarna, är att den kan dölja väsentliga egenarter hos tekniken som gör den fundamentalt annorlunda mänsklig intelligens. Antropomorfism kan riskera att begränsa den tekniska utvecklingen inom AI, eftersom man låser sig vid den mänskliga hjärnan som priviligierad inspirationskälla för AI. Antropomorfism kan locka även hjärnforskningen att okritiskt använda AI som förebild för hur hjärnan fungerar.

Författarna förnekar naturligtvis inte att AI och neurovetenskap ömsesidigt befruktar varandra och bör samarbeta. Men för att samarbetet ska fungera väl, utan att riskera att hämma utvecklingen, behövs även filosofiskt tänkande. Vi behöver klargöra våra olikartade begrepp om människor och maskiner, hjärnor och datorer. Detta för att befria oss från tendensen att låsa oss vid likheterna, som kan vara mer verbala än reella. Vi behöver uppmärksamma även skillnader mellan människor och maskiner, lära oss att inspireras av olikheter.

Antropomorfism inom AI riskerar dessutom att uppmuntra till oansvarig forskningskommunikation, menar artikelförfattarna. Detta eftersom överdrivna förhoppningar (”hype”) ligger i själva språkbruket. Genom att tala om datorer i psykologiska och neurologiska termer, kan det låta som om datorerna redan väsentligen fungerade som mänskliga hjärnor.

Filosofi kan därför bidra till ansvarsfullare kommunikationen om AI. Eftertänksam forskningskommunikation kan uppmärksamma överdrivna anspråk och förhoppningar som ligger i det antropomorfa språkbruket. Den kan motverka tendenser att överdriva likheter mellan maskiner och människor, som inte alltid går så djupt som orden får det att låta.

Skillnader kan kort sagt vara lika viktiga och lärorika som likheter. Inte bara i filosofi, utan även i vetenskap, teknikutveckling och ansvarsfull forskningskommunikation.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Arleen Salles, Kathinka Evers & Michele Farisco (2020) Anthropomorphism in AI, AJOB Neuroscience, 11:2, 88-95, DOI: 10.1080/21507740.2020.1740350

Detta inlägg på engelska

Vi söker klarhet

Vad är en moralisk maskin?

Jag läste nyss en på många sätt klargörande artikel om så kallade moraliska robotar. Filosofen John-Stewart Gordon varnar för fallgropar som icke-etiker (robotforskare och AI-programmerare) kan ramla ned i när de försöker konstruera moraliska maskiner. Helt enkelt för att de saknar etisk expertis.

Den första fallgropen är de rena nybörjarmisstagen. Man kanske naivt identifierar etik med vissa berömda bioetiska principer, som om etik inte kunde vara något annat än så kallad principlism. Eller så tror man att datorsystem genom automatiserad analys av enskilda fall kan ”lära sig” etiska principer och ”bli moraliska”. Som om moral kunde upptäckas erfarenhetsmässigt eller empiriskt.

Den andra utmaningen har att göra med att etikexperterna själva är oeniga om den ”rätta” moralteorin. Det finns flera konkurrerande etiska teorier (konsekvensetik, pliktetik, dygdeetik med mera). Vilken moralisk rättningsmall ska programmerarna använda när datorer ska fås att lösa moraliska problem och dilemman som uppkommer i olika verksamheter? (Tänk på robotbilar i svåra trafiksituationer.)

Den första fallgropen kan åtgärdas med mer kunskap i etik. Hur hanterar vi den andra? Ska programmerare få välja moralteori fritt som det passar dem? Ska vi tillåta såväl konsekvensetiska som pliktetiska robotbilar på våra gator?

John-Stewart Gordons förslag är att så kallad maskinetik bör fokusera på överensstämmelser mellan olika moralteorier angående vad man inte får göra. Robotar bör förses med en bindande lista på sådant som måste undvikas som omoraliskt. Med den inskränkningen får robotarna sedan spelrum att använda och balansera mångfalden av moralteorier, för att på olika sätt lösa moraliska problem.

Sammanfattningsvis bör robotforskare och AI-programmerare konsultera etikexperterna, så att de undviker nybörjarmisstagen och förstår de metodologiska problem som uppkommer när inte ens experterna på området kan enas om den rätta moralteorin.

Allt detta förefaller både klokt och klargörande på ett plan. Samtidigt känner jag mig uppriktigt förvirrad kring själva idén om ”moraliska maskiner” (även om artikeln inte diskuterar idén, utan fokuserar på etiska utmaningar för ingenjörerna). Vad betyder idén? Inte så att jag betvivlar att artificiell intelligens kan designas enligt etiska krav. Vi kanske inte vill att robotbilar ska undvika kollisioner i stadstrafik genom att svänga in på trottoarer där många människor promenerar. I den meningen kan det finnas etisk programvara, ungefär som det finns etiska aktiefonder. Vi kunde tala om moraliska och omoraliska robotbilar, lika självklart som vi talar om etiska och oetiska fonder.

Ändå känner jag mig som sagt osäker. Varför? Jag inledde med att skriva ”så kallade” moraliska robotar. Det gjorde jag för att jag inte är bekväm med att tala om moraliska maskiner, men är öppen för förslag på vad det kan betyda. Jag tror att vad som förvirrar mig är att moraliska maskiner omnämns utan distanserande uttryck, som om alla egentligen borde veta vad det måste betyda. Etikexperter är oense om den ”rätta” moralteorin. Men de tycks eniga om att moralteori bestämmer vad ett moraliskt beslut är, ungefär som språkläran bestämmer vad en grammatisk mening är. Med den tilltron till moralteori behöver man inte fundera över vad en moralisk maskin är. Det är helt enkelt en maskin som fattar beslut enligt accepterad moralteori. Men fattar maskiner beslut i samma mening som människor gör det?

Kanske handlar det om betoning. Vi talar om etiska fonder utan att känna yrsel inför att en aktiefond kan vara etisk (”Kan de vara humoristiska också?”). Det finns ingen mytologisk betoning i talet om etiska fonder. På samma sätt kan vi tala om etiska robotbilar utan att känna yrsel som inför något övernaturligt. Men i den filosofiska diskussionen om maskinetik omnämns ibland moraliska maskiner på ett mytologiskt sätt, tycks det mig. Som om en kentaur, en maskin-människa, snart ser dagens ljus. Samtidigt ska vi inte känna yrsel inför dessa sköna nya kentaurer, eftersom experterna kan bokstavera exakt vad de talar om. Med alla rättningsmallar i händerna behöver de inga distanserande uttryck!

Jag misstänker att även etisk expertis kan vara en filosofisk fallgrop när vi intellektuellt närmar oss så kallade moraliska maskiner. Expertattityden kan tysta de förvirrande frågor som vi alla behöver tid att reda ut, när uppriktiga tvivel gör uppror mot anspråket att veta.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Gordon, J. Building Moral Robots: Ethical Pitfalls and Challenges. Sci Eng Ethics 26, 141–157 (2020). https://doi.org/10.1007/s11948-019-00084-5

Detta inlägg på engelska

Vi ställer frågor

Artificiell intelligens och det levande medvetandet

Etikbloggen kommer med flera inlägg om artificiell intelligens framöver. Idag vill jag bara göra en liten iakttagelse av någonting märkvärdigt.

Förra århundradet präglades av rädsla för människans medvetande. Vårt psyke föreföll lika mystiskt som själen, lika överflödigt i en vetenskaplig tidsålder som Gud. I psykologin frodades behaviorismen, som definierade psykologiska ord i termer av kroppsliga beteenden, som kunde studeras vetenskapligt i laboratoriet. Det levande medvetandet behandlades som en relik från en svunnen vidskeplig tid.

Vad är då så märkvärdigt med artificiell intelligens? Plötsligt tycks man avguda medvetandet. Man vältrar sig i psykologiska ord, åtminstone när man talar om vad datorer och robotar kan göra. Dessa maskiner ser och hör, de tänker och talar. De till och med lär sig själva.

Betyder detta att rädslan för medvetandet upphört? Knappast, för när man inom artificiell intelligens använder psykologiska ord såsom se och höra, tänka och förstå, så är orden inte psykologiska längre. Att datorer ”lär sig” är ett tekniskt begrepp som datorexperterna definierar i sina laboratorier.

När företrädare för artificiell intelligens vältrar psykologiska ord över robotar, så upprepar de alltså hur behavioristerna definierade människans psyke i termer av någonting annat. De psykologiska orden får nya maskinella betydelser, som överskuggar ordens betydelser hos levande människor.

Tänk på det, nästa gång du undrar om robotarna kan bli medvetna i framtiden. Utvecklingen bygger på rädslan för medvetandet. Vad du undrar är alltså inte om robotar kan bli medvetna. Du undrar om ditt eget medvetande kan vara vidskepelse. Märkvärdigt, eller hur?

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Detta inlägg på engelska

Vi diskuterar aktuella frågor

Hur ska framtidens AI-etik se ut?

josepine-fernow-sienna-svKanske använder du Google Maps när du tar dig runt i en ny stad. Frågar Siri, Alexa eller Ok Google att spela din favoritlåt på Spotify, Kanske ber du din AI hitta något du vill köpa på Amazon, eller läsa upp ett meddelande från en kompis när du sitter i bilen. Bilen kanske har en semi-autonom adaptiv farthållare… För att det ska fungera behöver mjukvaran i de olika maskinerna samla in information: Data om dig, vart du är på väg, vilken musik du gillar, var och vad du brukar handla, vilka dina vänner är och vad ni pratar om. Och såklart väcker det frågan om du är villig att ge upp en del av ditt privatliv och en bit av din personliga frihet för att kunna dra nytta av fördelarna som den här typen av teknik har att erbjuda.

Det är svårt att förutse konsekvenserna av att utveckla och använda ny teknik. Myndigheter och organisationer sliter med att utvärdera etiken, juridiken kring tekniken. Och vilka konsekvenser den kan få för mänskliga rättigheter. Vi använder IT-system i forskning, inom industrin och i våra hem. Regleringen av systemen behöver fungera för alla som berörs av den. Vi vill skydda etiska värden och mänskliga rättigheter, möjliggöra forskning och utveckling, ta innovationer från universiteten till industrin, och se till att både stora och små företag kan utveckla sina affärsidéer. Och samtidigt se till att det finns acceptans i samhället för teknikutveckling.

EU tar det här på allvar och vill utveckla policy som bygger på forskning, empiriska data och konsultationer med de aktörer som är berörda. De senaste åren har EU investerat 10 miljoner Euro i tre forskningsprojekt som ska ta sig an etiken och mänskliga rättigheter kopplat till utvecklingen av nya digitala teknologier. Satsningen har skett genom Horizon2020-programmet och projekten PANELFIT, SHERPA och SIENNA.

Det första projektet, PANELFIT (som står för Participatory Approaches to a New Ethical and Legal Framework for ICT), kommer att utveckla riktlinjer för hur man ska hantera etiken och juridiken kring forskning och innovation på informations- och kommunikationsteknikområdet. Det andra projektet, SHERPA (som står för Shaping the ethical dimensions of Smart Information Systems (SIS) – A European Perspective), kommer att utveckla olika verktyg för att identifiera och hantera de etiska aspekterna av ”smarta” informationssystem. Det vill säga IT-system som kombinerar artificiell intelligens med analys av stora datamängder. Det tredje projektet, SIENNA (som står för Stakeholder-informed ethics for new technologies with high socio- economic and human rights impact), kommer att utveckla verktyg för forskningsetikkommittéer, etiska koder för olika yrkesgrupper, och bättre etiska och legala ramverk för AI och robotik, men också genetik och genomik och teknologi som kan användas för att förbättra människors egenskaper.

SSP-graphic

Alla projekten arbetar på olika sätt med att engagera både olika intressenter och allmänheten. De stödjer EUs vision om ansvarsfull innovation (det som på engelska kallas för RRI, eller Responsible Research and Innovation). Projekten samarbetar och SIENNA, SHERPA och PANELFIT har nyligen publicerat en gemensam artikel i tidskriften Orbit, där vi bjuder in alla er som på något sätt berörs av de här frågorna att prata med oss och på så sätt bidra till vårt arbete.

Vill du läsa mer? Rowena Rodrigues och Anaïs Resseguier har skrivit om nåra av frågorna som användandet av AI väcker på bloggen Ethics Dialogues (The underdog in the AI and ethical debate: human autonomy). Du kan också läsa mer om SIENNA-projektet i en tidigare post här på Etikbloggen (Ethics, human rights and responsible innovation).

Vill du veta mer om samarbetet mellan SIENNA, SHERPA och PANELFIT? I så fall hoppas jag att du vill läsa vår artikel i Orbit (Setting future ethical standards for ICT, Big Data, AI and robotics: The contribution of three European Projects), eller följa oss på YouTube och se en video från vårt gemensamma webbinarium den 20 maj i år (SIENNA, SHERPA, PANELFIT: Setting future ethical standards for ICT, Big Data, SIS, AI & Robotics).

Vill du veta hur SIENNA-projektet tänker omkring AI och robotik? Ladda ner infografiken i pdf-format här och läs vår state-of-the-art review för AI och robotik (rapport från SIENNA projektet).

c_721882-l_1-k_webb

Josepine Fernow

Detta inlägg på engelska

Vad är hållbarhet i framtiden? - Etikbloggen

Förarlös trafiketik

Pär SegerdahlRobotbilar styrs av datorprogram med stora mängder trafikregler. Men i trafiken sker inte allt friktionsfritt enligt reglerna. Plötsligt springer ett barn ut i vägen. Två personer försöker hjälpa en cyklist som kollapsat på vägen. En bilist försöker göra en U-sväng på en alltför smal väg och blir stående på tvären.

Förutsatt att robotbilarnas program lyckas kategorisera trafiksituationerna via bildinformation från bilens kameror, så måste programmen välja lämpliga körbeteenden för robotbilarna. Ska bilarna bryta mot viktiga trafikregler genom att exempelvis styra in på trottoaren?

Det är mer komplicerat än så. Anta att en vuxen person promenerar på trottoaren. Bör den vuxnes liv äventyras för att rädda barnet? Eller för att rädda cyklisten och de två hjälpsamma?

Konstruktörerna av självkörande bilar har en svår uppgift. De måste programmera bilarnas val av körbeteende i etiskt komplexa situationer som vi kallar oväntade, men som konstruktörerna måste förutse långt i förväg. De måste så att säga redan i fabriken bestämma hur bilmodellen ska bete sig i framtida ”helt oväntade” trafiksituationer. Kanske tio år senare. (Jag förutsätter att programvaran inte uppdaterats; men även uppdaterad mjukvara innebär att man förutser vad vi normalt ser som oväntat.)

På ett samhälleligt plan försöker man nu enas kring etiska regler för hur framtida robotbilar bör bete sig i tragiska trafiksituationer där det kanske inte går att helt undvika skador eller dödsfall. En kommission initierad av tyska transportministeriet föreslår exempelvis att robotbilarnas passagerares liv aldrig får offras för att rädda livet på ett större antal personer i trafiksituationen.

Vem skulle för övrigt köpa en robotbil som är programmerad att offra ens liv? Vem skulle ta en sådan robottaxi? Samtidigt är vi kanske som förare beredda att offra oss, när vi faktiskt konfronteras med oväntade trafiksituationer. Några forskare bestämde sig för att undersöka saken. Du kan läsa om studien i ScienceDaily, eller läsa forskningsartikeln i Frontiers in Behavioral Neuroscience.

Forskarna använde VR-teknik (Virtual Reality) för att utsätta försökspersoner för etiskt svåra trafiksituationer. Sedan studerade man försökspersonernas val av trafikbeteende. Forskarna fann att försökspersonerna var överraskande villiga att offra sig själva för att rädda andra. Men de tog även hänsyn till potentiella trafikoffers ålder samt var beredda att styra in på trottoaren för att minimera antalet trafikoffer. Detta strider mot normer som vi håller viktiga i samhället, som att åldersdiskriminering inte får förekomma och att oskyldigas liv bör skyddas.

Folk är kort sagt benägna att köra bil på ett politiskt inkorrekt sätt!

Varför gjordes studien? Såvitt jag förstår för att de trafiketiska regler som nu föreslås centralt inte tar hänsyn till empiriska data om hur levande förare är benägna att köra sina bilar i etiskt svåra trafiksituationer. Robotbilarna kommer att fatta etiska beslut som kan göra ägarna av bilarna missnöjda med sina bilar; moraliskt missnöjda!

Forskarna förespråkar dock inte att förarlösa bilar bör reagera på etiskt komplexa trafiksituationer så som levande människor gör det. Men diskussionen om förarlös trafiketik bör ta hänsyn även till data om hur levande människor är benägna att köra sina bilar i trafiksituationer där det kanske inte går att undvika olyckor.

Låt mig komplettera empirin med några filosofiska funderingar. Något som slår mig när jag läser om förarlös trafiketik, är nämligen detta att ”det oväntade” försvinner som realitet. En levande förare som försöker hantera en plötslig trafiksituation hanterar något som mycket påtagligt händer just nu. Robotbilen fattar däremot beslut som tickar fram lika förutbestämt som varje annat beslut; som att stanna vid rött ljus. Trafiketiken är bara ytterligare programvara som robotbilen utrustats med på fabrik (eller vid uppdatering av programvaran).

Vad får det för konsekvenser?

En levande förare som plötsligt hamnar i en svår trafiksituation konfronteras (som sagt) med något som sker just nu. Föraren får bära ansvaret för sitt agerande i detta intensiva ögonblick under resten av sitt liv. Även om en medtrafikant rationellt offras för att rädda livet på tio, så kommer föraren att bära bördan av detta dödsfall, drömma om det, fundera över det. Och om föraren fattar ett dumt beslut som skadar fler än det räddar, så kan det ändå vara möjligt att med tiden försonas med det, just för att situationen var så oväntad.

Detta gäller däremot inte för robotbilen, som programmerats på fabrik enligt riktlinjer från trafikmyndigheterna. Vi skulle kanske vilja säga att robotbilen var förprogrammerad att offra vår systers liv, där hon helt oskyldigt kom gående på trottoaren. Hade bilen styrts av en levande människa, så hade vi blivit arga på föraren. Men efter en tid hade vi möjligen kunnat börja försona oss med förarens beteende. Det var ju en oväntad situation! Och föraren lider själv av sitt agerande!

Men om det var en robotbil som betedde sig perfekt enligt tillverkarens program och myndigheternas rekommendationer, då kanske vi skulle ha sett det som en skandal att bilen var förprogrammerad att styra in på trottoaren, där vår syster oskyldigt kom gående.

Ett skäl som anförs för förarlösa bilar är att de, genom att minimera den mänskliga faktorn, kan minska antalet trafikolyckor. Det är möjligt att de kan. Men kanske har vi, just för att den mänskliga faktorn minimeras, mindre överseende med hur de programmerats att rädda liv i etiskt svåra situationer. Inte nog med att de är förprogrammerade. De bär inte heller det ansvar som levande människor tvingas bära. Även för rationella beslut.

Nåväl, vi kommer säkert att finna oss tillrätta med de förarlösa bilarna. Men en annan fråga bekymrar mig ännu. Om det levande nuet försvinner som realitet i de förarlösa bilarnas etikmjukvara, har det inte redan försvunnit i den etik som föreskriver moraliskt rätt och fel för oss levande?

Pär Segerdahl

Detta inlägg på engelska

Vi tar upp aktuella frågor : www.etikbloggen.crb.uu.se

Teknik, etik och mänskliga rättigheter

Josepine FernowNy teknik påverkar både samhället och oss som individer, men det är svårt att förutse hur. Idag använder de flesta både smarta telefoner och intelligent programvara varje dag. Vissa behöver proteser eller implantat för att få livet att fungera. Många av oss kommer att leva när förarlösa bilar kan ses i trafiken. Forskning visar att dementa som klappar robotkatter får ökad livskvalitet. Genetiska tester är billigare än någonsin och tillgängliga för både patienter och konsumenter. Om du spottar i ett provrör och skickar det till ett företag i USA får du en genetisk analys som berättar var dina förfäder kommer ifrån. Vem vet, kanske är en liten andel av dina gener från en överraskande exotisk plats. Kanske påverkar det din bild av vem du är?

Ny (och gammal) teknik kommer med både etiskt och juridiskt bagage. Sådant vi förr bara kunde föreställa oss i science fiction är möjligt idag. Teknik utvecklas fort och det är svår att förutse hur den kommer att användas när nästa generation växer upp. Dagens lagstiftning, reglering och etiska riktlinjer utvecklades för en annan framtid än vår nutid. Politiska beslutsfattare sliter med att förstå och hantera de etiska (och juridiska) konsekvenserna av ny teknik. Teknik väcker också frågor om mänskliga rättigheter. Vad händer när Saudiarabien, ett land som kritiseras för att inte ge kvinnor lika rättigheter, ger en robot hedersmedborgarskap? Den här hösten kommer en grupp forskare från Europa, Asien, Afrika och Amerika att belysa några av de här frågorna och börja sitt arbete med att förbättra etiska och juridiska ramverk för ny teknik.

SIENNA-projektet, eller Stakeholder-informed ethics for new technologies with high socio-economic and human rights impact som det egentligen heter, kommer att leverera förslag på professionella etiska koder, riktlinjer för forskningsetikkommittéer och förslag på förbättringar i Europeisk lagstiftning. Gruppen kommer också att arbeta med de mer filosofiska frågorna som teknikutvecklingen väcker: Var drar vi gränsen mellan hälsa och sjukdom? Kan vi förvänta oss att intelligent programvara beter sig på ett moraliskt sätt? Går vi med på att ge upp en del av vår integritet för att ta reda på om vi har risk för genetisk sjukdom? Och om priset vi betalar för att interagera med maskiner är att ge upp en del av vår personliga frihet, är vi i så fall villiga att betala det?

Projektet koordineras av tekniska universitetet i Twente, Nederländerna. Uppsala universitets Centrum för forsknings- & bioetik (CRB) bidrar med sin expertis kring etiken, juridiken och de sociala konsekvenserna av genteknik. Vi bidrar också med vår erfarenhet av att arbeta med forskningskommunikation i Europeiska projekt. Vill du veta mer? Besök www.sienna-project.eu.

Josepine Fernow

SIENNA-projektet – Stakeholder-informed ethics for new technologies with high socio-economic and human rights impact – har fått närmare €4 miljoner för ett projekt som löper på 3,5 år inom ramen för Europeiska Unionens H2020 forsknings- och innovationsprogram, grant agreement No 741716. Observera att den här texten och dess innehåll enbart uttrycker SIENNA-projektets synpunkter. EU-Kommisionen är inte ansvarig för hur innehållet används.

SIENNA project: Technology, ethics and human rights

Detta inlägg på engelska

Vi tolkar framtiden - etikbloggen

Nyare inlägg »