En forskningsblogg från Centrum för forsknings- & bioetik (CRB)

Etikett: artificiell intelligens (Sida 4 av 4)

Förarlös trafiketik

Pär SegerdahlRobotbilar styrs av datorprogram med stora mängder trafikregler. Men i trafiken sker inte allt friktionsfritt enligt reglerna. Plötsligt springer ett barn ut i vägen. Två personer försöker hjälpa en cyklist som kollapsat på vägen. En bilist försöker göra en U-sväng på en alltför smal väg och blir stående på tvären.

Förutsatt att robotbilarnas program lyckas kategorisera trafiksituationerna via bildinformation från bilens kameror, så måste programmen välja lämpliga körbeteenden för robotbilarna. Ska bilarna bryta mot viktiga trafikregler genom att exempelvis styra in på trottoaren?

Det är mer komplicerat än så. Anta att en vuxen person promenerar på trottoaren. Bör den vuxnes liv äventyras för att rädda barnet? Eller för att rädda cyklisten och de två hjälpsamma?

Konstruktörerna av självkörande bilar har en svår uppgift. De måste programmera bilarnas val av körbeteende i etiskt komplexa situationer som vi kallar oväntade, men som konstruktörerna måste förutse långt i förväg. De måste så att säga redan i fabriken bestämma hur bilmodellen ska bete sig i framtida ”helt oväntade” trafiksituationer. Kanske tio år senare. (Jag förutsätter att programvaran inte uppdaterats; men även uppdaterad mjukvara innebär att man förutser vad vi normalt ser som oväntat.)

På ett samhälleligt plan försöker man nu enas kring etiska regler för hur framtida robotbilar bör bete sig i tragiska trafiksituationer där det kanske inte går att helt undvika skador eller dödsfall. En kommission initierad av tyska transportministeriet föreslår exempelvis att robotbilarnas passagerares liv aldrig får offras för att rädda livet på ett större antal personer i trafiksituationen.

Vem skulle för övrigt köpa en robotbil som är programmerad att offra ens liv? Vem skulle ta en sådan robottaxi? Samtidigt är vi kanske som förare beredda att offra oss, när vi faktiskt konfronteras med oväntade trafiksituationer. Några forskare bestämde sig för att undersöka saken. Du kan läsa om studien i ScienceDaily, eller läsa forskningsartikeln i Frontiers in Behavioral Neuroscience.

Forskarna använde VR-teknik (Virtual Reality) för att utsätta försökspersoner för etiskt svåra trafiksituationer. Sedan studerade man försökspersonernas val av trafikbeteende. Forskarna fann att försökspersonerna var överraskande villiga att offra sig själva för att rädda andra. Men de tog även hänsyn till potentiella trafikoffers ålder samt var beredda att styra in på trottoaren för att minimera antalet trafikoffer. Detta strider mot normer som vi håller viktiga i samhället, som att åldersdiskriminering inte får förekomma och att oskyldigas liv bör skyddas.

Folk är kort sagt benägna att köra bil på ett politiskt inkorrekt sätt!

Varför gjordes studien? Såvitt jag förstår för att de trafiketiska regler som nu föreslås centralt inte tar hänsyn till empiriska data om hur levande förare är benägna att köra sina bilar i etiskt svåra trafiksituationer. Robotbilarna kommer att fatta etiska beslut som kan göra ägarna av bilarna missnöjda med sina bilar; moraliskt missnöjda!

Forskarna förespråkar dock inte att förarlösa bilar bör reagera på etiskt komplexa trafiksituationer så som levande människor gör det. Men diskussionen om förarlös trafiketik bör ta hänsyn även till data om hur levande människor är benägna att köra sina bilar i trafiksituationer där det kanske inte går att undvika olyckor.

Låt mig komplettera empirin med några filosofiska funderingar. Något som slår mig när jag läser om förarlös trafiketik, är nämligen detta att ”det oväntade” försvinner som realitet. En levande förare som försöker hantera en plötslig trafiksituation hanterar något som mycket påtagligt händer just nu. Robotbilen fattar däremot beslut som tickar fram lika förutbestämt som varje annat beslut; som att stanna vid rött ljus. Trafiketiken är bara ytterligare programvara som robotbilen utrustats med på fabrik (eller vid uppdatering av programvaran).

Vad får det för konsekvenser?

En levande förare som plötsligt hamnar i en svår trafiksituation konfronteras (som sagt) med något som sker just nu. Föraren får bära ansvaret för sitt agerande i detta intensiva ögonblick under resten av sitt liv. Även om en medtrafikant rationellt offras för att rädda livet på tio, så kommer föraren att bära bördan av detta dödsfall, drömma om det, fundera över det. Och om föraren fattar ett dumt beslut som skadar fler än det räddar, så kan det ändå vara möjligt att med tiden försonas med det, just för att situationen var så oväntad.

Detta gäller däremot inte för robotbilen, som programmerats på fabrik enligt riktlinjer från trafikmyndigheterna. Vi skulle kanske vilja säga att robotbilen var förprogrammerad att offra vår systers liv, där hon helt oskyldigt kom gående på trottoaren. Hade bilen styrts av en levande människa, så hade vi blivit arga på föraren. Men efter en tid hade vi möjligen kunnat börja försona oss med förarens beteende. Det var ju en oväntad situation! Och föraren lider själv av sitt agerande!

Men om det var en robotbil som betedde sig perfekt enligt tillverkarens program och myndigheternas rekommendationer, då kanske vi skulle ha sett det som en skandal att bilen var förprogrammerad att styra in på trottoaren, där vår syster oskyldigt kom gående.

Ett skäl som anförs för förarlösa bilar är att de, genom att minimera den mänskliga faktorn, kan minska antalet trafikolyckor. Det är möjligt att de kan. Men kanske har vi, just för att den mänskliga faktorn minimeras, mindre överseende med hur de programmerats att rädda liv i etiskt svåra situationer. Inte nog med att de är förprogrammerade. De bär inte heller det ansvar som levande människor tvingas bära. Även för rationella beslut.

Nåväl, vi kommer säkert att finna oss tillrätta med de förarlösa bilarna. Men en annan fråga bekymrar mig ännu. Om det levande nuet försvinner som realitet i de förarlösa bilarnas etikmjukvara, har det inte redan försvunnit i den etik som föreskriver moraliskt rätt och fel för oss levande?

Pär Segerdahl

Detta inlägg på engelska

Vi tar upp aktuella frågor : www.etikbloggen.crb.uu.se

Teknik, etik och mänskliga rättigheter

Josepine FernowNy teknik påverkar både samhället och oss som individer, men det är svårt att förutse hur. Idag använder de flesta både smarta telefoner och intelligent programvara varje dag. Vissa behöver proteser eller implantat för att få livet att fungera. Många av oss kommer att leva när förarlösa bilar kan ses i trafiken. Forskning visar att dementa som klappar robotkatter får ökad livskvalitet. Genetiska tester är billigare än någonsin och tillgängliga för både patienter och konsumenter. Om du spottar i ett provrör och skickar det till ett företag i USA får du en genetisk analys som berättar var dina förfäder kommer ifrån. Vem vet, kanske är en liten andel av dina gener från en överraskande exotisk plats. Kanske påverkar det din bild av vem du är?

Ny (och gammal) teknik kommer med både etiskt och juridiskt bagage. Sådant vi förr bara kunde föreställa oss i science fiction är möjligt idag. Teknik utvecklas fort och det är svår att förutse hur den kommer att användas när nästa generation växer upp. Dagens lagstiftning, reglering och etiska riktlinjer utvecklades för en annan framtid än vår nutid. Politiska beslutsfattare sliter med att förstå och hantera de etiska (och juridiska) konsekvenserna av ny teknik. Teknik väcker också frågor om mänskliga rättigheter. Vad händer när Saudiarabien, ett land som kritiseras för att inte ge kvinnor lika rättigheter, ger en robot hedersmedborgarskap? Den här hösten kommer en grupp forskare från Europa, Asien, Afrika och Amerika att belysa några av de här frågorna och börja sitt arbete med att förbättra etiska och juridiska ramverk för ny teknik.

SIENNA-projektet, eller Stakeholder-informed ethics for new technologies with high socio-economic and human rights impact som det egentligen heter, kommer att leverera förslag på professionella etiska koder, riktlinjer för forskningsetikkommittéer och förslag på förbättringar i Europeisk lagstiftning. Gruppen kommer också att arbeta med de mer filosofiska frågorna som teknikutvecklingen väcker: Var drar vi gränsen mellan hälsa och sjukdom? Kan vi förvänta oss att intelligent programvara beter sig på ett moraliskt sätt? Går vi med på att ge upp en del av vår integritet för att ta reda på om vi har risk för genetisk sjukdom? Och om priset vi betalar för att interagera med maskiner är att ge upp en del av vår personliga frihet, är vi i så fall villiga att betala det?

Projektet koordineras av tekniska universitetet i Twente, Nederländerna. Uppsala universitets Centrum för forsknings- & bioetik (CRB) bidrar med sin expertis kring etiken, juridiken och de sociala konsekvenserna av genteknik. Vi bidrar också med vår erfarenhet av att arbeta med forskningskommunikation i Europeiska projekt. Vill du veta mer? Besök www.sienna-project.eu.

Josepine Fernow

SIENNA-projektet – Stakeholder-informed ethics for new technologies with high socio-economic and human rights impact – har fått närmare €4 miljoner för ett projekt som löper på 3,5 år inom ramen för Europeiska Unionens H2020 forsknings- och innovationsprogram, grant agreement No 741716. Observera att den här texten och dess innehåll enbart uttrycker SIENNA-projektets synpunkter. EU-Kommisionen är inte ansvarig för hur innehållet används.

SIENNA project: Technology, ethics and human rights

Detta inlägg på engelska

Vi tolkar framtiden - etikbloggen

Nyare inlägg »