Vad är en moralisk maskin?

1 april, 2020

Pär SegerdahlJag läste nyss en på många sätt klargörande artikel om så kallade moraliska robotar. Filosofen John-Stewart Gordon varnar för fallgropar som icke-etiker (robotforskare och AI-programmerare) kan ramla ned i när de försöker konstruera moraliska maskiner. Helt enkelt för att de saknar etisk expertis.

Den första fallgropen är de rena nybörjarmisstagen. Man kanske naivt identifierar etik med vissa berömda bioetiska principer, som om etik inte kunde vara något annat än så kallad principlism. Eller så tror man att datorsystem genom automatiserad analys av enskilda fall kan ”lära sig” etiska principer och ”bli moraliska”. Som om moral kunde upptäckas erfarenhetsmässigt eller empiriskt.

Den andra utmaningen har att göra med att etikexperterna själva är oeniga om den ”rätta” moralteorin. Det finns flera konkurrerande etiska teorier (konsekvensetik, pliktetik, dygdeetik med mera). Vilken moralisk rättningsmall ska programmerarna använda när datorer ska fås att lösa moraliska problem och dilemman som uppkommer i olika verksamheter? (Tänk på robotbilar i svåra trafiksituationer.)

Den första fallgropen kan åtgärdas med mer kunskap i etik. Hur hanterar vi den andra? Ska programmerare få välja moralteori fritt som det passar dem? Ska vi tillåta såväl konsekvensetiska som pliktetiska robotbilar på våra gator?

John-Stewart Gordons förslag är att så kallad maskinetik bör fokusera på överensstämmelser mellan olika moralteorier angående vad man inte får göra. Robotar bör förses med en bindande lista på sådant som måste undvikas som omoraliskt. Med den inskränkningen får robotarna sedan spelrum att använda och balansera mångfalden av moralteorier, för att på olika sätt lösa moraliska problem.

Sammanfattningsvis bör robotforskare och AI-programmerare konsultera etikexperterna, så att de undviker nybörjarmisstagen och förstår de metodologiska problem som uppkommer när inte ens experterna på området kan enas om den rätta moralteorin.

Allt detta förefaller både klokt och klargörande på ett plan. Samtidigt känner jag mig uppriktigt förvirrad kring själva idén om ”moraliska maskiner” (även om artikeln inte diskuterar idén, utan fokuserar på etiska utmaningar för ingenjörerna). Vad betyder idén? Inte så att jag betvivlar att artificiell intelligens kan designas enligt etiska krav. Vi kanske inte vill att robotbilar ska undvika kollisioner i stadstrafik genom att svänga in på trottoarer där många människor promenerar. I den meningen kan det finnas etisk programvara, ungefär som det finns etiska aktiefonder. Vi kunde tala om moraliska och omoraliska robotbilar, lika självklart som vi talar om etiska och oetiska fonder.

Ändå känner jag mig som sagt osäker. Varför? Jag inledde med att skriva ”så kallade” moraliska robotar. Det gjorde jag för att jag inte är bekväm med att tala om moraliska maskiner, men är öppen för förslag på vad det kan betyda. Jag tror att vad som förvirrar mig är att moraliska maskiner omnämns utan distanserande uttryck, som om alla egentligen borde veta vad det måste betyda. Etikexperter är oense om den ”rätta” moralteorin. Men de tycks eniga om att moralteori bestämmer vad ett moraliskt beslut är, ungefär som språkläran bestämmer vad en grammatisk mening är. Med den tilltron till moralteori behöver man inte fundera över vad en moralisk maskin är. Det är helt enkelt en maskin som fattar beslut enligt accepterad moralteori. Men fattar maskiner beslut i samma mening som människor gör det?

Kanske handlar det om betoning. Vi talar om etiska fonder utan att känna yrsel inför att en aktiefond kan vara etisk (”Kan de vara humoristiska också?”). Det finns ingen mytologisk betoning i talet om etiska fonder. På samma sätt kan vi tala om etiska robotbilar utan att känna yrsel som inför något övernaturligt. Men i den filosofiska diskussionen om maskinetik omnämns ibland moraliska maskiner på ett mytologiskt sätt, tycks det mig. Som om en kentaur, en maskin-människa, snart ser dagens ljus. Samtidigt ska vi inte känna yrsel inför dessa sköna nya kentaurer, eftersom experterna kan bokstavera exakt vad de talar om. Med alla rättningsmallar i händerna behöver de inga distanserande uttryck!

Jag misstänker att även etisk expertis kan vara en filosofisk fallgrop när vi intellektuellt närmar oss så kallade moraliska maskiner. Expertattityden kan tysta de förvirrande frågor som vi alla behöver tid att reda ut, när uppriktiga tvivel gör uppror mot anspråket att veta.

Pär Segerdahl

Gordon, J. Building Moral Robots: Ethical Pitfalls and Challenges. Sci Eng Ethics 26, 141–157 (2020). https://doi.org/10.1007/s11948-019-00084-5

Detta inlägg på engelska

Vi ställer frågor : www.etikbloggen.crb.uu.se


Artificiell intelligens och det levande medvetandet

2 mars, 2020

Pär SegerdahlEtikbloggen kommer med flera inlägg om artificiell intelligens framöver. Idag vill jag bara göra en liten iakttagelse av någonting märkvärdigt.

Förra århundradet präglades av rädsla för människans medvetande. Vårt psyke föreföll lika mystiskt som själen, lika överflödigt i en vetenskaplig tidsålder som Gud. I psykologin frodades behaviorismen, som definierade psykologiska ord i termer av kroppsliga beteenden, som kunde studeras vetenskapligt i laboratoriet. Det levande medvetandet behandlades som en relik från en svunnen vidskeplig tid.

Vad är då så märkvärdigt med artificiell intelligens? Plötsligt tycks man avguda medvetandet. Man vältrar sig i psykologiska ord, åtminstone när man talar om vad datorer och robotar kan göra. Dessa maskiner ser och hör, de tänker och talar. De till och med lär sig själva.

Betyder detta att rädslan för medvetandet upphört? Knappast, för när man inom artificiell intelligens använder psykologiska ord såsom se och höra, tänka och förstå, så är orden inte psykologiska längre. Att datorer ”lär sig” är ett tekniskt begrepp som datorexperterna definierar i sina laboratorier.

När företrädare för artificiell intelligens vältrar psykologiska ord över robotar, så upprepar de alltså hur behavioristerna definierade människans psyke i termer av någonting annat. De psykologiska orden får nya maskinella betydelser, som överskuggar ordens betydelser hos levande människor.

Tänk på det, nästa gång du undrar om robotarna kan bli medvetna i framtiden. Utvecklingen bygger på rädslan för medvetandet. Vad du undrar är alltså inte om robotar kan bli medvetna. Du undrar om ditt eget medvetande kan vara vidskepelse. Märkvärdigt, eller hur?

Pär Segerdahl

Detta inlägg på engelska

Vi diskuterar aktuella frågor : www.etikbloggen.crb.uu.se


Hur ska framtidens AI-etik se ut?

11 juli, 2019

josepine-fernow-sienna-svKanske använder du Google Maps när du tar dig runt i en ny stad. Frågar Siri, Alexa eller Ok Google att spela din favoritlåt på Spotify, Kanske ber du din AI hitta något du vill köpa på Amazon, eller läsa upp ett meddelande från en kompis när du sitter i bilen. Bilen kanske har en semi-autonom adaptiv farthållare… För att det ska fungera behöver mjukvaran i de olika maskinerna samla in information: Data om dig, vart du är på väg, vilken musik du gillar, var och vad du brukar handla, vilka dina vänner är och vad ni pratar om. Och såklart väcker det frågan om du är villig att ge upp en del av ditt privatliv och en bit av din personliga frihet för att kunna dra nytta av fördelarna som den här typen av teknik har att erbjuda.

Det är svårt att förutse konsekvenserna av att utveckla och använda ny teknik. Myndigheter och organisationer sliter med att utvärdera etiken, juridiken kring tekniken. Och vilka konsekvenser den kan få för mänskliga rättigheter. Vi använder IT-system i forskning, inom industrin och i våra hem. Regleringen av systemen behöver fungera för alla som berörs av den. Vi vill skydda etiska värden och mänskliga rättigheter, möjliggöra forskning och utveckling, ta innovationer från universiteten till industrin, och se till att både stora och små företag kan utveckla sina affärsidéer. Och samtidigt se till att det finns acceptans i samhället för teknikutveckling.

EU tar det här på allvar och vill utveckla policy som bygger på forskning, empiriska data och konsultationer med de aktörer som är berörda. De senaste åren har EU investerat 10 miljoner Euro i tre forskningsprojekt som ska ta sig an etiken och mänskliga rättigheter kopplat till utvecklingen av nya digitala teknologier. Satsningen har skett genom Horizon2020-programmet och projekten PANELFIT, SHERPA och SIENNA.

Det första projektet, PANELFIT (som står för Participatory Approaches to a New Ethical and Legal Framework for ICT), kommer att utveckla riktlinjer för hur man ska hantera etiken och juridiken kring forskning och innovation på informations- och kommunikationsteknikområdet. Det andra projektet, SHERPA (som står för Shaping the ethical dimensions of Smart Information Systems (SIS) – A European Perspective), kommer att utveckla olika verktyg för att identifiera och hantera de etiska aspekterna av ”smarta” informationssystem. Det vill säga IT-system som kombinerar artificiell intelligens med analys av stora datamängder. Det tredje projektet, SIENNA (som står för Stakeholder-informed ethics for new technologies with high socio- economic and human rights impact), kommer att utveckla verktyg för forskningsetikkommittéer, etiska koder för olika yrkesgrupper, och bättre etiska och legala ramverk för AI och robotik, men också genetik och genomik och teknologi som kan användas för att förbättra människors egenskaper.

SSP-graphic

Alla projekten arbetar på olika sätt med att engagera både olika intressenter och allmänheten. De stödjer EUs vision om ansvarsfull innovation (det som på engelska kallas för RRI, eller Responsible Research and Innovation). Projekten samarbetar och SIENNA, SHERPA och PANELFIT har nyligen publicerat en gemensam artikel i tidskriften Orbit, där vi bjuder in alla er som på något sätt berörs av de här frågorna att prata med oss och på så sätt bidra till vårt arbete.

Vill du läsa mer? Rowena Rodrigues och Anaïs Resseguier har skrivit om nåra av frågorna som användandet av AI väcker på bloggen Ethics Dialogues (The underdog in the AI and ethical debate: human autonomy). Du kan också läsa mer om SIENNA-projektet i en tidigare post här på Etikbloggen (Ethics, human rights and responsible innovation).

Vill du veta mer om samarbetet mellan SIENNA, SHERPA och PANELFIT? I så fall hoppas jag att du vill läsa vår artikel i Orbit (Setting future ethical standards for ICT, Big Data, AI and robotics: The contribution of three European Projects), eller följa oss på YouTube och se en video från vårt gemensamma webbinarium den 20 maj i år (SIENNA, SHERPA, PANELFIT: Setting future ethical standards for ICT, Big Data, SIS, AI & Robotics).

Vill du veta hur SIENNA-projektet tänker omkring AI och robotik? Ladda ner infografiken i pdf-format här och läs vår state-of-the-art review för AI och robotik (rapport från SIENNA projektet).

c_721882-l_1-k_webb

Josepine Fernow

Detta inlägg på engelska

Vad är hållbarhet i framtiden? - Etikbloggen


Förarlös trafiketik

20 juni, 2018

Pär SegerdahlRobotbilar styrs av datorprogram med stora mängder trafikregler. Men i trafiken sker inte allt friktionsfritt enligt reglerna. Plötsligt springer ett barn ut i vägen. Två personer försöker hjälpa en cyklist som kollapsat på vägen. En bilist försöker göra en U-sväng på en alltför smal väg och blir stående på tvären.

Förutsatt att robotbilarnas program lyckas kategorisera trafiksituationerna via bildinformation från bilens kameror, så måste programmen välja lämpliga körbeteenden för robotbilarna. Ska bilarna bryta mot viktiga trafikregler genom att exempelvis styra in på trottoaren?

Det är mer komplicerat än så. Anta att en vuxen person promenerar på trottoaren. Bör den vuxnes liv äventyras för att rädda barnet? Eller för att rädda cyklisten och de två hjälpsamma?

Konstruktörerna av självkörande bilar har en svår uppgift. De måste programmera bilarnas val av körbeteende i etiskt komplexa situationer som vi kallar oväntade, men som konstruktörerna måste förutse långt i förväg. De måste så att säga redan i fabriken bestämma hur bilmodellen ska bete sig i framtida ”helt oväntade” trafiksituationer. Kanske tio år senare. (Jag förutsätter att programvaran inte uppdaterats; men även uppdaterad mjukvara innebär att man förutser vad vi normalt ser som oväntat.)

På ett samhälleligt plan försöker man nu enas kring etiska regler för hur framtida robotbilar bör bete sig i tragiska trafiksituationer där det kanske inte går att helt undvika skador eller dödsfall. En kommission initierad av tyska transportministeriet föreslår exempelvis att robotbilarnas passagerares liv aldrig får offras för att rädda livet på ett större antal personer i trafiksituationen.

Vem skulle för övrigt köpa en robotbil som är programmerad att offra ens liv? Vem skulle ta en sådan robottaxi? Samtidigt är vi kanske som förare beredda att offra oss, när vi faktiskt konfronteras med oväntade trafiksituationer. Några forskare bestämde sig för att undersöka saken. Du kan läsa om studien i ScienceDaily, eller läsa forskningsartikeln i Frontiers in Behavioral Neuroscience.

Forskarna använde VR-teknik (Virtual Reality) för att utsätta försökspersoner för etiskt svåra trafiksituationer. Sedan studerade man försökspersonernas val av trafikbeteende. Forskarna fann att försökspersonerna var överraskande villiga att offra sig själva för att rädda andra. Men de tog även hänsyn till potentiella trafikoffers ålder samt var beredda att styra in på trottoaren för att minimera antalet trafikoffer. Detta strider mot normer som vi håller viktiga i samhället, som att åldersdiskriminering inte får förekomma och att oskyldigas liv bör skyddas.

Folk är kort sagt benägna att köra bil på ett politiskt inkorrekt sätt!

Varför gjordes studien? Såvitt jag förstår för att de trafiketiska regler som nu föreslås centralt inte tar hänsyn till empiriska data om hur levande förare är benägna att köra sina bilar i etiskt svåra trafiksituationer. Robotbilarna kommer att fatta etiska beslut som kan göra ägarna av bilarna missnöjda med sina bilar; moraliskt missnöjda!

Forskarna förespråkar dock inte att förarlösa bilar bör reagera på etiskt komplexa trafiksituationer så som levande människor gör det. Men diskussionen om förarlös trafiketik bör ta hänsyn även till data om hur levande människor är benägna att köra sina bilar i trafiksituationer där det kanske inte går att undvika olyckor.

Låt mig komplettera empirin med några filosofiska funderingar. Något som slår mig när jag läser om förarlös trafiketik, är nämligen detta att ”det oväntade” försvinner som realitet. En levande förare som försöker hantera en plötslig trafiksituation hanterar något som mycket påtagligt händer just nu. Robotbilen fattar däremot beslut som tickar fram lika förutbestämt som varje annat beslut; som att stanna vid rött ljus. Trafiketiken är bara ytterligare programvara som robotbilen utrustats med på fabrik (eller vid uppdatering av programvaran).

Vad får det för konsekvenser?

En levande förare som plötsligt hamnar i en svår trafiksituation konfronteras (som sagt) med något som sker just nu. Föraren får bära ansvaret för sitt agerande i detta intensiva ögonblick under resten av sitt liv. Även om en medtrafikant rationellt offras för att rädda livet på tio, så kommer föraren att bära bördan av detta dödsfall, drömma om det, fundera över det. Och om föraren fattar ett dumt beslut som skadar fler än det räddar, så kan det ändå vara möjligt att med tiden försonas med det, just för att situationen var så oväntad.

Detta gäller däremot inte för robotbilen, som programmerats på fabrik enligt riktlinjer från trafikmyndigheterna. Vi skulle kanske vilja säga att robotbilen var förprogrammerad att offra vår systers liv, där hon helt oskyldigt kom gående på trottoaren. Hade bilen styrts av en levande människa, så hade vi blivit arga på föraren. Men efter en tid hade vi möjligen kunnat börja försona oss med förarens beteende. Det var ju en oväntad situation! Och föraren lider själv av sitt agerande!

Men om det var en robotbil som betedde sig perfekt enligt tillverkarens program och myndigheternas rekommendationer, då kanske vi skulle ha sett det som en skandal att bilen var förprogrammerad att styra in på trottoaren, där vår syster oskyldigt kom gående.

Ett skäl som anförs för förarlösa bilar är att de, genom att minimera den mänskliga faktorn, kan minska antalet trafikolyckor. Det är möjligt att de kan. Men kanske har vi, just för att den mänskliga faktorn minimeras, mindre överseende med hur de programmerats att rädda liv i etiskt svåra situationer. Inte nog med att de är förprogrammerade. De bär inte heller det ansvar som levande människor tvingas bära. Även för rationella beslut.

Nåväl, vi kommer säkert att finna oss tillrätta med de förarlösa bilarna. Men en annan fråga bekymrar mig ännu. Om det levande nuet försvinner som realitet i de förarlösa bilarnas etikmjukvara, har det inte redan försvunnit i den etik som föreskriver moraliskt rätt och fel för oss levande?

Pär Segerdahl

Detta inlägg på engelska

Vi tar upp aktuella frågor : www.etikbloggen.crb.uu.se


Teknik, etik och mänskliga rättigheter

31 oktober, 2017

Josepine FernowNy teknik påverkar både samhället och oss som individer, men det är svårt att förutse hur. Idag använder de flesta både smarta telefoner och intelligent programvara varje dag. Vissa behöver proteser eller implantat för att få livet att fungera. Många av oss kommer att leva när förarlösa bilar kan ses i trafiken. Forskning visar att dementa som klappar robotkatter får ökad livskvalitet. Genetiska tester är billigare än någonsin och tillgängliga för både patienter och konsumenter. Om du spottar i ett provrör och skickar det till ett företag i USA får du en genetisk analys som berättar var dina förfäder kommer ifrån. Vem vet, kanske är en liten andel av dina gener från en överraskande exotisk plats. Kanske påverkar det din bild av vem du är?

Ny (och gammal) teknik kommer med både etiskt och juridiskt bagage. Sådant vi förr bara kunde föreställa oss i science fiction är möjligt idag. Teknik utvecklas fort och det är svår att förutse hur den kommer att användas när nästa generation växer upp. Dagens lagstiftning, reglering och etiska riktlinjer utvecklades för en annan framtid än vår nutid. Politiska beslutsfattare sliter med att förstå och hantera de etiska (och juridiska) konsekvenserna av ny teknik. Teknik väcker också frågor om mänskliga rättigheter. Vad händer när Saudiarabien, ett land som kritiseras för att inte ge kvinnor lika rättigheter, ger en robot hedersmedborgarskap? Den här hösten kommer en grupp forskare från Europa, Asien, Afrika och Amerika att belysa några av de här frågorna och börja sitt arbete med att förbättra etiska och juridiska ramverk för ny teknik.

SIENNA-projektet, eller Stakeholder-informed ethics for new technologies with high socio-economic and human rights impact som det egentligen heter, kommer att leverera förslag på professionella etiska koder, riktlinjer för forskningsetikkommittéer och förslag på förbättringar i Europeisk lagstiftning. Gruppen kommer också att arbeta med de mer filosofiska frågorna som teknikutvecklingen väcker: Var drar vi gränsen mellan hälsa och sjukdom? Kan vi förvänta oss att intelligent programvara beter sig på ett moraliskt sätt? Går vi med på att ge upp en del av vår integritet för att ta reda på om vi har risk för genetisk sjukdom? Och om priset vi betalar för att interagera med maskiner är att ge upp en del av vår personliga frihet, är vi i så fall villiga att betala det?

Projektet koordineras av tekniska universitetet i Twente, Nederländerna. Uppsala universitets Centrum för forsknings- & bioetik (CRB) bidrar med sin expertis kring etiken, juridiken och de sociala konsekvenserna av genteknik. Vi bidrar också med vår erfarenhet av att arbeta med forskningskommunikation i Europeiska projekt. Vill du veta mer? Besök www.sienna-project.eu.

Josepine Fernow

SIENNA-projektet – Stakeholder-informed ethics for new technologies with high socio-economic and human rights impact – har fått närmare €4 miljoner för ett projekt som löper på 3,5 år inom ramen för Europeiska Unionens H2020 forsknings- och innovationsprogram, grant agreement No 741716. Observera att den här texten och dess innehåll enbart uttrycker SIENNA-projektets synpunkter. EU-Kommisionen är inte ansvarig för hur innehållet används.

SIENNA project: Technology, ethics and human rights

Detta inlägg på engelska

Vi tolkar framtiden - etikbloggen


%d bloggare gillar detta: