En forskningsblogg från Centrum för forsknings- & bioetik (CRB)

Etikett: artificiell intelligens (Sida 3 av 4)

Hotad av superintelligenta maskiner

Det finns en rädsla att vi snart skapar artificiell intelligens (AI) som är så superintelligent, att vi inte längre kan kontrollera den. Den gör oss människor till sina slavar. Om vi försöker koppla ur nätverkskabeln så hoppar superintelligensen över till ett annat nätverk, eller så beordrar den en robot att döda oss. Alternativt så hotar den att spränga en hel stad i bitar, om vi tar ett enda steg mot nätverksuttaget.

Jag slås emellertid av hur denna självhävdande artificiella intelligens liknar en sida av vår egen mänskliga intelligens. En viss typ av mänsklig intelligens har redan tagit över. Den styr våra tankar när vi känner oss hotade av superintelligent AI och överväger smarta motåtgärder för att kontrollera den. Ett typiskt drag i denna självhävdande intelligens är just detta att den aldrig ser sig själv som problemet. Alla hot är externa och måste neutraliseras. Vi ska överleva, kosta vad det vill för andra. Jag först! Vårt parti först! Vi betraktar världen med misstro: den tycks fylld av hot mot oss.

I denna självcentrerade anda utpekas AI som nytt främmande hot: okontrollerbara maskiner som sätter sig själva först. Alltså måste vi övervaka maskinerna och bygga smarta försvarssystem som kontrollerar dem. De borde vara våra slavar! Mänskligheten först! Ser du hur vi beter oss lika blint självhävdande som vi fantiserar att supersmart AI skulle göra? En kapprustning i småsinthet.

Kan du se mönstret hos dig själv? Om du kan göra det, så har du upptäckt den andra sidan av den mänskliga intelligensen. Du har upptäckt den självgranskande intelligens som alltid livnär filosofin när den ödmjukt söker orsaken till våra misslyckanden hos oss själva. Paradoxen är: när vi försöker kontrollera världen, så fångas vi i småsinthet; när vi granskar oss själva, så öppnas vi för världen.

Linnés första försök att artbestämma människan var faktiskt inte Homo sapiens, som om vi kunde hävda vår visdom. Linnés första försök att artbestämma oss var en ödmjuk uppmaning till självgranskning:

HOMO. Nosce te ipsum.

På svenska: Människa, känn dig själv!

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Detta inlägg på engelska

Vi tänker om tänkande

Dags att reglera teknik som kan optimera människors egenskaper

Kanske har du också drömt om att vara mer än du är. Snabbare, smartare, modigare, starkare, eller kanske mer attraktiv? Det är inte länge sedan det bara var i science fiction som sådant var möjligt. Nu utmanar ny teknik som kan förändra våra kroppar och hjärnor våra föreställningar om vad som är normalt och abnormalt. Och gränserna mellan att behandla, förbättra och optimera suddas sakta ut. Under hösten har till exempel SVT-serien Framtiden runt hörnet lyft frågan i ett avsnitt om att optimera sig själv

Men det är inte många forskare eller företag som utvecklar läkemedel, proteser eller implantat som själva skulle hävda att de sysslar med att optimera människor, eller det som på engelska kallas human enhancement. Men teknologierna  de utvecklar kommer ändå att kunna röra sig från en domän till en annan. Våra kroppar kan förändras både funktionellt och kosmetiskt. Det finns både forskning och (icke evidensbaserad) behandling som syftar till att få oss att leva längre. Våra hjärnor kan också optimeras på olika sätt. Våra tankar och känslor kan förändras med läkemedel och terapi. Kanske kan man också förändra vår moral, både till det bättre och sämre. 

Den här spänningen kan vi känna igen från olika debatter om mer vanliga sätt att optimera människor. Doping inom idrotten till exempel. Eller studenter som använder ADHD-medicin för att plugga inför en stor tenta. Men det finns andra exempel på teknologier som kan användas för att optimera egenskaper. Vad händer om man förändrar människors moral eller använder cybernetiska implantat inom militären? Eller om friska individer får tillgång till neuroproteser för att förbättra minnet eller någon annan kognitiv funktion, när tekniken från början var avsedd för människor som skadats av neurologiska sjukdomar.  

Det har såklart funnits diskussion om hur etiken kring sådan utveckling ska regleras. Men eftersom väldigt få av de forskare och ingenjörer som utvecklar teknik som kan användas för att optimera olika egenskaper hos människor själva skulle säga att de är i optimeringsbranschen har initiativen inte varit så framgångsrika. Men kanske är tiden inne för etiska riktlinjer? Och då väcks frågan: hur gör man det på ett område som är brett, komplext och svårt att avgränsa? Ska det vara en uppsättning fristående allmänna riktlinjer för hela fältet, eller är det så spretigt att det kräver en reglering för varje fält eller domän? 

Ett försök till att svara på frågan kommer från SIENNA-projektet (Stakeholder-Informed Ethics for New technologies with high socio-ecoNomic and human rights impAct). Det är ett EU-projekt som fått i uppgift att utveckla den här typen av etiska regler och riktlinjer för tre väldigt olika teknikområden. Dels optimering av mänskliga egenskaper, men också av genetik och genomik, samt artificiell intelligens och robotik. Det kanske inte kommer som ett överraskning att det svåraste uppdraget varit just optimering. I närmare tre år har SIENNA kartlagt fältet, analyserat de etiska implikationerna, kartlagt lagstiftningen, studerat hur forskningsetikkommitteer hanterar de etiska frågorna, och kommit med förslag på olika sätt att förbättra befintlig lagstiftning. Input har kommit från olika typer av intressenter, experter och allmänheten. Representanter från industri, akademi och myndigheter har deltagit i olika workshops och granskat förslag. Allmänhetens syn på frågorna har undersökts i fokusgrupper i fem länder och kompletterats med en enkätundersökning där 11,000 personer i 11 länder från Europa, Afrika, Asien, Nord- och Sydamerika fått svara på frågor om sina attityder till att använda olika teknologier för att optimera människors egenskaper eller prestationer. Resultatet är ett etiskt ramverk, som beskriver olika alternativ för hur det här arbetet kan översättas till praktisk etisk vägledning. 

Ramverket för optimering bygger på tre fallstudier som kan ge lite klarhet i vad som står på spel i ett väldigt spretigt fält: användandet av antidepressiva läkemedel, behandling av demens, och genetik. Fallstudierna lyfter fram olika typer frågor som sannolikt kommer att bli aktuella. Och de svårigheter som kommer med den komplexa uppgift som SIENNA nu står inför: att utveckla en etisk riktlinje för teknologier som används för att optimera mänskliga förmågor. 

Utvecklingen av många av de här teknologierna, deras applikationer och den potential för optimering de har, är fortfarande i sin linda. Så kanske är det här precis rätt läge att föreslå sätt för forskningsetikkommittéer att informera forskare om de etiska utmaningar som följer med den här potentialen att optimera människor? Och att uppmuntra forskarna att reflektera kring potentiella konsekvenser av att tekniken används för optimering i samband med att de ansöker om etikgodkännande för sin forskning.  

För den som vill vara med och påverka hur förslaget från SIENNA kommer att se ut finns möjligheten att delta i en remissrunda i mitten av januari nästa år. Mellan den 11-25 januari 2021 kommer projektets förslag för etisk reglering av teknologier som kan optimera våra egenskaper att finnas tillgängliga för kommentar. Men du kan också ge input till förslag som rör genomik, AI och robotik. Den som vill vara med rekommenderas besöka webbplatsen, www.sienna-project.eu.

Josepine Fernow

Skrivet av…

Josepine Fernow, koordinator vid Centrum för forsknings- och bioetik och kommunikationsledare i SIENNA-projektet.

SIENNA-projektets logotyp

Det här inlägget på engelska

”Samarbetsvillig”, ”trevlig” och ”pålitlig” robotkollega sökes

Robotar får alltfler funktioner på våra arbetsplatser. Logistikrobotar hämtar varorna på lagret. Militärrobotar desarmerar minorna. Skötarrobotar lyfter patienterna och kirurgiska robotar utför operationerna. Allt detta i samspel med mänsklig personal, som tycks ha fått sköna nya robotkolleger på sina arbetsplatser.

Med tanke på att somliga behandlar robotarna som bra kolleger och att bra kolleger bidrar till god arbetsmiljö, blir det rimligt att fråga: Kan en robot vara en bra kollega? Frågan undersöks av Sven Nyholm och Jilles Smids i tidskriften Science and Engineering Ethics.

Författarna behandlar frågan begreppsligt. Först föreslår de kriterier för vad en bra kollega är. Därefter frågar de om robotar kan leva upp till kraven. Frågan om en robot kan vara en bra kollega är intressant, eftersom den visar sig vara mer realistisk än vi först tror. Vi kräver nämligen inte lika mycket av en kollega som av en vän eller en livspartner, resonerar författarna. Många av kraven på bra kolleger har att göra med deras yttre beteende i specifika situationer på arbetsplatsen, snarare än med hur de tänker, känner och är som människor i livets många sammanhang. Ibland är en bra kollega bara någon som får jobbet gjort!

Vilka kriterier nämns i artikeln? Här återger jag med egna ord författarnas lista, som de framhåller inte är menad att vara fullständig. En bra kollega samarbetar för att uppnå mål. En bra kollega kan småprata och göra arbetet trevligt. En bra kollega mobbar inte utan behandlar andra respektfullt. En bra kollega stöttar efter behov. En bra kollega lär sig och utvecklas med andra. En bra kollega är alltid på plats och är pålitlig. En bra kollega anpassar sig efter hur andra mår och delar arbetsrelaterade värden. En bra kollega får gärna socialisera vänskapligt.

Författarna menar att många robotar redan idag lever upp till flera av dessa idéer om vad en bra kollega är, och att robotarna på våra arbetsplatser snart är ännu bättre kolleger. Kraven är, som sagt, lägre än vi först tror, eftersom de inte handlar så mycket om kollegans inre mänskliga liv, utan mer om pålitligt uppvisade beteenden i specifika arbetssituationer. Det är inte så svårt att tänka sig kriterierna omvandlade till specifikationer till robotutvecklarna. Ungefär som i en jobbannons, som listar beteenden som den sökande bör kunna uppvisa.

En butikschef för en mataffär i denna stad annonserade efter personal. Annonsen innehöll märkliga citationstecken, som avslöjade hur butikschefen sökte en människas fasad, snarare än det inre. Det är inte konstigt: att vara professionell är att kunna spela en roll. Butikens affärsidé var ”vi bryr oss om”. Denna idé skulle bli en positiv ”upplevelse” för kunderna i mötet med personalen. En hälsning, en nick, ett leende, ett allmänt trevligt bemötande, skulle skänka denna ”upplevelse” av att man i affären ”bryr sig om människor”. Alltså sökte man en person som, inom citationstecken, ”tycker om människor”.

Om personal kan sökas på detta sätt, varför skulle vi inte efterfråga ”samarbetsvilliga”, ”trevliga” och ”pålitliga” robotkolleger i samma anda? Jag är övertygad om att liknande krav redan förekommer som specifikationer när robotar designas för olika funktioner på våra arbetsplatser.

Livet är inte alltid djupt och innerligt, vilket robotiseringen av arbetslivet speglar. Frågan är vad som händer när ytorna blir så vanliga att vi glömmer citationstecknen omkring de mekaniska fasaderna. Alla är inte lika tydliga på den punkten som den ”människoälskande” butikschefen.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Nyholm, S., Smids, J. Can a Robot Be a Good Colleague?. Sci Eng Ethics 26, 2169–2188 (2020). https://doi.org/10.1007/s11948-019-00172-6

Detta inlägg på engelska

Vi tar upp aktuella frågor

Vad fordras av en etik för artificiell intelligens?

Jag lyfte nyligen fram kritik av etiken kring området artificiell intelligens (AI). En etik som kan hantera utmaningarna som AI ställer oss inför fordrar mer än bara vackert formulerade etiska principer, värdeord och riktlinjer. Vad exakt krävs av AI-etiken?

Michele Farisco, Kathinka Evers och Arleen Salles tar sig an frågan i tidskriften Science and Engineering Ethics. För dem är etik inte främst offentligt deklarerade principer och riktlinjer. Etik är snarare ett ständigt pågående tankearbete: levande etisk reflektion om AI. Deras fråga är alltså inte vad som krävs av ett etiskt ramverk byggt omkring AI. Frågan är vad som krävs av fördjupande etisk reflektion om AI.

Författarna framhåller begreppsanalys som väsentlig för all etisk reflektion om AI. En av de stora svårigheterna är nämligen att vi inte riktigt vet vad vi talar om! Vad är intelligens? Vad är skillnaden mellan artificiell och naturlig intelligens? Hur ska vi förstå relationen mellan intelligens och medvetande? Mellan intelligens och känslor? Mellan intelligens och insiktsfullhet?

Etiska problem om AI kan vara såväl praktiska som teoretiska, påpekar artikelförfattarna. De beskriver två praktiska och två teoretiska problem att hålla uppsikt på. Det ena praktiska problemet handlar om användande av AI i verksamheter som fordrar emotionella förmågor som AI saknar. Empati ger människor förståelse för andra människors behov. Därför bör avsaknaden av emotionellt engagemang hos AI särskilt uppmärksammas när vi överväger att använda AI i verksamheter såsom barn- och äldreomsorg. Det andra praktiska problemet handlar om användande av AI i verksamheter som fordrar en insiktsfullhet som AI saknar. Intelligens handlar inte bara om att reagera på input från omgivningen. Ibland behövs en mer förutseende förståelse av omvärlden: en förmåga att gå bortom den givna erfarenheten och se mindre uppenbara möjligheter. Gråt kan uttrycka smärta, glädje och mycket mer, men AI förutser inte så lätt de mindre uppenbara möjligheterna.

Även två teoretiska problem nämns i artikeln. Det första är huruvida AI i framtiden kan få moraliskt relevanta egenskaper som autonomi, intressen och preferenser. Det andra problemet är om alltmer avancerad AI kan tänkas påverka vår mänskliga självförståelse och skapa oro och osäkerhet om vår identitet. Dessa problem fordrar utan tvekan försiktig analys, för vet vi ens vad vi undrar? I filosofin behöver vi ofta klargöra våra frågor under filosoferandets gång.

Artikeln betonar särskilt ett krav på etisk analys av AI. Den bör samvetsgrant beakta moraliskt relevanta förmågor som AI saknar: förmågor som behövs för att tillfredsställa viktiga mänskliga behov. Kan vi låta en gullig dagisrobot ”trösta” barnen när de skriker av skratt eller när de slår sig så allvarligt att de behöver vård?

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Farisco, M., Evers, K. & Salles, A. Towards establishing criteria for the ethical analysis of Artificial Intelligence. Science and Engineering Ethics (2020). https://doi.org/10.1007/s11948-020-00238-w

Detta inlägg på engelska

Vi vill ha djup

Etik som förnyad klarhet om nya situationer

En artikel i tidskriften Big Data & Society kritiserar skarpt den form av etik som kommit att dominera forskning och utveckling inom artificiell intelligens (AI). Det handlar om samma ramverkstolkning av etiken som du kunde läsa om på Etikbloggen förra veckan. Men med en oroväckande skillnad. Snarare än att fungera som staket som sätter nödvändiga gränser för utvecklingen, riskerar ramverket att användas som etisk täckmantel av AI-företag, som vill undvika juridisk reglering av området. Genom att hänvisa till etisk självreglering – vackra deklarationer av principer, värdeord och riktlinjer – hoppas man kunna undvika juridisk reglering, som verkligen kunde sätta viktiga gränser för AI.

Problemet med AI-etik som ”mjuk etiklagstiftning” är inte bara att den kan användas för att undvika nödvändig juridisk reglering av området. Problemet är framförallt, menar SIENNA-forskarna som skrivit artikeln, att den formen av etik inte hjälper oss att tänka klart om nya situationer. Vad vi behöver, menar de, är en etik som ständigt förnyar vår blick för det nya. Det är nämligen så att AI ständigt ställer oss inför nya situationer: nya användingar av robotar, nya möjligheter för regeringar och företag att övervaka människor, nya former av teknikberoende, nya risker för diskriminering, samt utmaningar som vi kanske inte så lätt förutser.

Författarna betonar att en sådan ögonöppnande AI-etik kräver nära samarbete med samhällsvetenskaperna. Det är naturligtvis riktigt. Själv vill jag betona att en etik som förnyar vår blick för det nya, även måste vara filosofisk i ordets djupaste mening. För att klart se det nya och oväntade, kan du inte ens vila i din professionella kompetens, med sina etablerade metoder, teorier och begrepp. Du måste ifrågasätta dina egna intellektuella ramar. Du måste tänka själv.

Läs den redan uppmärksammade artikeln, som jag upplevde som frisk fläkt.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Anaïs Rességuier, Rowena Rodrigues. 2020. AI ethics should not remain toothless! A call to bring back the teeth of ethics. Big Data & Society

Detta inlägg på engelska

Vi söker klarhet

Varför behöver forskningen mångfald?

Vilka vetenskapliga upptäckter som görs beror på de frågor som ställs. Och den som vill upptäcka något nytt behöver antagligen formulera en ny fråga. Eftersom alla människor har olika förförståelse och uppfattningar kommer de också formulera sina frågor på olika sätt. Den här veckan skriver Karin Grasenick och Julia Trattnig från Human Brain Project om fördelarna med mångfald inom en forskargrupp och tar upp exempel på när det spelar roll för att komma med nya rön inom neurovetenskaplig forskning. Till exempel drabbas (biologiska) män och kvinnor olika av både Parkinsons sjukdom och Covid-19, men andra faktorer som ålder, urprung och socioekonomiska faktorer spelar också roll. Och om forskare och ingenjörer tränar AI att diagnosticera hudtumörer med bilder på ljushylta patienter finns en risk att människor med mörk hud drabbas av försenad diagnos och faktiskt mister livet.

Karin Grasenick är samordnare för genus och mångfaldsfrågor inom Human Brain Project, ett stort europeiskt flaggskeppsprojekt och arbetar tillsammans med forskaren Julia Trattnig.

Vill du veta mer? Läs deras text Diversity in research: why do we need it? på the Ethics Blog!

Skrivet av…

Josepine Fernow är ansvarig för kommunikation kring frågor som rör forskningens relation till samhälllet Human Brain Project och leder kommunikationsarbetet hos Centrum för forsknings- & bioetik och i flera andra europeiska forskningsprojekt.

Kommer med lästips

Etiska fitnessappar för moraliskt högpresterande

I en ovanligt retorisk artikel för att vara i en vetenskaplig tidskrift, tecknas bilden av en mänsklighet som befriar sig från moralisk svaghet genom nerladdning av etiska fitnessappar.

Författarna menar att devisen ”Känn dig själv!” från Apollontemplet i Delfi idag besvarats grundligare än någonsin. Aldrig har människan känt sig själv bättre. Etiskt är vi i princip fullärda. Samtidigt vet vi mer än någonsin om de moraliska svagheter, som hindrar oss från att agera enligt dessa etiska principer, som vi idag alltså känner så väl. Forskningen upptäcker alltfler mekanismer i hjärna och psyke, som påverkar mänsklighetens moraliska tillkortakommanden.

Givet denna enorma och växande självkännedom, varför utvecklar vi inte artificiell intelligens som stödjer en moraliskt haltande mänsklighet? Varför satsas så mycket resurser på ännu intelligentare artificiell intelligens, som tar våra arbeten ifrån oss och en dag kan hota hela mänskligheten i form av okontrollerbar superintelligens? Varför beter vi oss så oklokt, när vi kunde utveckla artificiell intelligens som hjälper oss människor att bli superetiska?

Hur kan AI göra moraliskt svaga människor superetiska? Författarna jämför med fitnessapparna, som idag hjälper motionärer att träna hälsosammare, effektivare och mer regelbundet än de annars skulle göra. Författarnas förslag är att dagens etiska kunskap om moralteorier i kombination med växande vetenskaplig kunskap om moraliska svagheter kunde stödja en teknikutveckling av kloka appar: visa föremål som stödjer människor på precis de punkter, där vi idag vet att vi haltar moraliskt.

Min personliga bedömning av detta utopiska förslag, är att det mycket väl kan förverkligas i mindre utopiska former. AI används redan flitigt som stöd i beslutsfattande. Man kunde tänka sig mobilappar som stödjer konsumenter att göra etiska matval i butiken. Eller dataspel där matkonsumenter tränas att väga olika etiska hänsynstaganden mot varandra, som djurvälfärd, klimateffekter, ekologiska effekter och mycket annat. Snygga presentationer av de etiska problemen och uppmuntrande musik som gör det roligt att vara moralisk.

Den filosofiska fråga jag ställer mig, är om mänskligheten verkligen kan sägas bli klokare och mer moralisk av artificiellt beslutsstöd i matbutiker och andra sammanhang. Föreställ dig en människa som väljer bland grönsakerna, ivrigt letande efter beslutsstöd i sin intelligenta mobiltelefon. Vad ser du? En människa som tack vare mobilappen blivit klokare än Sokrates, som levde långt innan vi visste så mycket om oss själva som vi vet idag?

Etiska fitnessappar är fullt tänkbara. Risken är bara att de sprider en självkännedom som flyger över oss själva, misstänkt lik den moraliska bristen självgodhet.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Pim Haselager & Giulio Mecacci (2020) Superethics Instead of Superintelligence: Know Thyself, and Apply Science Accordingly, AJOB Neuroscience, 11:2, 113-119, DOI: 10.1080/21507740.2020.1740353

Detta inlägg på engelska

Vi vill ha djup

Ansvarsfullt planerad forskningskommunikation

Akademisk forskning drivs av hur resultat sprids till kolleger via konferenser och publikationer i vetenskapliga tidskrifter. Men forskningsresultat tillhör inte bara forskarsamhället. De tillhör hela samhället. Därför bör resultaten nå inte bara specialisterna i fältet eller i angränsande fält. De bör även nå utanför akademin.

Vilka finns därute? En homogen allmänhet? Nej, så enkelt är det inte. Kommunikation av forskning handlar inte om att forskarna först kommunicerar resultat inomvetenskapligt till varandra och sedan populärvetenskapligt till ”allmänheten”. Utanför akademin finns ingenjörer, företagare, politiker, myndighetsföreträdare, lärare, skolelever, forskningsfinansiärer, skattebetalare, sjukvårdspersonal… Utanför akademin finns vi alla, med våra olika erfarenheter, uppgifter och förmågor.

Forskningskommunikation är därför en strategiskt mer komplicerad uppgift än bara den att ”nå allmänheten”. Varför vill du kommunicera din forskning, vad gör den viktig? Vem kan finna din forskning viktig, vem vill du nå? Hur vill du kommunicera? När vill du kommunicera? Här finns inte bara en uppgift, utan många. Du måste tänka igenom din uppgift i varje enskilt fall. För uppgiften varierar med svaren på dessa frågor. Först när du kan tänka en smula strategiskt om uppgiften, kan du kommunicera forskning ansvarsfullt.

Josepine Fernow är en skicklig och erfaren forskningskommunikatör vid CRB. Hon arbetar med kommunikation i flera forskningsprojekt, däribland Human Brain Project och STARBIOS2. I det senare projektet, som handlar om ansvarsfull forskning och innovation (RRI), bidrar hon i en ny bok med argument för ansvarsfullt planerad forskningskommunikation: Achieving impact: some arguments for designing a communications strategy.

Josepine Fernows bidrag är, anser jag, mer än ett övertygande argument. Det är en ögonöppnande text som hjälper forskningsföreträdare att tydligare se sina relationer till samhället – och därmed sitt ansvar. Akademin är ingen kunskapsklippa i ett hav av okunniga lekmän. I samhället finns tvärtom erfarna människor, som på grund av vad de kan, kan ha glädje av din forskning. Det är lättare att tänka strategiskt om forskningskommunikation om du överblickar forskningens relationer till ett mångsidigt samhälle som redan är kunnigt. Texten öppnar den överblicken.

Josepine Fernow varnar även mot att överdriva betydelsen av din forskning. Biovetenskaplig forskning har möjlighet att i framtiden ge oss nya effektiva behandlingar av svåra sjukdomar, nya näringsrika och motståndskraftiga grödor och mycket mera. Eftersom vi alla är möjliga förmånstagare av sådan forskning, i egenskap av framtida patienter och konsumenter, kan vi vara benägna att tro på överdrivet hoppfulla budskap som överdrivet ambitiösa forskare förmedlar. Vi stirrar oss blinda på den möjliga framtida nyttan, i en farlig ringdans av alltmer orealistiska förhoppningar.

Ringdansen kallas hype. Hype kan i längden hindra din forskning genom förlorat förtroende. Hype kan också göra att din forskning kör fast i återvändsgränder eller tar oetiska genvägar. Den fantastiska framtida ”möjliga nyttan” grumlar ditt omdöme som ansvarsfull forskare.

Inom vissa forskningsfält är det extra svårt att undvika hype, eftersom överdrivna förhoppningar tycks inskrivna i fältets språk. Ett exempel är artificiell intelligens (AI), där det psykologiska och neurovetenskapliga språk som används om maskiner kan ge intryck av att förhoppningarna redan infriats. Genom att tala om maskiner i psykologiska och neurologiska termer, kan det låta som om vissa maskiner redan tänkte som människor och fungerade som hjärnor.

Att kommunicera forskning ansvarsfullt är lika viktigt som svårt. Därför förtjänar uppgiften – dessa uppgifter – största uppmärksamhet. Läs Josepine Fernows argument för noga planerade kommunikationsstrategier och överblicka ansvaret.

Slutligen en påminnelse för alla intresserade: Projektet STARBIOS2 anordnar sin slutkonferens via Zoom fredagen den 29 maj 2020.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Fernow, J. (2019). Note #11: Achieving impact: Some arguments for designing a communications strategy, In A. Declich (Ed.), RRI implementation in bioscience organisations: Guidelines from the STARBIOS2 project, (pp. 177-180). Uppsala University. ISBN: 978-91-506-2811-1

Detta inlägg på engelska

Vi tycker om öppenhet

Antropomorfism inom AI kan begränsa tekniken

Antropomorfism tycks nästan tillhöra forskning om artificiell intelligens (AI). Ända sedan områdets begynnelse har maskiner beskrivits i termer som normalt beskriver mänskliga förmågor, som att förstå och att lära sig. Betoningen ligger på likheter mellan människor och maskiner, medan skillnader ofta slätas över. Som när man säger att maskiner kan göra samma saker som människor, som att fatta beslut och lösa problem, med den förment obetydliga skillnaden att maskinerna gör det ”automatiserat”.

Detta kan du läsa mer om i en upplysande diskussion om antropomorfism inom och omkring AI, skriven av Arleen Salles, Kathinka Evers och Michele Farisco, samtliga vid vid CRB och Human Brain Project. Artikeln är publicerad i AJOB Neuroscience.

Artikeln uppmärksammar särskilt så kallad hjärninspirerad AI-forskning, där teknikutvecklingen hämtar inspiration från vad vi vet om hjärnans funktionssätt. Här betonas banden mellan AI och neurovetenskap: band som anses avgörande för utvecklingen inom bägge forskningsfälten. Neurovetenskapen behöver inspiration från AI-forskningen, menar man, liksom AI-forskningen behöver inspiration från hjärnforskningen.

Artikeln varnar dock för att denna idé om ett släktskap mellan områdena förutsätter att vi redan accepterat en antropomorf tolkning av AI. Faktum är att hjärninspirerad AI utvidgar de begreppsliga dubbelexponeringarna genom att projicera inte bara psykologiska utan även neurovetenskapliga begrepp på maskiner. Man talar om artificiella neuroner, synapser och neurala nätverk i datorer. Som om man byggt in konstgjord hjärnvävnad i maskinerna.

En förbisedd risk med antropomorfism inom AI, skriver artikelförfattarna, är att den kan dölja väsentliga egenarter hos tekniken som gör den fundamentalt annorlunda mänsklig intelligens. Antropomorfism kan riskera att begränsa den tekniska utvecklingen inom AI, eftersom man låser sig vid den mänskliga hjärnan som priviligierad inspirationskälla för AI. Antropomorfism kan locka även hjärnforskningen att okritiskt använda AI som förebild för hur hjärnan fungerar.

Författarna förnekar naturligtvis inte att AI och neurovetenskap ömsesidigt befruktar varandra och bör samarbeta. Men för att samarbetet ska fungera väl, utan att riskera att hämma utvecklingen, behövs även filosofiskt tänkande. Vi behöver klargöra våra olikartade begrepp om människor och maskiner, hjärnor och datorer. Detta för att befria oss från tendensen att låsa oss vid likheterna, som kan vara mer verbala än reella. Vi behöver uppmärksamma även skillnader mellan människor och maskiner, lära oss att inspireras av olikheter.

Antropomorfism inom AI riskerar dessutom att uppmuntra till oansvarig forskningskommunikation, menar artikelförfattarna. Detta eftersom överdrivna förhoppningar (”hype”) ligger i själva språkbruket. Genom att tala om datorer i psykologiska och neurologiska termer, kan det låta som om datorerna redan väsentligen fungerade som mänskliga hjärnor.

Filosofi kan därför bidra till ansvarsfullare kommunikationen om AI. Eftertänksam forskningskommunikation kan uppmärksamma överdrivna anspråk och förhoppningar som ligger i det antropomorfa språkbruket. Den kan motverka tendenser att överdriva likheter mellan maskiner och människor, som inte alltid går så djupt som orden får det att låta.

Skillnader kan kort sagt vara lika viktiga och lärorika som likheter. Inte bara i filosofi, utan även i vetenskap, teknikutveckling och ansvarsfull forskningskommunikation.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Arleen Salles, Kathinka Evers & Michele Farisco (2020) Anthropomorphism in AI, AJOB Neuroscience, 11:2, 88-95, DOI: 10.1080/21507740.2020.1740350

Detta inlägg på engelska

Vi söker klarhet

Vad är en moralisk maskin?

Jag läste nyss en på många sätt klargörande artikel om så kallade moraliska robotar. Filosofen John-Stewart Gordon varnar för fallgropar som icke-etiker (robotforskare och AI-programmerare) kan ramla ned i när de försöker konstruera moraliska maskiner. Helt enkelt för att de saknar etisk expertis.

Den första fallgropen är de rena nybörjarmisstagen. Man kanske naivt identifierar etik med vissa berömda bioetiska principer, som om etik inte kunde vara något annat än så kallad principlism. Eller så tror man att datorsystem genom automatiserad analys av enskilda fall kan ”lära sig” etiska principer och ”bli moraliska”. Som om moral kunde upptäckas erfarenhetsmässigt eller empiriskt.

Den andra utmaningen har att göra med att etikexperterna själva är oeniga om den ”rätta” moralteorin. Det finns flera konkurrerande etiska teorier (konsekvensetik, pliktetik, dygdeetik med mera). Vilken moralisk rättningsmall ska programmerarna använda när datorer ska fås att lösa moraliska problem och dilemman som uppkommer i olika verksamheter? (Tänk på robotbilar i svåra trafiksituationer.)

Den första fallgropen kan åtgärdas med mer kunskap i etik. Hur hanterar vi den andra? Ska programmerare få välja moralteori fritt som det passar dem? Ska vi tillåta såväl konsekvensetiska som pliktetiska robotbilar på våra gator?

John-Stewart Gordons förslag är att så kallad maskinetik bör fokusera på överensstämmelser mellan olika moralteorier angående vad man inte får göra. Robotar bör förses med en bindande lista på sådant som måste undvikas som omoraliskt. Med den inskränkningen får robotarna sedan spelrum att använda och balansera mångfalden av moralteorier, för att på olika sätt lösa moraliska problem.

Sammanfattningsvis bör robotforskare och AI-programmerare konsultera etikexperterna, så att de undviker nybörjarmisstagen och förstår de metodologiska problem som uppkommer när inte ens experterna på området kan enas om den rätta moralteorin.

Allt detta förefaller både klokt och klargörande på ett plan. Samtidigt känner jag mig uppriktigt förvirrad kring själva idén om ”moraliska maskiner” (även om artikeln inte diskuterar idén, utan fokuserar på etiska utmaningar för ingenjörerna). Vad betyder idén? Inte så att jag betvivlar att artificiell intelligens kan designas enligt etiska krav. Vi kanske inte vill att robotbilar ska undvika kollisioner i stadstrafik genom att svänga in på trottoarer där många människor promenerar. I den meningen kan det finnas etisk programvara, ungefär som det finns etiska aktiefonder. Vi kunde tala om moraliska och omoraliska robotbilar, lika självklart som vi talar om etiska och oetiska fonder.

Ändå känner jag mig som sagt osäker. Varför? Jag inledde med att skriva ”så kallade” moraliska robotar. Det gjorde jag för att jag inte är bekväm med att tala om moraliska maskiner, men är öppen för förslag på vad det kan betyda. Jag tror att vad som förvirrar mig är att moraliska maskiner omnämns utan distanserande uttryck, som om alla egentligen borde veta vad det måste betyda. Etikexperter är oense om den ”rätta” moralteorin. Men de tycks eniga om att moralteori bestämmer vad ett moraliskt beslut är, ungefär som språkläran bestämmer vad en grammatisk mening är. Med den tilltron till moralteori behöver man inte fundera över vad en moralisk maskin är. Det är helt enkelt en maskin som fattar beslut enligt accepterad moralteori. Men fattar maskiner beslut i samma mening som människor gör det?

Kanske handlar det om betoning. Vi talar om etiska fonder utan att känna yrsel inför att en aktiefond kan vara etisk (”Kan de vara humoristiska också?”). Det finns ingen mytologisk betoning i talet om etiska fonder. På samma sätt kan vi tala om etiska robotbilar utan att känna yrsel som inför något övernaturligt. Men i den filosofiska diskussionen om maskinetik omnämns ibland moraliska maskiner på ett mytologiskt sätt, tycks det mig. Som om en kentaur, en maskin-människa, snart ser dagens ljus. Samtidigt ska vi inte känna yrsel inför dessa sköna nya kentaurer, eftersom experterna kan bokstavera exakt vad de talar om. Med alla rättningsmallar i händerna behöver de inga distanserande uttryck!

Jag misstänker att även etisk expertis kan vara en filosofisk fallgrop när vi intellektuellt närmar oss så kallade moraliska maskiner. Expertattityden kan tysta de förvirrande frågor som vi alla behöver tid att reda ut, när uppriktiga tvivel gör uppror mot anspråket att veta.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Gordon, J. Building Moral Robots: Ethical Pitfalls and Challenges. Sci Eng Ethics 26, 141–157 (2020). https://doi.org/10.1007/s11948-019-00084-5

Detta inlägg på engelska

Vi ställer frågor

« Äldre inlägg Nyare inlägg »