En forskningsblogg från Centrum för forsknings- & bioetik (CRB)

Kategori: Tänkvärt (Sida 4 av 20)

Hotad av superintelligenta maskiner

Det finns en rädsla att vi snart skapar artificiell intelligens (AI) som är så superintelligent, att vi inte längre kan kontrollera den. Den gör oss människor till sina slavar. Om vi försöker koppla ur nätverkskabeln så hoppar superintelligensen över till ett annat nätverk, eller så beordrar den en robot att döda oss. Alternativt så hotar den att spränga en hel stad i bitar, om vi tar ett enda steg mot nätverksuttaget.

Jag slås emellertid av hur denna självhävdande artificiella intelligens liknar en sida av vår egen mänskliga intelligens. En viss typ av mänsklig intelligens har redan tagit över. Den styr våra tankar när vi känner oss hotade av superintelligent AI och överväger smarta motåtgärder för att kontrollera den. Ett typiskt drag i denna självhävdande intelligens är just detta att den aldrig ser sig själv som problemet. Alla hot är externa och måste neutraliseras. Vi ska överleva, kosta vad det vill för andra. Jag först! Vårt parti först! Vi betraktar världen med misstro: den tycks fylld av hot mot oss.

I denna självcentrerade anda utpekas AI som nytt främmande hot: okontrollerbara maskiner som sätter sig själva först. Alltså måste vi övervaka maskinerna och bygga smarta försvarssystem som kontrollerar dem. De borde vara våra slavar! Mänskligheten först! Ser du hur vi beter oss lika blint självhävdande som vi fantiserar att supersmart AI skulle göra? En kapprustning i småsinthet.

Kan du se mönstret hos dig själv? Om du kan göra det, så har du upptäckt den andra sidan av den mänskliga intelligensen. Du har upptäckt den självgranskande intelligens som alltid livnär filosofin när den ödmjukt söker orsaken till våra misslyckanden hos oss själva. Paradoxen är: när vi försöker kontrollera världen, så fångas vi i småsinthet; när vi granskar oss själva, så öppnas vi för världen.

Linnés första försök att artbestämma människan var faktiskt inte Homo sapiens, som om vi kunde hävda vår visdom. Linnés första försök att artbestämma oss var en ödmjuk uppmaning till självgranskning:

HOMO. Nosce te ipsum.

På svenska: Människa, känn dig själv!

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Detta inlägg på engelska

Vi tänker om tänkande

Fångad i ett system

Anta att en filosof bygger ett system av idéer omkring vår dödlighet. Det är risken att dö, alltings sårbarhet, som gör att vi kan finna våra liv meningsfulla och våra livsprojekt engagerande. Om vi inte trodde på risken att dö och alltings sårbarhet, skulle vi inte bry oss om någonting alls. Därför måste vi tro vad systemet kräver, för att kunna leva och engagera oss. Faktum är att alla redan tror på vad systemet kräver, resonerar filosofen, även de som ifrågasätter det. De gör det i praktiken, eftersom de lever och bryr sig. Det vore omöjligt om de inte trodde vad systemet kräver.

Men vår dödlighet är mer än en risk. Den är ett faktum: vi ska dö. Döden är inte bara en möjlighet, något som kan hända, ett nederlag vi riskerar i våra projekt. Vad sker när vi ser dödens verklighet, snarare än fångas i systemets doktriner om nödvändiga möjlighetsvillkor för meningsfulla och engagerade liv? Vi kan naturligtvis rygga tillbaka och vägra tänka mer på saken. Men vi kan också börja tänka som aldrig förr. Om jag ska dö, då måste jag hinna förstå livet innan jag dör! Jag måste undersöka! Jag måste nå klarhet medan jag lever!

I detta undersökande av systemets utgångspunkt vaknar ett friare tänkande till liv, som undrar snarare än utfärdar krav. Vad är det att leva? Vem är jag, som säger mig leva ett liv? Hur dök ”jag” och ”mitt liv” upp som följeslagare? Är de åtskilda? Om inte, hur är vi förenade? Är livet inklämt mellan födelse och död? Eller är livet utsträckt, innefattande växlingarna mellan födelse och död? Vad är livet egentligen? Det lilla som begränsas av födelse och död, eller det stora som innefattar växlingarna mellan födelse och död? Eller bägge samtidigt? Detta är kanske de första trevande frågorna…

Dödligheten som systemet bygger på väcker passionerade frågor om begreppen som systemet opererar med som om de hade ristats i sten för tid och evighet. Den väcker ett självprövande liv, som inte låter sig styras av systemets doktriner om vad alla måste tro på. Även systemet ifrågasätts, för engagemanget i frågandet är lika stort som systemet skulle vilja vara.

Men om frågandet passionerat bryr sig om livet, om dödligheten och sårbarheten rentav ingår i engagemanget – får systemet därmed sista ordet?

(Inlägget är en undran inspirerad av Martin Hägglunds bok Vårt enda liv, som jag rekommenderar som en storartad stötesten för vår tid.)

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Detta inlägg på engelska

Vi ställer frågor

Vi formar samhällena som formar oss: vårt ansvar för den mänskliga naturen

Visionära akademiska texter är ovanliga – texter som belyser hur forskning kan bidra till de riktigt stora mänskliga frågorna. I en artikel i filosofitidskriften Theoria öppnar Kathinka Evers upp ett djupt visionärt perspektiv på neurovetenskapen och den mänskliga naturen. Vågar ni följa med?

I årtusenden har känsliga tänkare bekymrats över människan själv. Visst skapar vi välstånd och säkerhet åt oss. Men som inga andra djur har vi även en olycklig benägenhet att skapa elände åt oss själva (och andra livsformer). 1900-talet var extremt i bägge riktningarna. Vad är mekanismen bakom det mänskliga självskadebeteendet? Kan den belysas och förändras?

Som jag läser henne, ställer Kathinka Evers väsentligen denna stora mänskliga fråga. Hon gör det utifrån dagens neurovetenskapliga syn på hjärnan, som hon menar motiverar ett nytt sätt att förstå och påverka mekanismen bakom det storskaliga mänskliga självskadebeteendet. Väsentligt i den neurovetenskapliga synen, är att människohjärnan är byggd för att aldrig bli helt färdigbyggd. Liksom vi har ett unikt självskadebeteende, föds vi med unikt ofärdiga hjärnor. Dessa hjärnor är formbara under decennier och skulle behöva lika lång omsorg. De formas inte passivt, utan genom att aktivt finna nya, mer eller mindre lyckliga sätt att fungera i samhällena som vi utsätter oss för.

Eftersom våra hjärnor påverkar våra samhällen, kan man säga att vi bygger samhällena som bygger oss själva, i ett ständigt kretslopp. Mitt i detta känsliga utbyte mellan människa och samhälle står alltså hjärnan. Med sin kreativa formbarhet gör den många deterministiska anspråk på genetiken och människans ”medfödda” natur problematiska. Varför är vi som vi är? Delvis för att vi skapar samhällena som skapar oss så som vi är. I årtusenden har vi genererat oss själva via samhällena som vi byggt, okunniga om det hyperinteraktiva organet mitt i processen. Det är alltid bakom våra ögon.

Kathinka Evers poäng är att vi idag har vi så stor kunskap om hjärnans inneboende aktivitet, dynamik och variabilitet, att vi får ett nytt ansvar för vår egen natur. Hon uttrycker tekniskt läget så här: Dagens neurovetenskapliga kunskap om hjärnan ger oss ett naturalistiskt ansvar att vara epigenetiskt proaktiva. Om vi vet att vår aktiva och variabla hjärna stödjer en kulturell evolution bortom vårt genetiska arv, så får vi ett ansvar att påverka evolutionen genom att anpassa samhället till vad vi vet om hjärnans styrkor och svagheter.

Tanken på ett neurovetenskapligt ansvar att utforma samhällen som formar den mänskliga naturen i önskvärd riktning, kan låta som en uppmaning till en ny social ingenjörskonst. Artikeln utvecklar emellertid tanken om detta ansvar inom ramen för en samvetsgrann genomgång av liknande tendenser i vår historia, tendenser som ofta kretsat kring genetiken. Det handlar inte om att stödja ideologier som redan bestämt sig för hur människan bör vara. Det handlar snarare om att låta kunskap om hjärnan inspirera till sociala förändringar, där vi annars okunnigt skulle riskera att återskapa mänskligt elände. Sådan kunskap förutsätter givetvis samarbete mellan natur-, samhälls- och humanvetenskaperna, tillsammans med fri filosofisk reflektion.

I artikeln nämns exemplet ungdomsvåld. I vissa länder finns en politisk vilja att döma ungdomsbrottslingar som om de vore vuxna och även placera dem i vuxenfängelser. Idag vet vi att hjärnan under puberteten är i en utvecklingskris, där viktiga neurala kretsar förändras dramatiskt. Krisande ungdomshjärnor behöver särskild hänsyn. Men här riskerar de att placeras i precis sådana miljöer som vi kan räkna med genererar mer mänskligt elände.

Kunskap om hjärnan kan alltså motivera sociala förändringar som minskar det mänskliga självskadebeteende som bekymrat tänkare i årtusenden. Neurovetenskaplig självkännedom ger oss en nyckel till mekanismen bakom beteendet och ett ansvar att använda den.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Kathinka Evers. 2020. The Culture‐Bound Brain: Epigenetic Proaction Revisited. Theoria. doi:10.1111/theo.12264

Detta inlägg på engelska

I dialog med filosofer

En ideologi som är helt främmande för min ideologi

Jag läste en ledarartikel som kritiserade ideologiska moment i skolundervisningen. Artikelförfattaren hade besökt hemsidan för en av organisationerna som anlitats av skolorna och fann där tydliga uttryck för en samhällssyn baserad på ideologiska dogmer av ett bestämt slag.

Kritiken kan mycket väl ha varit befogad. Vad som gjorde mig fundersam var hur problemet uttrycktes. Det lät nämligen som om problemet var att ideologin ifråga var främmande för ledarskribentens egen ideologi: ”främmande för mig och de flesta andra …-ister”.

Jag kände mig ledsen när jag läste detta. Det kan ju låta som om det vore vårt mänskliga öde att leva innestängda i ideologiska labyrinter, oförstående för varandra. Men om vi är främmande för en ideologi, betyder det verkligen inget mer än att den ideologin är främmande för vår egen ideologi?

Kan vi befria oss från ideologiernas labyrint? Eller vore det bara ännu en ideologi: ”Vi anti-ideologer uppmanar till kamp mot alla ideologier”!? Uppenbarligen är det svårt att bekämpa alla ideologier utan att själv bli ideologisk. Även fredsrörelser bär på fröet till nya konflikter. Vilken sida för fred står du på?

Kan vi befria oss genom att strängt hålla oss till fakta och inget annat än fakta? Att hålla sig till fakta är viktigt. Ett problem är att ideologier redan älskar att hänvisa till fakta, för att stärka ideologin och framställa den som sanningen. Att påpeka fakta ger lätt ammunition till ännu mer ideologisk debatt, som vi snart blir en engagerad del av: ”Vi rationalister motsätter oss bestämt alla ideologiskt vinklade beskrivningar av verkligheten”!?

Kan lösningen vara att alltid bekänna ideologisk färg, så att vi sprider medvetenhet om våra ideologiska ensidigheter: ”Hej, jag representerar riksorganisationen mot tarmsköljning – en praktik som vi anti-sköljare ser som ett brott mot mänsklig värdighet”!? Det kan vara bra att informera andra om våra motiv, så att de inte vilseleds till att tro på vad vi säger. Men det visar knappast en vackrare sida av mänskligheten, utan förstärker bilden att motstridiga former av ideologisk ensidighet är människans öde.

Men om vi nu ser problemet klart och tydligt, om vi ser hur varje försök att lösa problemet återskapar problemet, har vi inte öppnat oss för vår belägenhet då? Har vi inte sett oss själva med en blick som inte längre är ensidig? Är vi inte fria?

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Detta inlägg på engelska

Vi söker klarhet

Etik som förnyad klarhet om nya situationer

En artikel i tidskriften Big Data & Society kritiserar skarpt den form av etik som kommit att dominera forskning och utveckling inom artificiell intelligens (AI). Det handlar om samma ramverkstolkning av etiken som du kunde läsa om på Etikbloggen förra veckan. Men med en oroväckande skillnad. Snarare än att fungera som staket som sätter nödvändiga gränser för utvecklingen, riskerar ramverket att användas som etisk täckmantel av AI-företag, som vill undvika juridisk reglering av området. Genom att hänvisa till etisk självreglering – vackra deklarationer av principer, värdeord och riktlinjer – hoppas man kunna undvika juridisk reglering, som verkligen kunde sätta viktiga gränser för AI.

Problemet med AI-etik som ”mjuk etiklagstiftning” är inte bara att den kan användas för att undvika nödvändig juridisk reglering av området. Problemet är framförallt, menar SIENNA-forskarna som skrivit artikeln, att den formen av etik inte hjälper oss att tänka klart om nya situationer. Vad vi behöver, menar de, är en etik som ständigt förnyar vår blick för det nya. Det är nämligen så att AI ständigt ställer oss inför nya situationer: nya användingar av robotar, nya möjligheter för regeringar och företag att övervaka människor, nya former av teknikberoende, nya risker för diskriminering, samt utmaningar som vi kanske inte så lätt förutser.

Författarna betonar att en sådan ögonöppnande AI-etik kräver nära samarbete med samhällsvetenskaperna. Det är naturligtvis riktigt. Själv vill jag betona att en etik som förnyar vår blick för det nya, även måste vara filosofisk i ordets djupaste mening. För att klart se det nya och oväntade, kan du inte ens vila i din professionella kompetens, med sina etablerade metoder, teorier och begrepp. Du måste ifrågasätta dina egna intellektuella ramar. Du måste tänka själv.

Läs den redan uppmärksammade artikeln, som jag upplevde som frisk fläkt.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Anaïs Rességuier, Rowena Rodrigues. 2020. AI ethics should not remain toothless! A call to bring back the teeth of ethics. Big Data & Society

Detta inlägg på engelska

Vi söker klarhet

Etiska ramverk kring forskning

Ordet etiskt ramverk väcker tanken på något fast och avskiljande, som staketet runt trädgården. Forskningen som växer fram inom ramarna är dynamisk och ständigt ny. Men för säkerhets skull inramas den i ett etiskt ramverk, som sätter tydliga gränser för vad forskarna får göra i sitt arbete.

Att detta är en överförenklad bild, står klart efter läsning av en uppslagsrik diskussion av etiska ramverk i neurovetenskapliga forskningsprojekt, som Human Brain Project. Artikeln är skriven Arleen Salles och Michele Farisco vid CRB och är publicerad i AJOB Neuroscience.

Artikeln ifrågasätter inte bara bilden av etiska ramverk som statiska gränser för dynamisk forskning. Inspirerad av tankar inom så kallad ansvarsfull forskning och innovation (RRI), ifrågasätts även bilden att forskning kan avskiljas från omgivande etik och samhälle.

Forskare tenderar att betrakta forskning som deras egen angelägenhet. Det finns dock tendenser mot alltmer samarbete inte bara över disciplingränser, utan även med intressenter såsom patienter, industri och olika former av utomvetenskaplig expertis. Dessa tendenser gör forskning till en alltmer utspridd, gemensam angelägenhet. Inte bara i efterhand i form av tillämpningar, vilket förutsätter att själva forskningsinsatsen kan avskiljas. Utan redan när forskning initieras, planeras och genomförs.

Detta kunde låta hotfullt, som om främmande makter påverkade det fria sanningssökandet. Men det kan även ligga något hoppfullt i utvecklingen. Men för att se det hoppfulla, behöver vi befria oss från bilden av etiska ramverk som statiska gränser, separata från den dynamiska forskningsutvecklingen.

Med exempel från Human Brain Project försöker Arleen Salles och Michele Farisco visa hur etiska utmaningar i neurovetenskapliga projekt inte alltid kan kontrolleras i förväg, genom deklarerade principer, värden och riktlinjer. Även det etiska arbetet är dynamiskt och kräver levande intelligent uppmärksamhet. De försöker även visa hur denna etiska uppmärksamhet når rakt in i de neurovetenskapliga frågorna, begreppen och arbetssätten.

När forskning om mänskans hjärna inte är medveten om sina egna kulturella och samhälleliga villkor, utan tar dem för givna, kan det innebära att relevanta frågor inte ställs samt att forskningsresultat inte alltid får den giltighet som man antar.

Vi har alltså goda skäl att se etiska och samhälleliga reflektioner som levande delar av neurovetenskapen, snarare än som stela ramar omkring den.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Arleen Salles & Michele Farisco (2020) Of Ethical Frameworks and Neuroethics in Big Neuroscience Projects: A View from the HBP, AJOB Neuroscience, 11:3, 167-175, DOI: 10.1080/21507740.2020.1778116

Detta inlägg på engelska

I dialog med forskare

Etiska fitnessappar för moraliskt högpresterande

I en ovanligt retorisk artikel för att vara i en vetenskaplig tidskrift, tecknas bilden av en mänsklighet som befriar sig från moralisk svaghet genom nerladdning av etiska fitnessappar.

Författarna menar att devisen ”Känn dig själv!” från Apollontemplet i Delfi idag besvarats grundligare än någonsin. Aldrig har människan känt sig själv bättre. Etiskt är vi i princip fullärda. Samtidigt vet vi mer än någonsin om de moraliska svagheter, som hindrar oss från att agera enligt dessa etiska principer, som vi idag alltså känner så väl. Forskningen upptäcker alltfler mekanismer i hjärna och psyke, som påverkar mänsklighetens moraliska tillkortakommanden.

Givet denna enorma och växande självkännedom, varför utvecklar vi inte artificiell intelligens som stödjer en moraliskt haltande mänsklighet? Varför satsas så mycket resurser på ännu intelligentare artificiell intelligens, som tar våra arbeten ifrån oss och en dag kan hota hela mänskligheten i form av okontrollerbar superintelligens? Varför beter vi oss så oklokt, när vi kunde utveckla artificiell intelligens som hjälper oss människor att bli superetiska?

Hur kan AI göra moraliskt svaga människor superetiska? Författarna jämför med fitnessapparna, som idag hjälper motionärer att träna hälsosammare, effektivare och mer regelbundet än de annars skulle göra. Författarnas förslag är att dagens etiska kunskap om moralteorier i kombination med växande vetenskaplig kunskap om moraliska svagheter kunde stödja en teknikutveckling av kloka appar: visa föremål som stödjer människor på precis de punkter, där vi idag vet att vi haltar moraliskt.

Min personliga bedömning av detta utopiska förslag, är att det mycket väl kan förverkligas i mindre utopiska former. AI används redan flitigt som stöd i beslutsfattande. Man kunde tänka sig mobilappar som stödjer konsumenter att göra etiska matval i butiken. Eller dataspel där matkonsumenter tränas att väga olika etiska hänsynstaganden mot varandra, som djurvälfärd, klimateffekter, ekologiska effekter och mycket annat. Snygga presentationer av de etiska problemen och uppmuntrande musik som gör det roligt att vara moralisk.

Den filosofiska fråga jag ställer mig, är om mänskligheten verkligen kan sägas bli klokare och mer moralisk av artificiellt beslutsstöd i matbutiker och andra sammanhang. Föreställ dig en människa som väljer bland grönsakerna, ivrigt letande efter beslutsstöd i sin intelligenta mobiltelefon. Vad ser du? En människa som tack vare mobilappen blivit klokare än Sokrates, som levde långt innan vi visste så mycket om oss själva som vi vet idag?

Etiska fitnessappar är fullt tänkbara. Risken är bara att de sprider en självkännedom som flyger över oss själva, misstänkt lik den moraliska bristen självgodhet.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Pim Haselager & Giulio Mecacci (2020) Superethics Instead of Superintelligence: Know Thyself, and Apply Science Accordingly, AJOB Neuroscience, 11:2, 113-119, DOI: 10.1080/21507740.2020.1740353

Detta inlägg på engelska

Vi vill ha djup

Vi kan inte kontrollera allt: livets filosofiska dimensioner

Livet överträffar oss alltid. Vi trodde att vi hade kontroll, men så händer något oväntat som tycks rubba ordningen i grunden. En storm, en skogsbrand, en pandemi. Livet framstår som en teckning i sand, vars konturer plötsligt upplöses.

Så illa är det naturligtvis inte, för även en storm, en skogsbrand, en pandemi, går över. Konturerna blir tydliga igen, i något nya former. Men det oväntade påminde oss om att livet är större än vår förmåga att kontrollera det. Min fråga i detta inlägg är hur vi balanserar viljan att kontrollera livet mot vetskapen om att livet alltid överträffar oss.

Att livet är större än vår förmåga att kontrollera det visar sig inte bara i form av stormar, skogsbränder och pandemier. Det visar sig också i form av skönt varierande väder, växande skogar och god hälsa. Visst bidrar medicinen till bättre hälsa. Men det är inte tack vare några piller som blod cirkulerar i våra kroppar och mat blir till näring för våra celler. Vi är med rätta tacksamma mot medicinen, som hjälper sjuka. Men kanske kunde vi även ägna livet självt en tacksamhetens tanke ibland. Är inte kroppen fantastisk, som utvecklar immunitet i samröre med virus? Är inte skogarna och klimatet underbara, som ger syre, sol och regn? Och naturen, som vi är som utväxter på?

Många vill nog invända att det är bortkastat att filosofera om sådant som vi inte kan göra något åt. Varför ödsla tid på att reflektera över livets okontrollerbara dimensioner, när vi kan utveckla nya mediciner? Borde vi inte fokusera alla krafter på att förbättra världen?

Jag påpekar bara att vi då resonerar som konstnären som trodde sig kunna måla enbart förgrunder, utan bakgrunder. Som om bakgrunden distraherade från det viktiga. Men vill du framhäva förgrunden, måste du uppmärksamma även bakgrunden. Då framträder förgrunden. Förgrunden behöver omfamnas av bakgrunden. Litet och stort förutsätter varandra.

Viljan till kontroll fungerar klokare, tror jag, om vi besinnar oss på vårt ofrånkomliga beroende av omfamning av en större bakgrund. Vi kan som sagt inte styra allt, lika lite som en konstnär kan måla enbart förgrunder. Jag vill föreslå att filosofi utmärks av att den påminner oss om just detta. Den hjälper oss att se det kontrollerbara mot bakgrund av det okontrollerbara. Den påminner om det större sammanhanget: bakgrunden som det mänskliga intellektet inte bemästrar, utan måste förutsätta och samspela klokt med.

Det behöver inte vara dramatiskt. Även vardagslivet har filosofiska dimensioner som överträffar vår medvetna kontroll. Barnen lär sig prata bortom föräldrarnas kontroll, utan vare sig läroplaner eller examinationer. Ingen språklärare i världen kan lära ett litet barn att prata genom lektioner i klassrum. Det kan bara ske spontant och gränslöst mitt i livet. Bara den som redan pratar kan lära sig språk genom lektioner i ett klassrum.

Förmågan att prata är alltså bakgrunden till språkundervisning i klassrum. En språklärare kan planera lektionerna i detalj. De yngstas språktillägnelse, däremot, är så oupplösligt förenad med vad det är att leva som människa, att den överträffar intellektets förmåga att ordna och styra. Vi kan bara påminna oss om skillnaden mellan förgrund och bakgrund. Här följer en sådan filosofisk påminnelse. En förälder till ett skolbarn kan säga: ”Nu har du pluggat engelska i två timmar och behöver en rast: gå ut och lek.” Men en förälder till ett litet barn som börjar prata kan inte säga: ”Nu har du pratat i två timmar och behöver en rast: gå ut och lek!” Barnet pratar jämt. Det lär sig mitt i leken, mitt i livet, bortom kontroll. Därför har barnet inga raster.

Hade Herb Terrace sett skillnaden mellan språkets förgrund och bakgrund, hade han aldrig använt den vansinniga metoden att träna teckenspråk med schimpansen Nim i ett särskilt klassrum, som om Nim var en skolelev som redan kunde prata. Ibland behövs en smula filosofi (en smula förnuft) för att våra projekt ska fungera. Förgrund och bakgrund samspelar överallt. Våra välfärdssamhällen fungerar inte om vi inte i grunden lever av egen kraft. Pandemier avtar knappast utan att virus vandrar genom tillräckligt många av våra därefter immuna kroppar – under kontrollerade former som skyddar riskgrupper och ger svårt sjuka vård. Överallt samspelar förgrund och bakgrund, kontrollerbart och okontrollerbart.

Strävan efter intellektuell kontroll är därför en fallgrop när vi filosoferar. Åtminstone om filosofi behövs för att belysa den levande bakgrunden till det som låter sig kontrolleras. Då kan vi inte drömma om att definiera livet som en enda intellektuellt kontrollerbar förgrund. En smula filosofi hjälper oss att se samspelet mellan förgrund och bakgrund. Den hjälper oss att leva aktivt och agera klokt i zonen mellan kontrollerbart och okontrollerbart.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Detta inlägg på engelska

I dialog med filosofer

Vad är en moralisk maskin?

Jag läste nyss en på många sätt klargörande artikel om så kallade moraliska robotar. Filosofen John-Stewart Gordon varnar för fallgropar som icke-etiker (robotforskare och AI-programmerare) kan ramla ned i när de försöker konstruera moraliska maskiner. Helt enkelt för att de saknar etisk expertis.

Den första fallgropen är de rena nybörjarmisstagen. Man kanske naivt identifierar etik med vissa berömda bioetiska principer, som om etik inte kunde vara något annat än så kallad principlism. Eller så tror man att datorsystem genom automatiserad analys av enskilda fall kan ”lära sig” etiska principer och ”bli moraliska”. Som om moral kunde upptäckas erfarenhetsmässigt eller empiriskt.

Den andra utmaningen har att göra med att etikexperterna själva är oeniga om den ”rätta” moralteorin. Det finns flera konkurrerande etiska teorier (konsekvensetik, pliktetik, dygdeetik med mera). Vilken moralisk rättningsmall ska programmerarna använda när datorer ska fås att lösa moraliska problem och dilemman som uppkommer i olika verksamheter? (Tänk på robotbilar i svåra trafiksituationer.)

Den första fallgropen kan åtgärdas med mer kunskap i etik. Hur hanterar vi den andra? Ska programmerare få välja moralteori fritt som det passar dem? Ska vi tillåta såväl konsekvensetiska som pliktetiska robotbilar på våra gator?

John-Stewart Gordons förslag är att så kallad maskinetik bör fokusera på överensstämmelser mellan olika moralteorier angående vad man inte får göra. Robotar bör förses med en bindande lista på sådant som måste undvikas som omoraliskt. Med den inskränkningen får robotarna sedan spelrum att använda och balansera mångfalden av moralteorier, för att på olika sätt lösa moraliska problem.

Sammanfattningsvis bör robotforskare och AI-programmerare konsultera etikexperterna, så att de undviker nybörjarmisstagen och förstår de metodologiska problem som uppkommer när inte ens experterna på området kan enas om den rätta moralteorin.

Allt detta förefaller både klokt och klargörande på ett plan. Samtidigt känner jag mig uppriktigt förvirrad kring själva idén om ”moraliska maskiner” (även om artikeln inte diskuterar idén, utan fokuserar på etiska utmaningar för ingenjörerna). Vad betyder idén? Inte så att jag betvivlar att artificiell intelligens kan designas enligt etiska krav. Vi kanske inte vill att robotbilar ska undvika kollisioner i stadstrafik genom att svänga in på trottoarer där många människor promenerar. I den meningen kan det finnas etisk programvara, ungefär som det finns etiska aktiefonder. Vi kunde tala om moraliska och omoraliska robotbilar, lika självklart som vi talar om etiska och oetiska fonder.

Ändå känner jag mig som sagt osäker. Varför? Jag inledde med att skriva ”så kallade” moraliska robotar. Det gjorde jag för att jag inte är bekväm med att tala om moraliska maskiner, men är öppen för förslag på vad det kan betyda. Jag tror att vad som förvirrar mig är att moraliska maskiner omnämns utan distanserande uttryck, som om alla egentligen borde veta vad det måste betyda. Etikexperter är oense om den ”rätta” moralteorin. Men de tycks eniga om att moralteori bestämmer vad ett moraliskt beslut är, ungefär som språkläran bestämmer vad en grammatisk mening är. Med den tilltron till moralteori behöver man inte fundera över vad en moralisk maskin är. Det är helt enkelt en maskin som fattar beslut enligt accepterad moralteori. Men fattar maskiner beslut i samma mening som människor gör det?

Kanske handlar det om betoning. Vi talar om etiska fonder utan att känna yrsel inför att en aktiefond kan vara etisk (”Kan de vara humoristiska också?”). Det finns ingen mytologisk betoning i talet om etiska fonder. På samma sätt kan vi tala om etiska robotbilar utan att känna yrsel som inför något övernaturligt. Men i den filosofiska diskussionen om maskinetik omnämns ibland moraliska maskiner på ett mytologiskt sätt, tycks det mig. Som om en kentaur, en maskin-människa, snart ser dagens ljus. Samtidigt ska vi inte känna yrsel inför dessa sköna nya kentaurer, eftersom experterna kan bokstavera exakt vad de talar om. Med alla rättningsmallar i händerna behöver de inga distanserande uttryck!

Jag misstänker att även etisk expertis kan vara en filosofisk fallgrop när vi intellektuellt närmar oss så kallade moraliska maskiner. Expertattityden kan tysta de förvirrande frågor som vi alla behöver tid att reda ut, när uppriktiga tvivel gör uppror mot anspråket att veta.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Gordon, J. Building Moral Robots: Ethical Pitfalls and Challenges. Sci Eng Ethics 26, 141–157 (2020). https://doi.org/10.1007/s11948-019-00084-5

Detta inlägg på engelska

Vi ställer frågor

Artificiell intelligens och det levande medvetandet

Etikbloggen kommer med flera inlägg om artificiell intelligens framöver. Idag vill jag bara göra en liten iakttagelse av någonting märkvärdigt.

Förra århundradet präglades av rädsla för människans medvetande. Vårt psyke föreföll lika mystiskt som själen, lika överflödigt i en vetenskaplig tidsålder som Gud. I psykologin frodades behaviorismen, som definierade psykologiska ord i termer av kroppsliga beteenden, som kunde studeras vetenskapligt i laboratoriet. Det levande medvetandet behandlades som en relik från en svunnen vidskeplig tid.

Vad är då så märkvärdigt med artificiell intelligens? Plötsligt tycks man avguda medvetandet. Man vältrar sig i psykologiska ord, åtminstone när man talar om vad datorer och robotar kan göra. Dessa maskiner ser och hör, de tänker och talar. De till och med lär sig själva.

Betyder detta att rädslan för medvetandet upphört? Knappast, för när man inom artificiell intelligens använder psykologiska ord såsom se och höra, tänka och förstå, så är orden inte psykologiska längre. Att datorer ”lär sig” är ett tekniskt begrepp som datorexperterna definierar i sina laboratorier.

När företrädare för artificiell intelligens vältrar psykologiska ord över robotar, så upprepar de alltså hur behavioristerna definierade människans psyke i termer av någonting annat. De psykologiska orden får nya maskinella betydelser, som överskuggar ordens betydelser hos levande människor.

Tänk på det, nästa gång du undrar om robotarna kan bli medvetna i framtiden. Utvecklingen bygger på rädslan för medvetandet. Vad du undrar är alltså inte om robotar kan bli medvetna. Du undrar om ditt eget medvetande kan vara vidskepelse. Märkvärdigt, eller hur?

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Detta inlägg på engelska

Vi diskuterar aktuella frågor

« Äldre inlägg Nyare inlägg »