En forskningsblogg från Centrum för forsknings- & bioetik (CRB)

Etikett: filosofi (Sida 1 av 15)

Hur tar vi ansvar för forskning med dubbla användningsområden?

Vi styrs oftare än vi tror av gamla tankemönster. Som filosof finner jag det spännande att se hur mentala mönster fångar oss, hur vi fastnar i dem, och hur vi kan ta oss ur dem. Med den blicken läste jag nyligen ett bokkapitel om något som brukar kallas forskning med dubbla användningsområden, ”dual-use research”. Även här finns tankemönster att fastna i.

I kapitlet diskuterar Inga Ulnicane hur man tagit ansvar för hjärnforskning med dubbla användningsområden inom Human Brain Projekt (HBP). Jag läser kapitlet som ett filosofiskt drama. De europeiska regler som styr HBP, styrs i sin tur av tankemönster om vad problemet med dubbla användningar består i. För att kunna ta verkligt ansvar för projektet, behövde man därför inom HBP tänka sig fri från mönstren som styrde regleringen av projektet. Ansvaret blev en filosofisk utmaning: att öka medvetenheten om verkliga problem kring dubbla användningar av hjärnforskning.

Traditionellt handlar ”dubbla användningsområden” om civila respektive militära användningar. Genom regeln att forskningen i HBP uteslutande ska fokusera på civila användningsområden, kan man säga att regleringen av projektet själv styrdes av detta tankemönster. Det finns naturligtvis stora militära intressen i hjärnforskning, inte minst för att forskningen gränsar till informationsteknik, robotteknik och artificiell intelligens. Resultat kan användas för att öka soldaters stridskraft. De kan användas till effektivare underrättelseverksamhet, kraftfullare bildanalys, snabbare hotdetektering, precisare robotvapen och för att tillfredsställa många andra militära behov.

Problemet är att det finns fler problematiska behov än militära. Forskningsresultat kan även användas till att manipulera människors tankar och känslor i andra syften än militära. De kan användas till att övervaka befolkningar och styra deras beteende. Det går inte att säga en gång för alla vilka problematiska lockelser som hjärnforskningen kan väcka, även bortom det militära området. En enda god idé kan sätta fart på flera dåliga idéer på många andra områden.

Därför föredrar man inom HBP att tala om nyttiga respektive skadliga användningsområden, snarare än om civila respektive militära. Denna öppnare förståelse av ”det dubbla” innebär att man inte en gång för alla kan identifiera problematiska användningsområden. I stället krävs kontinuerlig diskussion bland forskare och andra aktörer samt allmänheten för att öka medvetenheten kring olika möjliga problematiska användningar av hjärnforskning. Vi behöver hjälpa varandra att se de verkliga problemen, som kan dyka upp på helt andra områden än vi förväntar oss. Eftersom problemen sällan kan inringas nationellt, utan rör sig över gränser, behövs dessutom globalt samarbete mellan satsningar på hjärnforskning runtom i världen.

Inom HBP fann man att ytterligare ett tankemönster styrde regleringen av projektet och gjorde det svårare att ta verkligt ansvar för forskningen i projektet. Definitionen av problematiken i styrdokumenten hämtades nämligen från EU:s exportkontrollbestämmelser, som inte är helt relevanta för forskning. Även här fordras större medvetenhet, så att vi inte fastnar i tankemönster om vad som eventuellt skulle kunna ha dubbla användningsområden.

Min personliga slutsats är att mänskliga utmaningar inte bara orsakas av bristande kunskap. De orsakas även av hur vi lockas att tänka, av hur vi upprepar till synes självklara tankemönster. Vår tendens att fasta i mentala mönster gör oss omedvetna om verkliga problem och möjligheter. Därför borde vi ta människans filosofiska dramatik på större allvar. Vi behöver upptäcka betydelsen av att filosofera oss fria från vår självförvållade fångenskap i lockande sätt att tänka. Detta gjorde man i Human Brain Project, menar jag, när man utmanades av vad det verkligen kan betyda att ta ansvar för hjärnforskning med dubbla användningsområden.

Läs Inga Ulnicanes upplysande kapitel, The governance of dual-use research in the EU. The case of neuroscience, som även nämner andra mönster som kan styra tänkandet om forskning med dubbla användningsområden.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Ulnicane, I. (2020). The governance of dual-use research in the EU: The case of neuroscience. In A. Calcara, R. Csernatoni, & C. Lavallée (Editors), Emerging security technologies and EU governance: Actors, practices and processes. London: Routledge/Taylor & Francis Group, pages 177-191.

Detta inlägg på engelska

Vi tänker om tänkande

Det svåra problemet om medvetandet

Kan subjektiva upplevelser av hur kaffe smakar eller hur polarkyla känns reduceras till materiella samband i hjärnan? Varför har vi sådana subjektiva upplevelser? (En termostat kan reglera värme utan att uppleva hur värme eller kyla känns.)

Detta har betraktats som ett extra stort filosofiskt problem om medvetandet. Det har därför benämnts det svåra problemet, ”the hard problem of consciousness”. I ett inlägg på The Ethics Blog frågar Michele Farisco om problemet kan mjukas upp. Han diskuterar två besläktade tänkesätt, som skulle kunna mjuka upp problemet genom att betrakta medvetandet som ett kulturellt begrepp.

Michele Farisco påpekar att en uppmjukning av medvetandeproblemet riskerar att skapa svåra etiska problem. Etiken förutsätter att människor är medvetna, kännande och tänkande. Ett kulturellt uppmjukat medvetandeproblem riskerar att relativisera etiska frågor om exempelvis vård i livets slutskede.

Läs inlägget: The hard problem of consciousness: please handle with care!

Michele Farisco samarbetar med filosofer, kognitionsforskare, neurovetare och datorvetare i Human Brain Project.

Svåra frågor

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Hotad av superintelligenta maskiner

Det finns en rädsla att vi snart skapar artificiell intelligens (AI) som är så superintelligent, att vi inte längre kan kontrollera den. Den gör oss människor till sina slavar. Om vi försöker koppla ur nätverkskabeln så hoppar superintelligensen över till ett annat nätverk, eller så beordrar den en robot att döda oss. Alternativt så hotar den att spränga en hel stad i bitar, om vi tar ett enda steg mot nätverksuttaget.

Jag slås emellertid av hur denna självhävdande artificiella intelligens liknar en sida av vår egen mänskliga intelligens. En viss typ av mänsklig intelligens har redan tagit över. Den styr våra tankar när vi känner oss hotade av superintelligent AI och överväger smarta motåtgärder för att kontrollera den. Ett typiskt drag i denna självhävdande intelligens är just detta att den aldrig ser sig själv som problemet. Alla hot är externa och måste neutraliseras. Vi ska överleva, kosta vad det vill för andra. Jag först! Vårt parti först! Vi betraktar världen med misstro: den tycks fylld av hot mot oss.

I denna självcentrerade anda utpekas AI som nytt främmande hot: okontrollerbara maskiner som sätter sig själva först. Alltså måste vi övervaka maskinerna och bygga smarta försvarssystem som kontrollerar dem. De borde vara våra slavar! Mänskligheten först! Ser du hur vi beter oss lika blint självhävdande som vi fantiserar att supersmart AI skulle göra? En kapprustning i småsinthet.

Kan du se mönstret hos dig själv? Om du kan göra det, så har du upptäckt den andra sidan av den mänskliga intelligensen. Du har upptäckt den självgranskande intelligens som alltid livnär filosofin när den ödmjukt söker orsaken till våra misslyckanden hos oss själva. Paradoxen är: när vi försöker kontrollera världen, så fångas vi i småsinthet; när vi granskar oss själva, så öppnas vi för världen.

Linnés första försök att artbestämma människan var faktiskt inte Homo sapiens, som om vi kunde hävda vår visdom. Linnés första försök att artbestämma oss var en ödmjuk uppmaning till självgranskning:

HOMO. Nosce te ipsum.

På svenska: Människa, känn dig själv!

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Detta inlägg på engelska

Vi tänker om tänkande

Indikatorer på medvetande

Frågan om vi kan veta om någon faktiskt är medveten eller inte, är inte rent filosofisk. Patienter med svåra hjärnskador kan ibland antas bibehålla ett visst medvetande, även om de inte kan visa detta genom beteende. Hur kan vi då veta om en sängbunden patient, som kanske inte ens kan blinka, har någon nivå av medvetande?

I ett blogginlägg på The Ethics Blog föreslår Michele Farisco provisoriskt sex indikatorer på medvetande. Tanken är att indikatorerna kan fastställas inte bara genom att iaktta patienters beteende, utan även genom andra kliniska undersökningar och genom tekniska gränssnitt som möjliggör samspel mellan människa och maskin.

Vill du veta mer, läs inlägget: Are you conscious? Looking for reliable indicators.

Forskningen som Michele Farisco skriver om är ett samarbete mellan filosofer, kognitionsforskare, neurovetare och datorvetare i Human Brain Project.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Deltar i internationella samarbeten

Fångad i ett system

Anta att en filosof bygger ett system av idéer omkring vår dödlighet. Det är risken att dö, alltings sårbarhet, som gör att vi kan finna våra liv meningsfulla och våra livsprojekt engagerande. Om vi inte trodde på risken att dö och alltings sårbarhet, skulle vi inte bry oss om någonting alls. Därför måste vi tro vad systemet kräver, för att kunna leva och engagera oss. Faktum är att alla redan tror på vad systemet kräver, resonerar filosofen, även de som ifrågasätter det. De gör det i praktiken, eftersom de lever och bryr sig. Det vore omöjligt om de inte trodde vad systemet kräver.

Men vår dödlighet är mer än en risk. Den är ett faktum: vi ska dö. Döden är inte bara en möjlighet, något som kan hända, ett nederlag vi riskerar i våra projekt. Vad sker när vi ser dödens verklighet, snarare än fångas i systemets doktriner om nödvändiga möjlighetsvillkor för meningsfulla och engagerade liv? Vi kan naturligtvis rygga tillbaka och vägra tänka mer på saken. Men vi kan också börja tänka som aldrig förr. Om jag ska dö, då måste jag hinna förstå livet innan jag dör! Jag måste undersöka! Jag måste nå klarhet medan jag lever!

I detta undersökande av systemets utgångspunkt vaknar ett friare tänkande till liv, som undrar snarare än utfärdar krav. Vad är det att leva? Vem är jag, som säger mig leva ett liv? Hur dök ”jag” och ”mitt liv” upp som följeslagare? Är de åtskilda? Om inte, hur är vi förenade? Är livet inklämt mellan födelse och död? Eller är livet utsträckt, innefattande växlingarna mellan födelse och död? Vad är livet egentligen? Det lilla som begränsas av födelse och död, eller det stora som innefattar växlingarna mellan födelse och död? Eller bägge samtidigt? Detta är kanske de första trevande frågorna…

Dödligheten som systemet bygger på väcker passionerade frågor om begreppen som systemet opererar med som om de hade ristats i sten för tid och evighet. Den väcker ett självprövande liv, som inte låter sig styras av systemets doktriner om vad alla måste tro på. Även systemet ifrågasätts, för engagemanget i frågandet är lika stort som systemet skulle vilja vara.

Men om frågandet passionerat bryr sig om livet, om dödligheten och sårbarheten rentav ingår i engagemanget – får systemet därmed sista ordet?

(Inlägget är en undran inspirerad av Martin Hägglunds bok Vårt enda liv, som jag rekommenderar som en storartad stötesten för vår tid.)

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Detta inlägg på engelska

Vi ställer frågor

”Samarbetsvillig”, ”trevlig” och ”pålitlig” robotkollega sökes

Robotar får alltfler funktioner på våra arbetsplatser. Logistikrobotar hämtar varorna på lagret. Militärrobotar desarmerar minorna. Skötarrobotar lyfter patienterna och kirurgiska robotar utför operationerna. Allt detta i samspel med mänsklig personal, som tycks ha fått sköna nya robotkolleger på sina arbetsplatser.

Med tanke på att somliga behandlar robotarna som bra kolleger och att bra kolleger bidrar till god arbetsmiljö, blir det rimligt att fråga: Kan en robot vara en bra kollega? Frågan undersöks av Sven Nyholm och Jilles Smids i tidskriften Science and Engineering Ethics.

Författarna behandlar frågan begreppsligt. Först föreslår de kriterier för vad en bra kollega är. Därefter frågar de om robotar kan leva upp till kraven. Frågan om en robot kan vara en bra kollega är intressant, eftersom den visar sig vara mer realistisk än vi först tror. Vi kräver nämligen inte lika mycket av en kollega som av en vän eller en livspartner, resonerar författarna. Många av kraven på bra kolleger har att göra med deras yttre beteende i specifika situationer på arbetsplatsen, snarare än med hur de tänker, känner och är som människor i livets många sammanhang. Ibland är en bra kollega bara någon som får jobbet gjort!

Vilka kriterier nämns i artikeln? Här återger jag med egna ord författarnas lista, som de framhåller inte är menad att vara fullständig. En bra kollega samarbetar för att uppnå mål. En bra kollega kan småprata och göra arbetet trevligt. En bra kollega mobbar inte utan behandlar andra respektfullt. En bra kollega stöttar efter behov. En bra kollega lär sig och utvecklas med andra. En bra kollega är alltid på plats och är pålitlig. En bra kollega anpassar sig efter hur andra mår och delar arbetsrelaterade värden. En bra kollega får gärna socialisera vänskapligt.

Författarna menar att många robotar redan idag lever upp till flera av dessa idéer om vad en bra kollega är, och att robotarna på våra arbetsplatser snart är ännu bättre kolleger. Kraven är, som sagt, lägre än vi först tror, eftersom de inte handlar så mycket om kollegans inre mänskliga liv, utan mer om pålitligt uppvisade beteenden i specifika arbetssituationer. Det är inte så svårt att tänka sig kriterierna omvandlade till specifikationer till robotutvecklarna. Ungefär som i en jobbannons, som listar beteenden som den sökande bör kunna uppvisa.

En butikschef för en mataffär i denna stad annonserade efter personal. Annonsen innehöll märkliga citationstecken, som avslöjade hur butikschefen sökte en människas fasad, snarare än det inre. Det är inte konstigt: att vara professionell är att kunna spela en roll. Butikens affärsidé var ”vi bryr oss om”. Denna idé skulle bli en positiv ”upplevelse” för kunderna i mötet med personalen. En hälsning, en nick, ett leende, ett allmänt trevligt bemötande, skulle skänka denna ”upplevelse” av att man i affären ”bryr sig om människor”. Alltså sökte man en person som, inom citationstecken, ”tycker om människor”.

Om personal kan sökas på detta sätt, varför skulle vi inte efterfråga ”samarbetsvilliga”, ”trevliga” och ”pålitliga” robotkolleger i samma anda? Jag är övertygad om att liknande krav redan förekommer som specifikationer när robotar designas för olika funktioner på våra arbetsplatser.

Livet är inte alltid djupt och innerligt, vilket robotiseringen av arbetslivet speglar. Frågan är vad som händer när ytorna blir så vanliga att vi glömmer citationstecknen omkring de mekaniska fasaderna. Alla är inte lika tydliga på den punkten som den ”människoälskande” butikschefen.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Nyholm, S., Smids, J. Can a Robot Be a Good Colleague?. Sci Eng Ethics 26, 2169–2188 (2020). https://doi.org/10.1007/s11948-019-00172-6

Detta inlägg på engelska

Vi tar upp aktuella frågor

Vi formar samhällena som formar oss: vårt ansvar för den mänskliga naturen

Visionära akademiska texter är ovanliga – texter som belyser hur forskning kan bidra till de riktigt stora mänskliga frågorna. I en artikel i filosofitidskriften Theoria öppnar Kathinka Evers upp ett djupt visionärt perspektiv på neurovetenskapen och den mänskliga naturen. Vågar ni följa med?

I årtusenden har känsliga tänkare bekymrats över människan själv. Visst skapar vi välstånd och säkerhet åt oss. Men som inga andra djur har vi även en olycklig benägenhet att skapa elände åt oss själva (och andra livsformer). 1900-talet var extremt i bägge riktningarna. Vad är mekanismen bakom det mänskliga självskadebeteendet? Kan den belysas och förändras?

Som jag läser henne, ställer Kathinka Evers väsentligen denna stora mänskliga fråga. Hon gör det utifrån dagens neurovetenskapliga syn på hjärnan, som hon menar motiverar ett nytt sätt att förstå och påverka mekanismen bakom det storskaliga mänskliga självskadebeteendet. Väsentligt i den neurovetenskapliga synen, är att människohjärnan är byggd för att aldrig bli helt färdigbyggd. Liksom vi har ett unikt självskadebeteende, föds vi med unikt ofärdiga hjärnor. Dessa hjärnor är formbara under decennier och skulle behöva lika lång omsorg. De formas inte passivt, utan genom att aktivt finna nya, mer eller mindre lyckliga sätt att fungera i samhällena som vi utsätter oss för.

Eftersom våra hjärnor påverkar våra samhällen, kan man säga att vi bygger samhällena som bygger oss själva, i ett ständigt kretslopp. Mitt i detta känsliga utbyte mellan människa och samhälle står alltså hjärnan. Med sin kreativa formbarhet gör den många deterministiska anspråk på genetiken och människans ”medfödda” natur problematiska. Varför är vi som vi är? Delvis för att vi skapar samhällena som skapar oss så som vi är. I årtusenden har vi genererat oss själva via samhällena som vi byggt, okunniga om det hyperinteraktiva organet mitt i processen. Det är alltid bakom våra ögon.

Kathinka Evers poäng är att vi idag har vi så stor kunskap om hjärnans inneboende aktivitet, dynamik och variabilitet, att vi får ett nytt ansvar för vår egen natur. Hon uttrycker tekniskt läget så här: Dagens neurovetenskapliga kunskap om hjärnan ger oss ett naturalistiskt ansvar att vara epigenetiskt proaktiva. Om vi vet att vår aktiva och variabla hjärna stödjer en kulturell evolution bortom vårt genetiska arv, så får vi ett ansvar att påverka evolutionen genom att anpassa samhället till vad vi vet om hjärnans styrkor och svagheter.

Tanken på ett neurovetenskapligt ansvar att utforma samhällen som formar den mänskliga naturen i önskvärd riktning, kan låta som en uppmaning till en ny social ingenjörskonst. Artikeln utvecklar emellertid tanken om detta ansvar inom ramen för en samvetsgrann genomgång av liknande tendenser i vår historia, tendenser som ofta kretsat kring genetiken. Det handlar inte om att stödja ideologier som redan bestämt sig för hur människan bör vara. Det handlar snarare om att låta kunskap om hjärnan inspirera till sociala förändringar, där vi annars okunnigt skulle riskera att återskapa mänskligt elände. Sådan kunskap förutsätter givetvis samarbete mellan natur-, samhälls- och humanvetenskaperna, tillsammans med fri filosofisk reflektion.

I artikeln nämns exemplet ungdomsvåld. I vissa länder finns en politisk vilja att döma ungdomsbrottslingar som om de vore vuxna och även placera dem i vuxenfängelser. Idag vet vi att hjärnan under puberteten är i en utvecklingskris, där viktiga neurala kretsar förändras dramatiskt. Krisande ungdomshjärnor behöver särskild hänsyn. Men här riskerar de att placeras i precis sådana miljöer som vi kan räkna med genererar mer mänskligt elände.

Kunskap om hjärnan kan alltså motivera sociala förändringar som minskar det mänskliga självskadebeteende som bekymrat tänkare i årtusenden. Neurovetenskaplig självkännedom ger oss en nyckel till mekanismen bakom beteendet och ett ansvar att använda den.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Kathinka Evers. 2020. The Culture‐Bound Brain: Epigenetic Proaction Revisited. Theoria. doi:10.1111/theo.12264

Detta inlägg på engelska

I dialog med filosofer

En ideologi som är helt främmande för min ideologi

Jag läste en ledarartikel som kritiserade ideologiska moment i skolundervisningen. Artikelförfattaren hade besökt hemsidan för en av organisationerna som anlitats av skolorna och fann där tydliga uttryck för en samhällssyn baserad på ideologiska dogmer av ett bestämt slag.

Kritiken kan mycket väl ha varit befogad. Vad som gjorde mig fundersam var hur problemet uttrycktes. Det lät nämligen som om problemet var att ideologin ifråga var främmande för ledarskribentens egen ideologi: ”främmande för mig och de flesta andra …-ister”.

Jag kände mig ledsen när jag läste detta. Det kan ju låta som om det vore vårt mänskliga öde att leva innestängda i ideologiska labyrinter, oförstående för varandra. Men om vi är främmande för en ideologi, betyder det verkligen inget mer än att den ideologin är främmande för vår egen ideologi?

Kan vi befria oss från ideologiernas labyrint? Eller vore det bara ännu en ideologi: ”Vi anti-ideologer uppmanar till kamp mot alla ideologier”!? Uppenbarligen är det svårt att bekämpa alla ideologier utan att själv bli ideologisk. Även fredsrörelser bär på fröet till nya konflikter. Vilken sida för fred står du på?

Kan vi befria oss genom att strängt hålla oss till fakta och inget annat än fakta? Att hålla sig till fakta är viktigt. Ett problem är att ideologier redan älskar att hänvisa till fakta, för att stärka ideologin och framställa den som sanningen. Att påpeka fakta ger lätt ammunition till ännu mer ideologisk debatt, som vi snart blir en engagerad del av: ”Vi rationalister motsätter oss bestämt alla ideologiskt vinklade beskrivningar av verkligheten”!?

Kan lösningen vara att alltid bekänna ideologisk färg, så att vi sprider medvetenhet om våra ideologiska ensidigheter: ”Hej, jag representerar riksorganisationen mot tarmsköljning – en praktik som vi anti-sköljare ser som ett brott mot mänsklig värdighet”!? Det kan vara bra att informera andra om våra motiv, så att de inte vilseleds till att tro på vad vi säger. Men det visar knappast en vackrare sida av mänskligheten, utan förstärker bilden att motstridiga former av ideologisk ensidighet är människans öde.

Men om vi nu ser problemet klart och tydligt, om vi ser hur varje försök att lösa problemet återskapar problemet, har vi inte öppnat oss för vår belägenhet då? Har vi inte sett oss själva med en blick som inte längre är ensidig? Är vi inte fria?

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Detta inlägg på engelska

Vi söker klarhet

Vad fordras av en etik för artificiell intelligens?

Jag lyfte nyligen fram kritik av etiken kring området artificiell intelligens (AI). En etik som kan hantera utmaningarna som AI ställer oss inför fordrar mer än bara vackert formulerade etiska principer, värdeord och riktlinjer. Vad exakt krävs av AI-etiken?

Michele Farisco, Kathinka Evers och Arleen Salles tar sig an frågan i tidskriften Science and Engineering Ethics. För dem är etik inte främst offentligt deklarerade principer och riktlinjer. Etik är snarare ett ständigt pågående tankearbete: levande etisk reflektion om AI. Deras fråga är alltså inte vad som krävs av ett etiskt ramverk byggt omkring AI. Frågan är vad som krävs av fördjupande etisk reflektion om AI.

Författarna framhåller begreppsanalys som väsentlig för all etisk reflektion om AI. En av de stora svårigheterna är nämligen att vi inte riktigt vet vad vi talar om! Vad är intelligens? Vad är skillnaden mellan artificiell och naturlig intelligens? Hur ska vi förstå relationen mellan intelligens och medvetande? Mellan intelligens och känslor? Mellan intelligens och insiktsfullhet?

Etiska problem om AI kan vara såväl praktiska som teoretiska, påpekar artikelförfattarna. De beskriver två praktiska och två teoretiska problem att hålla uppsikt på. Det ena praktiska problemet handlar om användande av AI i verksamheter som fordrar emotionella förmågor som AI saknar. Empati ger människor förståelse för andra människors behov. Därför bör avsaknaden av emotionellt engagemang hos AI särskilt uppmärksammas när vi överväger att använda AI i verksamheter såsom barn- och äldreomsorg. Det andra praktiska problemet handlar om användande av AI i verksamheter som fordrar en insiktsfullhet som AI saknar. Intelligens handlar inte bara om att reagera på input från omgivningen. Ibland behövs en mer förutseende förståelse av omvärlden: en förmåga att gå bortom den givna erfarenheten och se mindre uppenbara möjligheter. Gråt kan uttrycka smärta, glädje och mycket mer, men AI förutser inte så lätt de mindre uppenbara möjligheterna.

Även två teoretiska problem nämns i artikeln. Det första är huruvida AI i framtiden kan få moraliskt relevanta egenskaper som autonomi, intressen och preferenser. Det andra problemet är om alltmer avancerad AI kan tänkas påverka vår mänskliga självförståelse och skapa oro och osäkerhet om vår identitet. Dessa problem fordrar utan tvekan försiktig analys, för vet vi ens vad vi undrar? I filosofin behöver vi ofta klargöra våra frågor under filosoferandets gång.

Artikeln betonar särskilt ett krav på etisk analys av AI. Den bör samvetsgrant beakta moraliskt relevanta förmågor som AI saknar: förmågor som behövs för att tillfredsställa viktiga mänskliga behov. Kan vi låta en gullig dagisrobot ”trösta” barnen när de skriker av skratt eller när de slår sig så allvarligt att de behöver vård?

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Farisco, M., Evers, K. & Salles, A. Towards establishing criteria for the ethical analysis of Artificial Intelligence. Science and Engineering Ethics (2020). https://doi.org/10.1007/s11948-020-00238-w

Detta inlägg på engelska

Vi vill ha djup

Etik som förnyad klarhet om nya situationer

En artikel i tidskriften Big Data & Society kritiserar skarpt den form av etik som kommit att dominera forskning och utveckling inom artificiell intelligens (AI). Det handlar om samma ramverkstolkning av etiken som du kunde läsa om på Etikbloggen förra veckan. Men med en oroväckande skillnad. Snarare än att fungera som staket som sätter nödvändiga gränser för utvecklingen, riskerar ramverket att användas som etisk täckmantel av AI-företag, som vill undvika juridisk reglering av området. Genom att hänvisa till etisk självreglering – vackra deklarationer av principer, värdeord och riktlinjer – hoppas man kunna undvika juridisk reglering, som verkligen kunde sätta viktiga gränser för AI.

Problemet med AI-etik som ”mjuk etiklagstiftning” är inte bara att den kan användas för att undvika nödvändig juridisk reglering av området. Problemet är framförallt, menar SIENNA-forskarna som skrivit artikeln, att den formen av etik inte hjälper oss att tänka klart om nya situationer. Vad vi behöver, menar de, är en etik som ständigt förnyar vår blick för det nya. Det är nämligen så att AI ständigt ställer oss inför nya situationer: nya användingar av robotar, nya möjligheter för regeringar och företag att övervaka människor, nya former av teknikberoende, nya risker för diskriminering, samt utmaningar som vi kanske inte så lätt förutser.

Författarna betonar att en sådan ögonöppnande AI-etik kräver nära samarbete med samhällsvetenskaperna. Det är naturligtvis riktigt. Själv vill jag betona att en etik som förnyar vår blick för det nya, även måste vara filosofisk i ordets djupaste mening. För att klart se det nya och oväntade, kan du inte ens vila i din professionella kompetens, med sina etablerade metoder, teorier och begrepp. Du måste ifrågasätta dina egna intellektuella ramar. Du måste tänka själv.

Läs den redan uppmärksammade artikeln, som jag upplevde som frisk fläkt.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Anaïs Rességuier, Rowena Rodrigues. 2020. AI ethics should not remain toothless! A call to bring back the teeth of ethics. Big Data & Society

Detta inlägg på engelska

Vi söker klarhet

« Äldre inlägg