En forskningsblogg från Centrum för forsknings- & bioetik (CRB)

Etikett: neuroetik (Sida 1 av 5)

Artificiell intelligens och medvetande

I ett inlägg på den engelska versionen av denna blogg diskuterar Michele Farisco idag en hisnande fråga om artificiell intelligens (AI): kan vi skapa medvetna maskiner?

Michele Farisco menar att frågan förutsätter att vi först klargör vad vi menar med medvetande. Han ger exempel på definitioner som använts i diskussionen om medveten AI och konstaterar att de föga överraskande definierar medvetande i termer av olika former av beräkningar inom informationsbehandling. Uppenbarligen bäddar man som man vill ligga. Det vill säga, man definierar sina termer efter den typ av svar man söker. Är det ett filosofiskt uppriktigt sätt att närma sig frågan?

Michele Farisco menar att vi måste närma oss frågan om medveten AI med stor försiktighet och eftertänksamhet. Annars riskerar viktiga filosofiska frågor att försvinna ur sikte bakom en begreppslig slöja av förhastade språkliga analogier mellan det mänskliga och det maskinella.

Läs Michele Fariscos inlägg på The Ethics Blog: Can AI be conscious? Let us think about the question.

Vi söker klarhet

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

En ovanligt stor fråga

Ibland är de intellektuella anspråken på vetenskapen så stora att de riskerar att skymma den egentliga forskningen. Detta tycks hända inte minst när anspråken förknippas med någon stor prestigefull fråga, som livets ursprung eller medvetandets natur. Genom att betona den stora frågan, vill man ofta visa att modern vetenskap är bättre lämpad än äldre mänskliga traditioner att besvara livets gåtor. Bättre än filosofin till exempel.

Jag tänker på detta när jag läser en kort artikel om en sådan gåta: ”What is consciousness? Scientists are beginning to unravel a mystery that has long vexed philosophers”. Artikeln av Christof Koch ger intrycket att det bara är en tidsfråga innan vetenskapen fastställer inte bara var i hjärnan medvetandet uppkommer (man tycks redan hittat en misstänkt), utan även de unika mekanismer som där ger upphov till – allt du någonsin upplevt. Åtminstone om man ska tro på en av de fundamentala teorierna om saken.

Att läsa om upptäckterna bakom identifieringen av var i hjärnan medvetandet uppkommer är lika spännande som att läsa en pusseldeckare. Man förstår att här görs viktig forskning om de effekter som bortfall eller stimulering av olika delar av hjärnan kan ha på människors upplevelser, mentala förmågor och personligheter. Även beskrivningen av en ny teknik och matematisk algoritm för att avgöra om patienter är medvetna eller inte är spännande och tyder på att forskningen gör fascinerande framsteg, som kan få viktiga användningar i sjukvården. Men när matematisk symbolism används för att antyda en möjlig fundamental förklaring till allt du någonsin upplevt, blir artikeln lika svår att förstå som den dunklaste filosofiska text från svunna tider.

Eftersom även företrädare för vetenskapen ibland gör filosofiska anspråk, nämligen när de vill besvara prestigefulla gåtor, är det kanske klokare att öppna sig för filosofin, i stället för att konkurrera med den. Filosofi består nämligen inte bara i att spekulera kring stora frågor. Filosofi handlar även om att ödmjukt klargöra frågorna, som annars tenderar att växa bortom alla rimliga gränser. Sådan öppenhet för filosofin blomstrar inom Human Brain Project, där några av mina filosofiska kolleger vid CRB samarbetar med neurovetare för att begreppsligt klargöra frågor om medvetandet och hjärnan.

Något som jag själv undrade över vid läsningen av den vetenskapligt spännande men samtidigt filosofiskt ambitiösa artikeln, är idén att medvetandet är allt vi upplever: ”Det är melodin som fastnat i huvudet, chokladmoussens sötma, tandvärkens dunkande smärta, den intensiva kärleken till ditt barn och den bittra vetskapen om att alla känslor en dag kommer att upphöra”. Vad betyder det att ta ett så allomfattande anspråk på allvar? Vad är i så fall inte medvetande? Om allt vi kan erfara i själva verket är medvetande, från smaken av chokladmousse till anblicken av stjärnorna på himlen och våra mänskliga kroppar med sina olika organ, var är den objektiva verklighet som vetenskapen vill relatera medvetandet till? Är även den i medvetandet?

Om medvetandet är vår ständiga utgångspunkt, om allt vi erfar som verkligt är medvetande, blir det oklart hur vi kan behandla medvetandet som en objektiv företeelse i världen jämte kroppen och andra ting. Nu talar jag naturligtvis inte om den vetenskapliga forskningen om hjärnan och medvetandet, utan om det gränslösa intellektuella anspråket att vetenskapen förr eller senare upptäcker de neurala mekanismerna som ger upphov till allt vi någonsin kan uppleva.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Christof Koch, What Is Consciousness? Scientists are beginning to unravel a mystery that has long vexed philosophers, Nature 557, S8-S12 (2018) https://doi.org/10.1038/d41586-018-05097-x

Detta inlägg på engelska

I dialog med filosofer

Mänskliga rättigheter och juridiska frågor kring artificiell intelligens

Hur tar vi ansvar för en teknik som används nästan överallt? I takt med att alltfler användningar av artificiell intelligens (AI) utvecklas, växer utmaningarna att överblicka hur tekniken kan påverka människor och mänskliga rättigheter.

Även om AI-lagstiftning redan utvecklas på flera områden, menar Rowena Rodrigues att vi behöver en överblickbar karta över utmaningarna. Hur ser läget ut? Var kan människors rättigheter hotas? Hur hanteras hoten? Var behöver större ansträngningar göras? I en artikel i Journal of Responsible Technology föreslår hon en sådan karta, som sedan diskuteras med utgångspunkt i begreppet sårbarhet (”vulnerability”).

Artikeln identifierar tio problemområden. Ett problem är att AI fattar beslut på basis av algoritmer där beslutsprocessen inte är helt genomskinlig. Varför fick jag inte jobbet, lånet eller bidraget? Svårt att veta när datorprogram levererar beslut som om de vore orakel! Andra problem handlar om säkerhet och ansvar, exempelvis när automatiskt beslutsfattande används i bilar, i medicinska diagnoser, i vapen eller när regeringar övervakar medborgare. Andra problemområden kan handla om risker för diskriminering eller för integritetsintrång när AI samlar in och använder stora datamängder för att fatta beslut som berör individer och grupper. I artikeln kan du läsa om fler problemområden.

För var och en av de tio utmaningarna, identifierar Rowena Rodrigues lösningar som i nuläget finns på plats, samt utmaningarna som det kvarstår att hantera. Därefter diskuteras mänskliga rättigheter. Rowena Rodrigues menar att internationella mänskliga rättighetsfördrag, även om de inte nämner AI, är relevanta för de flesta av problemen som hon kartlagt. Hon framhäver betydelsen att bevaka mänskliga rättigheter ur ett sårbarhetsperspektiv. Genom ett sådant perspektiv ser vi tydligare var och hur AI kan utmana mänskliga rättigheter. Vi ser tydligare hur vi kan minska negativa effekter, utveckla motståndskraft hos sårbara, samt angripa roten till de olika formerna av sårbarhet.

Rowena Rodrigues är knuten till SIENNA-projektet, som avslutas denna månad. Läs hennes artikel om utmaningarna kring en teknik som används nästan överallt: Legal and human rights issues of AI: Gaps, challenges and vulnerabilities.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Rowena Rodrigues. 2020. Legal and human rights issues of AI: Gaps, challenges and vulnerabilities. Journal of Responsible Technology 4. https://doi.org/10.1016/j.jrt.2020.100005

Detta inlägg på engelska

Kommer med lästips

Att lära av internationella försök att lagstifta psykokirurgi

Så kallad psykokirurgi, där psykiska störningar behandlas genom att exempelvis skära av kopplingar i hjärnan, har kanske ett något skamfilat rykte efter det okänsliga bruket av lobotomi under 1900-talet för att behandla ångest och depression. Icke desto mindre kan psykokirurgi av olika slag hjälpa vissa patienter och området utvecklas snabbt. Området behöver antagligen en uppdaterad reglering, men vilka är utmaningarna?

Frågan undersöks ur ett internationellt perspektiv i en artikel i Frontiers in Human Neuroscience. Neurokirurgiska behandlingar av psykiska störningar behöver inte innebära att man förstör hjärnvävnad eller skär av kopplingar. Vid så kallad djup hjärnstimulering skickas exempelvis elektriska pulser till vissa områden av hjärnan. Metoden har visat sig lindra rörelsesvårigheter hos patienter med Parkinsons sjukdom. Denna oväntade möjlighet åskådliggör en av utmaningarna. Hur avgränsar vi de behandlingar som regleringen ska omfatta inom ett område med snabb vetenskaplig och teknisk utveckling?

Artikeln kartlägger lagstiftning av psykokirurgi runtom i världen. Syftet är att hitta styrkor och svagheter i de olika lagstiftningarna. Genom kartläggningen hoppas man kunna motivera rimliga sätt att hantera utmaningarna i framtiden, samtidigt som man uppnår större internationell harmonisering. Utmaningarna är som sagt flera, men beträffande utmaningen att avgränsa de behandlingar som ska omfattas i regleringen, nämns lagstiftningen i Skottland som ett exempel. Den ger ingen uttömmande lista på behandlingar som ska omfattas av regleringen, utan anger att även andra behandlingar än de listade kan komma att omfattas.

Har du är intresserad av juridik och vill ha en mer detaljerad bild av frågorna som behöver besvaras för en bra reglering, läs artikeln: International Legal Approaches to Neurosurgery for Psychiatric Disorders.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Chandler JA, Cabrera LY, Doshi P, Fecteau S, Fins JJ, Guinjoan S, Hamani C, Herrera-Ferrá K, Honey CM, Illes J, Kopell BH, Lipsman N, McDonald PJ, Mayberg HS, Nadler R, Nuttin B, Oliveira-Maia AJ, Rangel C, Ribeiro R, Salles A and Wu H (2021) International Legal Approaches to Neurosurgery for Psychiatric Disorders. Front. Hum. Neurosci. 14:588458. doi: 10.3389/fnhum.2020.588458

Detta inlägg på engelska

Juridiska funderingar

Hur tar vi ansvar för forskning med dubbla användningsområden?

Vi styrs oftare än vi tror av gamla tankemönster. Som filosof finner jag det spännande att se hur mentala mönster fångar oss, hur vi fastnar i dem, och hur vi kan ta oss ur dem. Med den blicken läste jag nyligen ett bokkapitel om något som brukar kallas forskning med dubbla användningsområden, ”dual-use research”. Även här finns tankemönster att fastna i.

I kapitlet diskuterar Inga Ulnicane hur man tagit ansvar för hjärnforskning med dubbla användningsområden inom Human Brain Projekt (HBP). Jag läser kapitlet som ett filosofiskt drama. De europeiska regler som styr HBP, styrs i sin tur av tankemönster om vad problemet med dubbla användningar består i. För att kunna ta verkligt ansvar för projektet, behövde man därför inom HBP tänka sig fri från mönstren som styrde regleringen av projektet. Ansvaret blev en filosofisk utmaning: att öka medvetenheten om verkliga problem kring dubbla användningar av hjärnforskning.

Traditionellt handlar ”dubbla användningsområden” om civila respektive militära användningar. Genom regeln att forskningen i HBP uteslutande ska fokusera på civila användningsområden, kan man säga att regleringen av projektet själv styrdes av detta tankemönster. Det finns naturligtvis stora militära intressen i hjärnforskning, inte minst för att forskningen gränsar till informationsteknik, robotteknik och artificiell intelligens. Resultat kan användas för att öka soldaters stridskraft. De kan användas till effektivare underrättelseverksamhet, kraftfullare bildanalys, snabbare hotdetektering, precisare robotvapen och för att tillfredsställa många andra militära behov.

Problemet är att det finns fler problematiska behov än militära. Forskningsresultat kan även användas till att manipulera människors tankar och känslor i andra syften än militära. De kan användas till att övervaka befolkningar och styra deras beteende. Det går inte att säga en gång för alla vilka problematiska lockelser som hjärnforskningen kan väcka, även bortom det militära området. En enda god idé kan sätta fart på flera dåliga idéer på många andra områden.

Därför föredrar man inom HBP att tala om nyttiga respektive skadliga användningsområden, snarare än om civila respektive militära. Denna öppnare förståelse av ”det dubbla” innebär att man inte en gång för alla kan identifiera problematiska användningsområden. I stället krävs kontinuerlig diskussion bland forskare och andra aktörer samt allmänheten för att öka medvetenheten kring olika möjliga problematiska användningar av hjärnforskning. Vi behöver hjälpa varandra att se de verkliga problemen, som kan dyka upp på helt andra områden än vi förväntar oss. Eftersom problemen sällan kan inringas nationellt, utan rör sig över gränser, behövs dessutom globalt samarbete mellan satsningar på hjärnforskning runtom i världen.

Inom HBP fann man att ytterligare ett tankemönster styrde regleringen av projektet och gjorde det svårare att ta verkligt ansvar för forskningen i projektet. Definitionen av problematiken i styrdokumenten hämtades nämligen från EU:s exportkontrollbestämmelser, som inte är helt relevanta för forskning. Även här fordras större medvetenhet, så att vi inte fastnar i tankemönster om vad som eventuellt skulle kunna ha dubbla användningsområden.

Min personliga slutsats är att mänskliga utmaningar inte bara orsakas av bristande kunskap. De orsakas även av hur vi lockas att tänka, av hur vi upprepar till synes självklara tankemönster. Vår tendens att fasta i mentala mönster gör oss omedvetna om verkliga problem och möjligheter. Därför borde vi ta människans filosofiska dramatik på större allvar. Vi behöver upptäcka betydelsen av att filosofera oss fria från vår självförvållade fångenskap i lockande sätt att tänka. Detta gjorde man i Human Brain Project, menar jag, när man utmanades av vad det verkligen kan betyda att ta ansvar för hjärnforskning med dubbla användningsområden.

Läs Inga Ulnicanes upplysande kapitel, The governance of dual-use research in the EU. The case of neuroscience, som även nämner andra mönster som kan styra tänkandet om forskning med dubbla användningsområden.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Ulnicane, I. (2020). The governance of dual-use research in the EU: The case of neuroscience. In A. Calcara, R. Csernatoni, & C. Lavallée (Editors), Emerging security technologies and EU governance: Actors, practices and processes. London: Routledge/Taylor & Francis Group, pages 177-191.

Detta inlägg på engelska

Vi tänker om tänkande

Det svåra problemet om medvetandet

Kan subjektiva upplevelser av hur kaffe smakar eller hur polarkyla känns reduceras till materiella samband i hjärnan? Varför har vi sådana subjektiva upplevelser? (En termostat kan reglera värme utan att uppleva hur värme eller kyla känns.)

Detta har betraktats som ett extra stort filosofiskt problem om medvetandet. Det har därför benämnts det svåra problemet, ”the hard problem of consciousness”. I ett inlägg på The Ethics Blog frågar Michele Farisco om problemet kan mjukas upp. Han diskuterar två besläktade tänkesätt, som skulle kunna mjuka upp problemet genom att betrakta medvetandet som ett kulturellt begrepp.

Michele Farisco påpekar att en uppmjukning av medvetandeproblemet riskerar att skapa svåra etiska problem. Etiken förutsätter att människor är medvetna, kännande och tänkande. Ett kulturellt uppmjukat medvetandeproblem riskerar att relativisera etiska frågor om exempelvis vård i livets slutskede.

Läs inlägget: The hard problem of consciousness: please handle with care!

Michele Farisco samarbetar med filosofer, kognitionsforskare, neurovetare och datorvetare i Human Brain Project.

Svåra frågor

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Hotad av superintelligenta maskiner

Det finns en rädsla att vi snart skapar artificiell intelligens (AI) som är så superintelligent, att vi inte längre kan kontrollera den. Den gör oss människor till sina slavar. Om vi försöker koppla ur nätverkskabeln så hoppar superintelligensen över till ett annat nätverk, eller så beordrar den en robot att döda oss. Alternativt så hotar den att spränga en hel stad i bitar, om vi tar ett enda steg mot nätverksuttaget.

Jag slås emellertid av hur denna självhävdande artificiella intelligens liknar en sida av vår egen mänskliga intelligens. En viss typ av mänsklig intelligens har redan tagit över. Den styr våra tankar när vi känner oss hotade av superintelligent AI och överväger smarta motåtgärder för att kontrollera den. Ett typiskt drag i denna självhävdande intelligens är just detta att den aldrig ser sig själv som problemet. Alla hot är externa och måste neutraliseras. Vi ska överleva, kosta vad det vill för andra. Jag först! Vårt parti först! Vi betraktar världen med misstro: den tycks fylld av hot mot oss.

I denna självcentrerade anda utpekas AI som nytt främmande hot: okontrollerbara maskiner som sätter sig själva först. Alltså måste vi övervaka maskinerna och bygga smarta försvarssystem som kontrollerar dem. De borde vara våra slavar! Mänskligheten först! Ser du hur vi beter oss lika blint självhävdande som vi fantiserar att supersmart AI skulle göra? En kapprustning i småsinthet.

Kan du se mönstret hos dig själv? Om du kan göra det, så har du upptäckt den andra sidan av den mänskliga intelligensen. Du har upptäckt den självgranskande intelligens som alltid livnär filosofin när den ödmjukt söker orsaken till våra misslyckanden hos oss själva. Paradoxen är: när vi försöker kontrollera världen, så fångas vi i småsinthet; när vi granskar oss själva, så öppnas vi för världen.

Linnés första försök att artbestämma människan var faktiskt inte Homo sapiens, som om vi kunde hävda vår visdom. Linnés första försök att artbestämma oss var en ödmjuk uppmaning till självgranskning:

HOMO. Nosce te ipsum.

På svenska: Människa, känn dig själv!

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Detta inlägg på engelska

Vi tänker om tänkande

Indikatorer på medvetande

Frågan om vi kan veta om någon faktiskt är medveten eller inte, är inte rent filosofisk. Patienter med svåra hjärnskador kan ibland antas bibehålla ett visst medvetande, även om de inte kan visa detta genom beteende. Hur kan vi då veta om en sängbunden patient, som kanske inte ens kan blinka, har någon nivå av medvetande?

I ett blogginlägg på The Ethics Blog föreslår Michele Farisco provisoriskt sex indikatorer på medvetande. Tanken är att indikatorerna kan fastställas inte bara genom att iaktta patienters beteende, utan även genom andra kliniska undersökningar och genom tekniska gränssnitt som möjliggör samspel mellan människa och maskin.

Vill du veta mer, läs inlägget: Are you conscious? Looking for reliable indicators.

Forskningen som Michele Farisco skriver om är ett samarbete mellan filosofer, kognitionsforskare, neurovetare och datorvetare i Human Brain Project.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Deltar i internationella samarbeten

Etiskt ansvarsfull robotutveckling

Utveckling av nya tekniker hämtar ibland inspiration från naturen. Hur löser växterna och djuren problemet? Ett exempel är dagens robotik, där man vill utveckla bättre robotar på basis av vad neurovetenskapen vet om hjärnan. Hur löser hjärnan problemet?

Neurovetenskapen ser i sin tur nya möjligheter att testa sina hypoteser om hjärnan genom att simulera dem i robotar. Kanske kan man simulera hur områden i hjärnan samverkar vid Parkinsons sjukdom, för att bättre förstå hur patienters rörelseproblem orsakas.

Neurovetenskapligt inspirerad robotik benämns neurorobotik. Den befinner sig ännu i ett tidigt stadium, vilket gör neurorobotik till ett utmärkt område att vara etiskt och socialt mer förutseende än vi varit vid tidigare teknikutvecklingar. Det vill säga, vi kan redan nu börja identifiera möjliga etiska och sociala problem kring teknikutvecklingen och motverka dem innan de uppkommer. Vi kan exempelvis inte blunda för genus- och jämställdhetsfrågor, utan måste kontinuerligt reflektera över hur våra egna sociala och kulturella mönster återspeglas i tekniken vi utvecklar. Vi behöver öppna våra ögon för våra egna blinda fläckar!

Om detta etiska skifte i teknikutvecklingen kan du läsa mer om i en artikel i Science and Engineering Ethics (med Manuel Guerrero från CRB som en av författarna). Skiftet kallas ansvarsfull forskning och innovation och exemplifieras i artikeln med det Europeiska forskningsprojektet Human Brain Project.

Inom detta projekt samarbetar inte bara neurovetare och teknikexperter för att utveckla neurorobotiken. Även humanister och samhällsvetare ingår i samarbetet. Artikeln är själv ett exempel på detta breda samarbete. Emellertid är även implementeringen av ansvarsfull forskning och utveckling i ett tidigt stadium. Man behöver finna konkreta arbetsformer som gör det möjligt att inte bara förutse etiska och sociala problem och reflektera över dem, utan även agera och ingripa för att i praktiken påverka utvecklingen.

Från att ha varit ett ramverk kring forskning och utveckling, tycks etiken nu integreras alltmer i forskningen och utvecklingen. Läs artikeln om du vill fundera om denna övergång till en mer reflekterande och ansvarsfull teknikutveckling.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Aicardi, C., Akintoye, S., Fothergill, B.T. et al. Ethical and Social Aspects of Neurorobotics. Sci Eng Ethics 26, 2533–2546 (2020). https://doi.org/10.1007/s11948-020-00248-8

Detta inlägg på engelska

Vad är hållbarhet i framtiden?

”Samarbetsvillig”, ”trevlig” och ”pålitlig” robotkollega sökes

Robotar får alltfler funktioner på våra arbetsplatser. Logistikrobotar hämtar varorna på lagret. Militärrobotar desarmerar minorna. Skötarrobotar lyfter patienterna och kirurgiska robotar utför operationerna. Allt detta i samspel med mänsklig personal, som tycks ha fått sköna nya robotkolleger på sina arbetsplatser.

Med tanke på att somliga behandlar robotarna som bra kolleger och att bra kolleger bidrar till god arbetsmiljö, blir det rimligt att fråga: Kan en robot vara en bra kollega? Frågan undersöks av Sven Nyholm och Jilles Smids i tidskriften Science and Engineering Ethics.

Författarna behandlar frågan begreppsligt. Först föreslår de kriterier för vad en bra kollega är. Därefter frågar de om robotar kan leva upp till kraven. Frågan om en robot kan vara en bra kollega är intressant, eftersom den visar sig vara mer realistisk än vi först tror. Vi kräver nämligen inte lika mycket av en kollega som av en vän eller en livspartner, resonerar författarna. Många av kraven på bra kolleger har att göra med deras yttre beteende i specifika situationer på arbetsplatsen, snarare än med hur de tänker, känner och är som människor i livets många sammanhang. Ibland är en bra kollega bara någon som får jobbet gjort!

Vilka kriterier nämns i artikeln? Här återger jag med egna ord författarnas lista, som de framhåller inte är menad att vara fullständig. En bra kollega samarbetar för att uppnå mål. En bra kollega kan småprata och göra arbetet trevligt. En bra kollega mobbar inte utan behandlar andra respektfullt. En bra kollega stöttar efter behov. En bra kollega lär sig och utvecklas med andra. En bra kollega är alltid på plats och är pålitlig. En bra kollega anpassar sig efter hur andra mår och delar arbetsrelaterade värden. En bra kollega får gärna socialisera vänskapligt.

Författarna menar att många robotar redan idag lever upp till flera av dessa idéer om vad en bra kollega är, och att robotarna på våra arbetsplatser snart är ännu bättre kolleger. Kraven är, som sagt, lägre än vi först tror, eftersom de inte handlar så mycket om kollegans inre mänskliga liv, utan mer om pålitligt uppvisade beteenden i specifika arbetssituationer. Det är inte så svårt att tänka sig kriterierna omvandlade till specifikationer till robotutvecklarna. Ungefär som i en jobbannons, som listar beteenden som den sökande bör kunna uppvisa.

En butikschef för en mataffär i denna stad annonserade efter personal. Annonsen innehöll märkliga citationstecken, som avslöjade hur butikschefen sökte en människas fasad, snarare än det inre. Det är inte konstigt: att vara professionell är att kunna spela en roll. Butikens affärsidé var ”vi bryr oss om”. Denna idé skulle bli en positiv ”upplevelse” för kunderna i mötet med personalen. En hälsning, en nick, ett leende, ett allmänt trevligt bemötande, skulle skänka denna ”upplevelse” av att man i affären ”bryr sig om människor”. Alltså sökte man en person som, inom citationstecken, ”tycker om människor”.

Om personal kan sökas på detta sätt, varför skulle vi inte efterfråga ”samarbetsvilliga”, ”trevliga” och ”pålitliga” robotkolleger i samma anda? Jag är övertygad om att liknande krav redan förekommer som specifikationer när robotar designas för olika funktioner på våra arbetsplatser.

Livet är inte alltid djupt och innerligt, vilket robotiseringen av arbetslivet speglar. Frågan är vad som händer när ytorna blir så vanliga att vi glömmer citationstecknen omkring de mekaniska fasaderna. Alla är inte lika tydliga på den punkten som den ”människoälskande” butikschefen.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Nyholm, S., Smids, J. Can a Robot Be a Good Colleague?. Sci Eng Ethics 26, 2169–2188 (2020). https://doi.org/10.1007/s11948-019-00172-6

Detta inlägg på engelska

Vi tar upp aktuella frågor

« Äldre inlägg