En forskningsblogg från Centrum för forsknings- & bioetik (CRB)

Etikett: artificiell intelligens (Sida 1 av 3)

Föremål som beter sig mänskligt

Ja, så kunde man betrakta vissa former av artificiell intelligens, som föremål som beter sig mänskligt. Det krävs dock inte mycket för att vi människor ska personifiera icke-levande ting. Vi blir arga på bilen som inte startar eller på vädret som inte låter oss ha picknick, som om de var emot oss. Barn personifierar spontant enkla leksaker och kan beskriva relationen mellan geometriska former som ”den lilla cirkeln försöker fly från den stora triangeln”.

Vi stöter allt oftare på artificiell intelligens som designats för att ge mänskligt intryck, exempelvis i form av chattbottar för kundservice när du handlar online. Sådan AI kan rentav utrustas med personliga karaktärsdrag, en persona som blir en viktig del av kundupplevelsen. Chattbotten kan föreslå ännu fler produkter åt dig och effektivt generera merförsäljning utifrån data som insamlas om dig. Inte konstigt att intresset för att utveckla människolik AI är enormt. Delvis har det naturligtvis med användarvänlighet att göra, men samtidigt kommer en AI som du finner personligt attraktiv att fånga din uppmärksamhet. Du kanske rentav fattar tycke för chattbotten eller känner att det vore oartigt att stänga av. Under tiden som chattbotten har din uppmärksamhet exponeras du för alltmer anpassad reklam och får alltfler paketerbjudanden.

Detta och mycket mer kan du läsa om i en artikel om mänskliga relationer till AI designad för att ge ett mänskligt intryck: Human/AI relationships: challenges, downsides, and impacts on human/human relationships. Författarna diskuterar ett stort antal exempel på sådan AI, allt från chattbottarna ovan till vårdrobotar och AI som erbjuder psykoterapi, eller AI som människor chattar med för att motverka ensamhet. Möjligheterna är stora, men det är även utmaningarna och de möjliga nackdelarna, vilket artikeln framhäver. 

Särskilt intressant är kanske ändå insikten om hur effektivt AI kan skapa förvirring genom att exponera oss för objekt som utrustats medmänskliga responsmönster. Vår naturliga tendens att förmänskliga icke-mänskliga ting möter högteknologiska ansträngningar att producera föremål som är konstruerade för att bete sig mänskligt. Här handlar det inte längre om att fantasifullt projicera sociala relationer på icke-mänskliga ting, som i det geometriska exemplet ovan. I samspel med AI-föremålen reagerar vi på subtila sociala signaler som föremålen utrustas med. Vi kan rentav känna ett moraliskt ansvar för sådan AI och sörja när företagen avslutar eller modifierar den.

Författarna manar till försiktighet så att vi inte övertolkar AI-föremål som personer. Samtidigt varnar de för risken att vi, genom att undvika empatiska reaktioner, blir mindre känsliga för verkliga personer i nöd. Sannerligen förvirrande!

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Zimmerman, A., Janhonen, J. & Beer, E. Human/AI relationships: challenges, downsides, and impacts on human/human relationships. AI Ethics (2023). https://doi.org/10.1007/s43681-023-00348-8

Detta inlägg på engelska

Vi tar upp aktuella frågor

För en mer balanserad diskussion om medveten artificiell intelligens

Idag vill jag rekommendera ett blogginlägg på den engelska versionen av denna etikblogg. Michele Farisco diskuterar där utvecklingen av så kallad medveten AI, något som givetvis väcker funderingar.

Etikdiskussionen är livlig. Vissa kräver ett internationellt moratorium för alla försök att skapa konstgjort medvetande: riskerar vi att skapa konstgjort lidande? Andra menar att redan ”vanlig” AI är tillräckligt riskfylld: riskerar vi att skapa ännu mer svårhanterliga former av AI?

Dessa och andra etiska farhågor är svåra att bedöma. Inte bara för att den vetenskapliga och tekniska utvecklingen är snabb och avancerad, utan även för att vi allvarligt talat inte riktigt vet vad vi pratar om! Vad är medvetande? Vet vi ens vad det innebär att människor och andra djur är medvetna?

Michele Farisco har länge undersökt frågan om mänskligt medvetande. Han har bland annat bidragit till att utveckla indikatorer för olika dimensioner av mänskligt medvetande som kan användas för vid bedömningar medvetandegraden hos patienter. Hans förslag är att indikatorerna kan vara relevanta även för att identifiera medvetenhet i artificiella system, samt att detta kan göra den etiska diskussionen mer balanserad och realistisk.

Läs blogginlägget här: A strategy for a balanced discussion of conscious AI.

Utgångspunkten för blogginlägget är ett bokkapitel som Michele Farisco nyligen skrivit. Du hittar referens och länk till kapitlet nedan.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Michele Farisco. The ethical implications of indicators of consciousness in artificial systems. Developments in Neuroethics and Bioethics. Available online 1 March 2024. https://doi.org/10.1016/bs.dnb.2024.02.009

Vi söker klarhet

Kvinnor om AI-assisterad mammografi

Användning av AI-verktyg inom vård och hälsa har blivit ett återkommande tema på denna blogg. Hittills har inläggen främst handlat om mobil- och onlineappar för användning av patienter och allmänheten. Idag är temat mer avancerade AI-verktyg som används yrkesmässigt av vårdpersonal.

Inom det svenska programmet för bröstcancerscreening tolkar radiologer stora mängder röntgenbilder för att upptäcka bröstcancer på ett tidigt stadium. Arbetsbördan är stor och för det mesta visar röntgenbilderna inga tecken på cancer eller förstadier till cancer. Idag utprovas AI-verktyg som skulle kunna förbättra mammografin på flera sätt. AI skulle kunna användas som assisterande resurs för radiologerna för att upptäcka ytterligare tumörer. Den skulle även kunna användas som oberoende tolkare av röntgenbilder för att avlasta radiologer, samt för att stödja bedömningar av vilka patienter som mer omedelbart bör få vård.

För att AI-assisterad mammografi ska fungera behöver inte bara tekniken utvecklas. Forskare behöver även undersöka hur kvinnor tänker kring AI-assisterad mammografi. Hur uppfattar de AI-stödd bröstcancerscreening? Fyra forskare, däribland Jennifer Viberg Johansson och Åsa Grauman vid CRB, intervjuade sexton kvinnor som genomgick mammografi på ett svenskt sjukhus där ett AI-verktyg testades som tredje bedömare av röntgenbilderna, jämte de två radiologerna.

Flera av de intervjuade framhöll att AI bara är ett verktyg: AI inte kan ersätta läkaren eftersom människor har förmågor bortom bildigenkänning, såsom intuition, empati och helhetstänkande. Ett annat resultat var att några av de intervjuade hade större tolerans för mänskliga misstag än om AI-verktyget misslyckades, vilket betraktades som oacceptabelt. Några menade att om AI-verktyget gör ett fel, så kommer felet att upprepas systematiskt, medan mänskliga misstag är tillfälliga. Några menade att ansvaret när tekniken fallerar ligger hos människan och inte hos tekniken.

Personligen kan jag inte låta blir att spekulera att den skarpa åtskillnaden mellan mänskliga misstag, som man lättare försonar sig med, och oacceptabelt fallerande teknik, sammanhänger med att vi om en människa som misslyckas kan säga: ”Radiologen gjorde säkert trots allt sitt bästa”. Däremot säger vi knappast om fallerande AI: ”Tekniken gjorde säkert trots allt sitt bästa”. Teknik blir inte föremål för vissa former av försonande betraktelser.

Författarna själva framhåller att deltagarna i studien såg AI som ett värdefullt verktyg inom mammografin, men att verktyget inte kan ersätta människor i processen. Författarna framhåller även att de intervjuade föredrog att AI-verktyget identifierar möjliga tumörer med stor känslighet, även om detta leder till många falska positiva resultat och därmed till onödig oro och rädsla. För att patienter ska förstå AI-assisterad sjukvård krävs effektiva kommunikationsinsatser, avslutar författarna.

Det är svårt att sammanfatta det rika materialet från intervjustudier. För att ta del av fler resultat, läs studien här: Women’s perceptions and attitudes towards the use of AI in mammography in Sweden: a qualitative interview study.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Viberg Johansson J, Dembrower K, Strand F, et al. Women’s perceptions and attitudes towards the use of AI in mammography in Sweden: a qualitative interview study. BMJ Open 2024;14:e084014. doi: 10.1136/bmjopen-2024-084014

Detta inlägg på engelska

I dialog med patienter

Att använda artificiell intelligens med akademisk integritet

AI-verktyg kan både förändra och producera innehåll såsom texter, bilder och musik. Verktygen blir dessutom alltmer tillgängliga som onlinetjänster. Ett exempel är verktyget ChatGPT, som du kan ställa frågor till och få välinformerade, logiskt resonerande svar från. Svar som verktyget dessutom kan korrigera om du påpekar fel och oklarheter. Du kan interagera med verktyget nästan som om du samtalade med en människa.

Ett sådant verktyg kan naturligtvis vara oerhört användbart. Det kan hjälpa dig att lösa problem och finna relevant information. Jag vågar gissa att responsen från verktyget dessutom kan stimulera kreativiteten och öppna sinnet för oväntade möjligheter, precis som samtal med människor brukar göra. Men liksom all teknik kan verktygen även missbrukas och studenter har redan använt ChatGPT för att klara sina inlämningsuppgifter.

Utmaningen inom utbildning och forskning är alltså att lära sig att använda dessa AI-verktyg med akademisk integritet. Det är inte automatiskt fusk att använda AI-verktyg. Sju deltagare i ett europeiskt nätverk för akademisk integritet (ENAI), däribland Sonja Bjelobaba vid CRB, skriver om utmaningen i en ledarartikel i tidskriften International Journal for Educational Integrity. Framförallt sammanfattar de tentativa rekommendationer från ENAI om etisk användning av AI i akademin.

En övergripande målsättning i rekommendationerna är att integrera rekommendationer om AI med andra besläktade rekommendationer om akademisk integritet. Således ska alla personer, källor och verktyg som påverkat idéer eller genererat innehåll tydligt anges – däribland användning av AI-verktyg. Lämplig användning av verktyg som påverkar textens form (som korrekturläsande verktyg, stavningskontroller och automatiserade synonymförslag) är i allmänhet acceptabla. Vidare kan ett AI-verktyg inte anges som medförfattare i en publikation, eftersom verktyget inte kan ta ansvar för innehållet.

Rekommendationerna betonar även vikten av utbildningsinsatser om etisk användning AI-verktyg. Läs rekommendationerna i sin helhet här: ENAI Recommendations on the ethical use of Artificial Intelligence in Education.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Foltynek, T., Bjelobaba, S., Glendinning, I. et al. ENAI Recommendations on the ethical use of Artificial Intelligence in Education. International Journal for Educational Integrity 19, 12 (2023). https://doi.org/10.1007/s40979-023-00133-4

Detta inlägg på engelska

Vi bryr oss om undervisning

Projekt om möjligheten av artificiell medvetenhet

Vore det i princip möjligt att bygga en robot som inte bara uppför sig intelligent utan dessutom har medvetande? Denna hisnande fråga ska undersökas i ett 4-årigt europeiskt projekt om artificiell medvetenhet, koordinerat från Radboud University i Nederländerna.

I projektet samarbetar ingenjörer och datavetare med filosofer från CRB som arbetar inom området neuroetik. En av dessa filosofer är Michele Farisco, som du kanske redan läst om på Etikbloggen. Idag beskriver han projektet på den engelska versionen av denna blogg: A new project will explore the prospect of artificial awareness.

Filosoferna i projektet, däribland Kathinka Evers, kommer att skärskåda och analysera begreppet medvetande, samt identifiera indikatorer på medvetenhet som skulle kunna användas för att bedöma medvetenhet hos artificiella system. De kommer även att bidra till etisk analys av möjliga framtida scenarier.

Naturligtvis kommer Etikbloggen att följa arbetet i projektet!

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Deltar i internationella samarbeten

Saknade perspektiv i föreställningen om artificiell intelligens

Teknikutvecklingen är djupt inbäddad i våra samhällen och kulturer. Sättet som artificiell utvecklas, anpassas, regleras och accepteras (eller inte) är intimt förknippat med de narrativ kring intelligenta maskiner som vi matats av i konsten, litteraturen och andra mänskliga föreställningsvärldar. Både i nutid och i dåtid. Men allas perspektiv är inte med i historierna om tänkande maskiner. Något som Damian Eke och George Ogoh belyser i en artikel om glömda (eller kanske gömda) AI-narrativ från Afrika. För vad händer med föreställningen om AI när vi tänker oss att tekniken är neutral?

Både Damian Eke och Geroge Ogoh arbetar med frågor kring ansvarsfull forskning och innovation i det stora EU-flaggskeppsprojektet Human Brain Project. De pekar på det faktum att de flesta historier vi berättar om intelligent teknik bygger på föreställningar och begrepp från norra halvklotet. Artikeln väcker frågan om det är ett problem. Och i så fall, på vilket sätt? Svaret är ganska enkelt: när narrativen har en smak av teknikneutralitet blir det ett problem som sträcker sig förbi berättelserna om artificiell intelligens. För vad händer när vi i norr sätter agendan for forskning och innovation på södra halvklotet?

Vill du läsa mer om vad som händer när historiska, filosofiska, sociokulturella och politiska narrativ från Afrika saknas och vad det kan få för betydelse? Damian Eke och George Ogohs artikel är publicerad Open Access: Forgotten African AI Narratives and the future of AI in Africa.

För den som vill ha en mer lättsmält version har jag skrivit ett inlägg om artikeln på den engelska versionen av den här bloggen: AI narratives from the Global North.

Josepine Fernow

Skrivet av…

Josepine Fernow, koordinator och forskningskommunikatör hos Centrum för forsknings- och bioetik, som utvecklar kommunikationsstrategier för europeiska forskningsprojekt

Eke D, Ogoh G, Forgotten African AI Narratives and the future of AI in Africa, International Review of Information Ethics, 2022;31(08)

Kommer med lästips

Artificiell intelligens: stärka intelligens i människor eller skapa mänsklig intelligens i maskiner?

Ibland läser man artiklar i gränstrakten mellan filosofi och vetenskap som innehåller riktigt spännande visionära tankar, som det samtidigt är svårt att förstå och bedöma. Den tekniska utarbetningen av tankarna växer alltmedan man läser, och till slut vet man inte om man är kapabel att tänka självständigt omkring idéerna eller om det handlar om nya vetenskapliga rön och trender som man saknar expertis att bedöma.

Idag dristar jag mig till att rekommendera läsning av en sådan artikel. Inlägget måste av naturliga skäl bli kort. Men grundidéerna i artikeln är så pass intressanta att jag hoppas att några läsare av inlägget även blir läsare av artikeln och försöker förstå den.

Vad handlar artikeln om? Den handlar om ett alternativt sätt att närma sig de högsta anspråken inom artificiell intelligens. I stället för att försöka skapa maskiner som kan göra vad människor kan göra, maskiner med personligt medvetande och moral, fokuserar artikeln på möjligheten att skapa maskiner som stärker intelligensen hos redan medvetna, moraliskt tänkande människor. Denna idé är dock inte helt ny. Den har i funnits i över ett halvsekel inom exempelvis cybernetiken. Så vad är nytt i artikeln?

Något som jag själv slogs av var den medkännande rösten i artikeln, som annars inte är framträdande i AI-litteraturen. Artikeln fokuserar inte på att skapa supersmarta problemlösare, utan på att stärka våra band med varandra och med världen vi lever i. Exemplen som ges i artikeln handlar om bättre moraliska hänsynstaganden till människor långt borta, om bättre förutsägelser av naturkatastrofer i ett komplext klimat, samt om att återställa sociala kontakter hos människor som lider av depression eller schizofreni.

Men det originellaste i artikeln är kanske ändå förslaget att utvecklingen av dessa jag-stärkande maskiner skulle hämta inspiration från hur hjärnan redan upprätthåller kontakten med sin omgivning. Här bör man hålla i minnet att det handlar om matematiska modeller av hjärnan och om nyskapande sätt att tänka om hur hjärnan samspelar med omgivningen.

Det är frestande att se hjärnan som ett isolerat organ. Men hjärnan är via sinnen och nervbanor i ständigt dynamiskt utbyte med kroppen och världen. Du skulle inte uppleva världen om den inte gjorde ständigt nya avtryck i din hjärna och du ständigt agerade på de avtrycken. Denna intensiva interaktivitet på mängder av nivåer och tidsskalor syftar till att upprätthålla en stabil och begriplig kontakt med en omgivande värld. Tänkesättet i artikeln påminner mig om begreppet ”digital tvilling”, som jag tidigare bloggat om. Men här är det hjärnan som framstår som en neural tvilling med världen. Hjärnan liknar en kontinuerligt uppdaterad neural spegelbild av världen, som hjärnan samtidigt kontinuerligt förändrar.

Här börjar jag dock få svårt att riktigt begripa och bedöma tankarna i artikeln, särskilt beträffande den matematiska modell som antas beskriva hjärnans ”adaptiva dynamik”. Men som jag förstår saken, föreslår man möjligheten av att återskapa en liknande dynamik i intelligenta maskiner, som kan stärka vår förmåga att se komplexa mönster i vår miljö och vara i kontakt med varandra. En smula poetiskt kunde man kanske säga att det handlar om att stärka vårt neurala tvillingskap med världen. Ett slags neuralt-digitalt tvillingskap med omgivningen? Ett digitalt förstärkt neuralt tvillingskap med världen?

Mer vågar jag inte säga om den visionära artikeln. Kanske har jag redan tagit mig för stora poetiska friheter? Jag hoppas ändå att jag lyckats göra dig intresserad att läsa artikeln och bedöma den själv: Augmenting Human Selves Through Artificial Agents – Lessons From the Brain.

Jo, en sak vill jag avslutningsvis påpeka. Jag nämnde svårigheten att ibland förstå och bedöma spännande tankar som formuleras i gränstrakterna mellan filosofi och vetenskap. Är inte den svårigheten själv ett exempel på hur kontakten med omgivningen ibland försvagas? Här vet jag emellertid inte om jag skulle ha haft hjälp av digital intelligensförstärkning som raskt tog mig igenom de filosofiska svårigheter som man kan uppleva under läsning. Somliga frågor tycks väsentligen fordra tid, att man stannar upp och tänker efter!

Att ge sig själv tid att tänka är ett naturligt sätt att fördjupa kontakten med verkligheten, känt av filosofer i årtusenden.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Northoff G, Fraser M, Griffiths J, Pinotsis DA, Panangaden P, Moran R and Friston K (2022) Augmenting Human Selves Through Artificial Agents – Lessons From the Brain. Front. Comput. Neurosci. 16:892354. doi: 10.3389/fncom.2022.892354

Detta inlägg på engelska

Kommer med lästips

Kan neuro- och AI-etiken mötas?

I takt med att artificiell intelligens (AI) blir kraftfullare och används inom alltfler områden, växer behoven av etisk reflektion kring utvecklingen.

I ett inlägg på The Ethics Blog föreslår Michele Farisco idag att AI-etiken kan hämta inspiration från neuroetiken och att ett samarbete vore fruktbart. Några av frågorna som AI väcker är nämligen besläktade med frågor om intelligens och medvetande som undersökts inom neuroetiken. Vad betyder det att vara intelligent och i vilken mening kan maskiner tillskrivas intelligens? Vad betyder det att ha medvetande och är artificiellt medvetande tänkbart? Fundamentala frågor från de två etikområdena möts.

AI-utvecklingen har en tendens att väcka överdrivna förhoppningar och farhågor. Vi har även som människor en fantasifull tendens att projicera bilder av oss själva på tekniken. Sådana tendenser kan göra etikdiskussionen oklar och orealistisk. I blogginlägget föreslår Michele Farisco en arbetsmodell från neuroetiken, som kunde användas även inom AI-etiken för att hålla diskussionen klar och realistisk. Grundtanken är att börja med begreppsliga undersökningar för att belysa vad vi menar med vissa egenskaper när de tillskrivs AI, exempelvis autonomi. När vi klargjort begreppens tillämpbarhet på AI har vi en god grund att stå på för att undersöka den etiska relevansen och de normativa konsekvenserna av begreppen.

Vill du läsa blogginlägget så hittar du det här: How can neuroethics and AI join their forces? Inlägget bygger på en artikel som Michele Farisco nyligen publicerade med Kathinka Evers och Arleen Salles.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Farisco, M., Evers, K. & Salles, A. On the Contribution of Neuroethics to the Ethics and Regulation of Artificial Intelligence. Neuroethics 15, 4 (2022). https://doi.org/10.1007/s12152-022-09484-0

Vi hittar nya angreppssätt

Bilder av god och ond artificiell intelligens

Som Michele Farisco påpekat på den engelska versionen av denna blogg, fungerar artificiell intelligens (AI) ofta som projektionsyta för våra självbilder som människor. Ibland även som projektionsyta för våra bilder av gott och ont, som du snart ska få se.

Inom AI och robotteknik eftersträvas ofta autonomi, i meningen att den artificiella intelligensen ska kunna utföra sina uppgifter på bästa sätt utan mänsklig vägledning. Som en självkörande bil, som säkert tar dig dit du vill utan att du behöver styra, gasa eller bromsa. En annan form av autonomi som ofta eftersträvas är att den artificiella intelligensen ska vara självlärande och därmed kunna förbättra sig själv och bli kraftfullare utan mänsklig vägledning.

Filosofer har diskuterat om AI kan vara autonom även i en annan mening, som förknippas med vårt mänskliga förnuft. En autonom person kan, enligt denna bild, granska sina yttersta mål i livet och revidera dem, om hon bedömer att ny kunskap om världen gör det nödvändigt. Vissa filosofer menar att AI inte kan göra detta, eftersom det förprogrammerade målet, eller nyttofunktionen, skulle göra det irrationellt att ändra målet. Målet ligger fast. Idén om en sådan envist målinriktad AI kan väcka oroande bilder av ondskefull AI som löper amok mittibland oss. Men även betryggande bilder av god AI som pålitligt stödjer oss.

Oroade filosofer har föreställt sig en AI som har det yttersta målet att tillverka vanliga gem. Denna AI antas vara självförbättrande. Den blir därför allt intelligentare och kraftfullare vad gäller målet att tillverka gem. När råvaror sinar lär den sig nya sätt att förvandla jordens resurser till gem och när människor försöker hindra den från att förgöra planeten lär den sig att förgöra mänskligheten. När planeten är utplånad ger den sig ut i rymden och förvandlar universum till gem.

Filosofer som varnar för en sådan ”ond” superintelligent AI hyser även förhoppningar om en ”god” superintelligent AI. Anta nämligen att vi kunde ge självförbättrande AI målet att tjäna mänskligheten. Utan att tröttna skulle den utveckla allt intelligentare och kraftfullare sätt att vara vid vår sida, till tidens ände. Till skillnad från religionens gud skulle denna konstgjorda superintelligens höra våra böner och vidta allt smartare åtgärder för att hjälpa oss. Den skulle antagligen förr eller senare lära sig att förhindra jordbävningar och våra klimatproblem skulle snart vara borta. Inga teodicéproblem i världen kunde undergräva vår tro på denna AI-gud, vars makt att skydda oss mot allt ont bara ökar. Naturligtvis är det oklart hur målet att tjäna mänskligheten kan definieras. Men givet möjligheten att äntligen säkerställa mänsklighetens framtid, menar vissa hoppfulla filosofer att utveckling av människovänlig självförbättrande AI borde vara en av vår tids främsta uppgifter.

Allt detta läste jag i en välskriven artikel av Wolfhart Totschnig, som ifrågasätter den icke-reviderbara målorientering som förknippas med autonom AI i scenarierna ovan. Hans viktigaste poäng är att målstyrd AI som löper amok i universum eller räddar mänskligheten ur varje knipa inte ens är tänkbar. Utanför sin domän förlorar nämligen målet sin meningsfullhet. Målet för en självkörande bil att säkert ta användaren till destinationen har ingen mening utanför domänen vägtrafik. Domänspecifik AI kan därför inte generaliseras till världen som helhet, för nyttofunktionen förlorar sin mening utanför domänen, långt innan universum hinner förvandlas till gem eller mänsklighetens framtid hinner säkerställas av en artificiellt god gud.

Detta är naturligtvis en viktig filosofisk poäng om mål och mening, om begränsade domäner och världen som helhet. Kritiken hjälper oss att mer realistiskt bedöma risker och möjligheter av framtida AI, utan att förhäxas av våra bilder. Samtidigt får jag intrycket att även Totschnig fortsätter att använda AI som projektionsyta för bilder av oss själva. Han menar nämligen att framtida AI mycket väl kan revidera även sina yttersta mål i takt med att den utvecklar en allmän förståelse för världen. Svagheten i scenarierna ovan var ju att de utgick från dagens domänspecifika AI, inte från människans allmänna förnuftsförmåga. Vi ser då inte möjligheten av en äkta människolik AI, som självkritiskt omprövar sina yttersta mål när ny kunskap om världen motiverar detta. Sant människoekvivalent AI skulle ha full autonomi.

Att projicera mänskliga självbilder på framtida AI är inte bara en tendens, såvitt jag kan bedöma, utan en norm som styr diskussionen. Enligt denna norm projiceras fel bild i scenarierna ovan. En bild av dagens maskiner, inte av vår allmänna mänskliga intelligens. Att projicera rätt självbild på framtida AI framstår därmed som ett övergripande mål i diskussionen. Är målet meningsfullt eller borde det omprövas självkritiskt?

Detta är svåra frågor och mitt intryck av diskussionen kan vara felaktigt. Vill du göra en egen bedömning, läs artikeln: Fully autonomous AI.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Totschnig, W. Fully Autonomous AI. Sci Eng Ethics 26, 2473–2485 (2020). https://doi.org/10.1007/s11948-020-00243-z

Detta inlägg på engelska

Vi ställer frågor

Digitala tvillingar, virtuella hjärnor och språkets faror

En ny datorsimuleringsteknik har börjat användas exempelvis inom tillverkningsindustrin. Simuleringen kallas en digital tvilling, vilket utmanar mig att levandegöra för läsaren vad något som låter så fantasieggande kan vara i verkligheten.

Den mest realistiska förklaring jag kan hitta kommer faktiskt från Harry Potters värld. Minns du kartan över Hogwarts, som inte bara visar alla rum och korridorer, utan även fotstegen i realtid av dem som smyger omkring på skolan? En liknande karta kan lätt skapas i datormiljö genom att förbinda kartan i datorn med sensorer i golvet på byggnaden som kartan avbildar. Genast har du en interaktiv digital karta över byggnaden som automatiskt uppdateras och visar människors rörelser i den. Tänk dig vidare att datorsimuleringen kan göra beräkningar som förutsäger folksamlingar som överstiger myndigheternas rekommendationer, och att den automatiskt sänder ut varningsmeddelanden via ett högtalarsystem. Såvitt jag förstår kan en sådan interaktiv digital karta kallas en digital tvilling för ett intelligent hus.

Naturligtvis är detta en revolutionerande teknik. Arkitektens ritning i något datorprogram får förlängt liv i såväl produktionen som underhållet av byggnaden. Den digitala simuleringen kopplas till sensorer som uppdaterar simuleringen med aktuella data om relevanta faktorer i byggprocessen och därefter i den färdiga byggnaden. Huset får en digital tvilling som under byggnadens hela livscykel automatiskt kontaktar underhållstekniker när sensorerna visar att tvättmaskinerna börjar bli slitna eller luften inte cirkulerar som den ska.

Användningsområdet för digitala tvillingar är enormt. Poängen med dem, som jag förstår det, är inte att de är ”exakta virtuella kopior av verkligheten”, vad det nu kunde betyda. Poängen är att datorsimuleringen är sammanlänkad med det simulerade objektet på ett praktiskt relevant sätt. Sensorer uppdaterar automatiskt simuleringen med relevanta data, samtidigt som simuleringen automatiskt uppdaterar det simulerade objektet på relevanta sätt. Samtidigt uppdateras användare, tillverkare, underhållstekniker och andra aktörer, som lätt överblickar objektets aktuella status, möjligheter och risker, var de än befinner sig i världen.

Det europeiska flaggskeppsprojektet Human Brain Project planerar att utveckla digitala tvillingar till mänskliga hjärnor, detta genom att bygga virtuella hjärnor i datormiljö. I en artikel undersöker filosoferna Kathinka Evers och Arleen Salles, som båda arbetar i projektet, de enorma utmaningar som det skulle innebära att utveckla digitala tvillingar till levande mänskliga hjärnor. Är det ens tänkbart?

Författarna jämför typer av föremål som kan få digitala tvillingar. Det kan handla om artefakter såsom byggnader och bilar eller om naturliga livlösa företeelser såsom berggrunden vid en gruva. Men det skulle alltså även kunna handla om levande ting såsom hjärtat eller hjärnan. Jämförelserna i artikeln visar att hjärnan utmärker sig på flera sätt, som alla gör det oklart om det är rimligt att tala om digitala tvillingar till mänskliga hjärnor. Vore det mer klargörande att tala om digitala kusiner?

Hjärnan är astronomiskt komplex och trots ny kunskap om den så är den i hög grad ogenomskinlig för vårt kunskapssökande. Hur kan vi tala om en digital tvilling till något som är komplext som en galax och okänt som ett svart hål? Dessutom är hjärnan genomgående dynamiskt interaktiv. Den är sammankopplad inte bara med kroppen utan även med kultur, samhälle och omvärld, som den utvecklas i oavbrutet samspel med. Hjärnan smälter närmast ihop med omgivningen. Betyder det att en digital tvilling skulle behöva vara en tvilling till hjärnan-kroppen-kulturen-samhället-världen, det vill säga en digital tvilling till allting?

Nej, så är det naturligtvis inte. Syftet inom projektet är att finna specifika medicinska tillämpningar av den nya datorsimuleringstekniken. Genom att utveckla digitala tvillingar till vissa aspekter av vissa delar av patienters hjärnor, hoppas man kunna förbättra och individanpassa exempelvis kirurgiska ingrepp vid sjukdomar såsom epilepsi. Liksom kartan från Harry Potters värld följer människors fotsteg, skulle den digitala hjärntvillingen kunna följa vissa nervimpulsers utbredning i vissa delar av patientens hjärna. Detta kan öppna nya möjligheter att överblicka, diagnostisera, förutse och behandla sjukdomar såsom epilepsi.

Borde vi undvika termen digital tvilling när vi talar om hjärnan? Ja, det vore antagligen klokare att tala om digitala syskon eller om digitala kusiner, argumenterar Kathinka Evers och Arleen Salles. Även om experterna på området förstår begreppets tekniska användning, är uttrycket ”digital tvilling” språkligt riskabelt när vi talar om den mänskliga hjärnan. Det leder lätt tanken vilse. Vi tänker oss att den digitala tvillingen måste vara en exakt kopia av en människas hela hjärna. Detta riskerar att skapa orealistiska förväntningar och grundlös rädsla omkring teknikutvecklingen. Historien visar dessutom att språket rymmer fler faror. Ord kommer med normativa förväntningar som kan få etiska och sociala konsekvenser som kanske inte avsågs. Att tala om en digital tvilling till en gruvborr är nog ingen större språklig fara. Men handlar det om individuella människors hjärnor, kan talet om digitala tvillingar bli en ny språklig arena där vi befäster fördomar och sprider rädslor.

Efter att ha läst några populärvetenskapliga förklaringar av digital tvillingar vill jag tillägga att försiktighet kan behövas även i anknytning till industriella tillämpningar. För den digitala tvillingen till gruvborren är ju ingen ”exakt virtuell kopia av den verkliga borren” i någon absolut mening, ända ner till rörelserna hos enskilda atomer. Den digitala tvillingen är en kopia i den praktiska mening som tillämpningen gör relevant. Ibland räcker det att kopiera var människor sätter ner sina fötter, som i Harry Potters värld, vars magi oväntat hjälper oss att förstå begreppet digital tvilling mer realistiskt än många verbala ordförklaringar kan göra. Att förklara ord med hjälp av andra ord är inte alltid klargörande, om alla orden styr tanken i samma riktning. Orden ”kopia” och ”replik” leder vårt tänkande precis lika rätt och precis lika fel som ordet ”tvilling” gör.

Vill du bättre förstå utmaningarna kring digitala tvillingar till mänskliga hjärnor och vikten av begreppslig klarhet kring utvecklingen, läs den filosofiskt upplysande artikeln: Epistemic Challenges of Digital Twins & Virtual Brains: Perspectives from Fundamental Neuroethics.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Evers, Kathinka & Salles, Arleen. (2021). Epistemic Challenges of Digital Twins & Virtual Brains: Perspectives from Fundamental Neuroethics. SCIO: Revista de Filosofía. 27-53. 10.46583/scio_2021.21.846

Detta inlägg på engelska

Vi söker klarhet

« Äldre inlägg