En forskningsblogg från Centrum för forsknings- & bioetik (CRB)

Etikett: artificiell intelligens (Sida 1 av 4)

Varför ställer vetenskapen frågan om artificiellt medvetande?

Möjligheten av medveten AI uppfattas alltmer som en legitim och angelägen vetenskaplig fråga. Detta intresse har uppstått efter en lång historia av vetenskapliga tvivel på möjligheten av medvetande inte bara hos andra djur, utan ibland rentav hos människan. Själva begreppet medvetande ansågs under en period vara vetenskapligt suspekt. Men nu ställs alltså frågan om medveten AI inom vetenskapen.

För den som är intresserad av hur en så halsbrytande fråga kan besvaras filosofiskt och vetenskapligt, vill jag rekommendera ett intressant AI-filosofiskt tankeutbyte i den franska tidskriften Intellectica. Tankeutbytet (som är på engelska) kretsar kring en artikel av två filosofer, Jonathan Birch och Kristin Andrews, som under flera år diskuterat medvetande inte bara bland däggdjur, utan även bland fåglar, fiskar, bläckfiskar, kräftdjur, reptiler, groddjur och insekter. De två filosoferna skiljer noga mellan psykologiska frågor om vad som kan göra oss emotionellt lockade att tro att ett AI-system är medvetet, och logiska frågor om vad som filosofiskt och vetenskapligt kan räknas som evidens för medveten AI. Det är till detta logiska perspektiv som de vill bidra. Hur kan vi avgöra om ett artificiellt system verkligen är medvetet; inte bara förföras till att tro det för att systemet emotionellt övertygande speglar beteendet hos subjektivt upplevande människor? Deras grundtanke är att vi först bör studera medvetande hos ett brett spektrum av djurarter bortom däggdjuren. Dels för att människohjärnan skiljer sig alltför mycket från (dagens) artificiella system för att fungera som lämplig utgångspunkt, men framförallt för att sådan bred jämförelse kan hjälpa oss att identifiera de väsentliga dragen hos medvetandet: drag som kunde användas som markörer för medvetande i artificiella system. De två filosofernas förslag är alltså att vi, genom att utgå från olika former av djurmedvetande, bättre kan förstå hur vi filosofiskt och vetenskapligt bör söka evidens för eller emot medveten AI.

En av mina kollegor vid CRB, Kathinka Evers, även hon filosof, kommenterar artikeln. Hon uppskattar Birch och Andrews diskussion som filosofiskt klargörande och ser förslaget att närma sig frågan om medveten AI via studium av medvetandeformer hos ett brett spektrum djurarter som väl underbyggt. Hon menar dock att ett antal frågor fordrar mer uppmärksamhet. Bland annat frågar hon om inte övergången från kol- till kiselbaserade substrat fordrar större uppmärksamhet än Birch och Andrews ger den.

Birch och Andrews föreslår ett tankeexperiment där en robotråtta beter sig exakt som en verklig råtta. Den klarar samma kognitiva och beteendemässiga tester. De antar vidare att råtthjärnan avbildats exakt i roboten, neuron för neuron. I ett sådant fall, menar de, vore det inkonsekvent att inte acceptera samma smärtmarkörer som gäller för råttan även för roboten. Fallen är lika, menar de, övergången från kol till kisel ger inte tillräckliga skäl för att betvivla att robotråttan kan känna smärta när den uppvisar samma drag som markerar smärta hos den verkliga råttan. Men fallen är ju inte lika, påpekar Kathinka Evers, för den verkliga råttan är, till skillnad från roboten, levande. Om liv är väsentligt för medvetande så är det inte inkonsekvent att betvivla att roboten kan känna smärta ens i detta tankeexperiment. Någon kunde givetvis förknippa liv med medvetande och hävda att en robotråtta som uppvisar de väsentliga dragen för medvetande också måste betraktas som levande. Men om syftet är att identifiera vad som logiskt kan fungera som evidens för medveten AI så kvarstår problemet, menar Kathinka Evers, för vi behöver då klargöra hur relationen mellan liv och medvetande ska undersökas och hur begreppen ska definieras.

Kathinka Evers föreslår alltså flera frågor av relevans för vad som logiskt kan räknas som evidens för medveten AI. Men hon ställer också en mer grundläggande fråga, som kan anas genom hela hennes kommentar. Hon frågar varför frågan om konstgjort medvetande alls ställs inom vetenskapen idag. Ett av Birch och Andrews syften var som sagt att undvika att svaret styrs av psykologiska tendenser att tolka en AI som övertygande speglar mänskliga känslor som om den vore medveten. Men Kathinka Evers frågar, som jag läser henne, om inte detta logiska syfte möjligen kommer för sent. Är inte redan frågan en frestelse? AI är tränad på människogenererade data för att spegla mänskligt beteende, påpekar hon. Söker vi måhända filosofisk och vetenskaplig evidens kring en fråga som tycks betydelsefull bara för att vi har en psykologisk tendens att identifiera oss med våra digitala spegelbilder? För att en fråga ska betraktas som vetenskaplig och värd att finansieras krävs vanligen något slags initialt empiriskt stöd, men det finns överhuvudtaget ingen evidens för möjligheten av medvetande hos icke-levande entiteter såsom AI-system. Frågan om en AI kan vara medveten har inte mer empiriskt stöd än frågan om vulkaner kan uppleva sina utbrott, påpekar Kathinka Evers. Risken är stor att vi vetenskapligt försöker besvara en fråga som saknar vetenskaplig grund. Hur försiktigt vi än söker det efterlängtade svaret, så tycks frågan oförsiktig.

Jag kommer att tänka på myten om Narcissus. Efter en lång historia av avvisanden av andras kärlek (andras medvetande), förälskade han sig slutligen i sin egen (digitala) spegelbild, sökte hopplöst att krama den, och plågades sedan av en evig längtan efter bilden. Är du där? Kommer spegelbilden att svara? En AI kommer säkert att generera en respons som talar till våra mänskliga känslor.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Birch Jonathan, Andrews Kristin (2024/2). To Understand AI Sentience, First Understand it in Animals. In Gefen Alexandre & Huneman Philippe (Eds), Philosophies of AI: thinking and writing with LLMs, Intellectica, 81, pp. 213-226.

Evers Kathinka (2024/2). To understand sentience in AI first understand it in animals. Commentary to Jonathan Birch and Kristin Andrews. In Gefen Alexandre & Huneman Philippe (Eds), Philosophies of AI: thinking and writing with LLMs, Intellectica, 81, pp. 229-232.

Detta inlägg på engelska

Vi söker klarhet

Kan konstgjort medvetande skapas, är det ens tänkbart?

Hur otroligt det än kan låta så finns det faktiskt ingenjörsmässiga försök att skapa medveten artificiell intelligens. Med tanke på att uppfinnare också försökt att skapa evighetsmaskiner, finns skäl att tänka efter. Kan artificiellt medvetande verkligen skapas? Är ”idén” ens tänkbar? Dessa frågor ställs av Michele Farisco, i ett inlägg på den engelskspråkiga versionen av denna blogg.

Ett sätt att tänka efter kring den här typen av intellektuellt lockande idéer är att föreställa sig jämförbara exempel som är klart meningsfulla, som kanske redan finns eller åtminstone är tekniskt möjliga att skapa. Drömmen om en evighetsmaskin kan till exempel jämföras med försök att minimera friktionen i ett gyroskop, så att det fortsätter att snurra häpnadsväckande länge utan ytterligare energitillförsel. Den intellektuella tjusningen i idén om en perpetuum mobile kan naturligtvis stimulera kreativiteten och de mest oväntat energieffektiva lösningar ser dagens ljus, även om det inte handlar om ”evighetsmaskiner”. Samtidigt kan dessa jämförbara exempel, som faktiskt är tekniskt genomförbara eller kanske rentav existerar, hjälpa oss att hantera intellektets tendens att ibland förlora sig i sina egna drömmar. Vi får någonting konkret verkligt att jämföra med, en vaken kontrast till vad vi drömmer om.

Michele Farisco gör något liknande med idén om artificiellt medvetande. Han definierar en begränsad aspekt av vad vi kallar medvetande, en aspekt som redan idag kunde skapas i form av en AI-robot. Den aspekt han avgränsar är inte förmågan att ha upplevelser (eller subjektiva erfarenheter), utan snarare en förmåga att välja ut relevant information från omgivningen och använda informationen för att uppnå specifika mål. Han lägger till ytterligare några krav på processen, som du kan läsa mer om i hans inlägg: Conceivability and feasibility of artificial consciousness. Där hittar du även länk till artikeln som inlägget utgår från.

I själva verket har ett robotsystem som är medvetet i denna begränsade mening redan skapats, enligt Michele Farisco, nämligen inom CAVAA-projektet där han arbetar. Roboten hanterar information på ett sätt som kan anses uppfylla definitionen som antyddes ovan. Michele Farisco hänvisar till robotexemplet för att hjälpa oss att tänka mer vaket om konstgjort medvetande, men just för att exemplet är så bra kunde man också uppfatta roboten som ett lovande steg mot drömmen om konstgjort medvetande.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Vi söker klarhet

AI är svaret! Men vad är frågan?

Många projekt är på gång i Sverige gällande AI-system i sjukvården. Det testas för fullt. Men många system verkar inte komma till användning. Varför? Ofta handlar det om dåligt förarbete. Utan en genomtänkt strategi och tydliga mål riskerar vi att skala upp AI-system som inte klarar av vårdverklighetens komplexitet.

Det kan nästan bli lite religiöst kring satsningarna på AI. Man får inte vara negativ eller ställa kritiska frågor. Då blir man snabbt stämplad som en cyniker, som en bromskloss som inte förstår tidens tecken. Det är som om man måste göra sig blind för potentiella fallgropar, som om man måste tala och bete sig som en sann troende. Många motiverar det ivriga AI-testandet med att vi måste våga prova för att se vilka lösningarna som faller ut som lyckade. Det är fascinerande hur gärna vi vill applicera AI på allt möjligt. Men gör vi det på rätt sätt, eller riskerar vi att ånga på utan att tänka efter?

Det finns verkligen reella ekonomiska och praktiska utmaningar inom vården. Det handlar inte bara om brist på ekonomiska resurser, utan även om brist på personal och specialister. Innan vi kan låta teknologier som AI bli en del av vår vardag, måste vi ställa oss några viktiga frågor: Vilka problem försöker vi lösa? Hur påverkar våra lösningar de människor som är involverade? Vi kan också behöva klargöra om syftet med AI-systemet är att närmast ta över en hel arbetsuppgift eller snarare underlätta vårt arbete i vissa väldefinierade avseenden. Utvecklingen av AI-produkter bör också vara extra uppmärksam på socialt skapade grupperingar som etnicitet och genus för att undvika att förstärka befintliga ojämlikheter genom snedvridande val av data. Etiskt genomtänkta AI-implementeringar leder förmodligen till bättre kliniska resultat och en mer effektiv och ändamålsenlig vård. Det är enkelt att fatta förhastade beslut som snart visar sig vara felaktiga: noggrannhet bör alltid prioriteras. Bättre att tänka rätt och långsamt än snabbt och fel. Kliniska studier bör genomföras även på till synes inte så avancerade AI-produkter. Inom radiologin är denna tradition väl etablerad, men den är inte lika tydlig inom primärvården. Om ett arbetssätt ska förändras med hjälp av AI, bör man utvärdera vilka effekter det kan få.

Tre saker får vi således inte slarva med: Vi måste först och främst definiera behovet av en AI-lösning. Vi måste därefter tänka efter så att inte AI-verktyget tränas med snedvriden data. Slutligen måste vi utvärdera AI-lösningen innan den sätts i verket.

Med den snabba datainsamling som appar och digitala verktyg idag tillåter är det viktigt att inte ryckas med, utan att noga överväga etiken kring design och införande av AI. Dessvärre har mantrat blivit: ”Har vi data så bör vi utveckla en AI.” Och det mantrat misstänkliggör den som frågar ”Varför?” Men frågan måste ställas. Den hindrar inte utvecklingen av AI-lösningar utan bidrar till den. Genomtänkta etiska överväganden leder till högre kvalitet på AI-produkten och stärker trovärdigheten för implementeringen.

Jag vill alltså varna för att förföras av tanken om AI-lösningar på allt möjligt. Innan vi säger att AI är svaret måste vi fråga oss: Vad är frågan? Bara om vi kan definiera en verklig fråga eller utmaning kan vi säkerställa att teknologin blir en hjälpande hand istället för en börda. Vi vill inte med jämna mellanrum hamna i situationen att vi plötsligt måste dra i nödbromsen, som i Västragötalandsregionens miljardsatsning Millenium. Vi får inte fastna i tankemönstret att vi kan göra allt snabbare och enklare om vi bara inför AI. Inte heller får vi låta oss styras av rädslan att vi hamnar på efterkälken om vi inte inför AI snarast möjligt. Bara en genomtänkt behovsanalys, design och utvärdering kan säkerställa ändamålsenlig vård som också är effektiv. För att få korrekta svar snabbt måste vi först ge oss tid att tänka efter.

Skrivet av…

Jennifer Viberg Johansson, docent i medicinsk etik vid Centrum för forsknings- och bioetik.

Detta inlägg på engelska

Vi ställer frågor

Debatt om ansvar och akademiskt författarskap

Vem får räknas som författare till en forskningsartikel? Viss förvirring tycks råda kring de så kallade Vancouver-reglerna för akademiskt författarskap, som fungerar som publiceringsetiska riktlinjer inom främst medicin och naturvetenskap (men ibland även inom humaniora och samhällsvetenskap). En akademisk författare måste enligt dessa regler ha bidragit intellektuellt till studien, ha deltagit i skrivprocessen samt ha godkänt artikelns slutversion. Den djupaste förvirringen tycks dock röra den fjärde regeln, som kräver att en akademisk författare måste ta ansvar för att den publicerade forskningen genomförts korrekt och hederligt. Förvirringen blir inte mindre av att artificiella intelligenser som ChatGPT börjat användas i forsknings- och skrivprocessen. Det händer att forskare ber AI:n att generera invändningar till forskarnas resonemang, vilket naturligtvis kan ge betydande bidrag till forskningsprocessen. AI:n kan även generera text som bidrar till processen att skriva artikeln. Borde en sådan AI räknas som medförfattare?

Nej, menar en publikationsetisk kommitté (Committee on Publication Ethics, COPE) med hänvisning till det sista kravet i Vancouver-reglerna: en AI kan inte vara författare till en akademisk publikation, eftersom den inte kan ta ansvar för den publicerade forskningen. Kommitténs avfärdande av AI-författarskap har väckt en liten men lärorik debatt i Journal of Medical Ethics. Först ut var Neil Levy, som argumenterade för att ansvar (för hela studier) inte är ett rimligt krav för akademiskt författarskap, och att en AI redan idag skulle kunna räknas som författare (om kravet slopas). Detta föranledde en respons från Gert Helgesson och William Bülow, som argumenterade för att ansvar (realistiskt tolkat) är ett rimligt krav, och att en AI inte kan räknas som författare, eftersom den inte kan ta ansvar.

Vad handlar detta om? Vad säger regeln som väckte debatten? Den säger att du, för att räknas som författare till en vetenskaplig artikel, måste försäkra dig om att frågor om korrekthet och hederlighet utretts och säkerställts på ett tillfredsställande sätt. En akademisk författare måste alltså kunna svara för att forskningen utförts riktigt. Enligt Neil Levy är detta krav alltför starkt. I medicin och naturvetenskap är det ofta fallet att nästan ingen av forskarna som räknas som medförfattare kan ta ansvar för hela den publicerade studien. Samarbetena kan vara enorma och forskarna är specialister inom sina egna smala områden. De saknar överblicken och kompetensen att bedöma och svara för studien i dess helhet. I många fall kan inte ens huvudförfattaren göra detta, menar Neil Levy. Om vi inte vill göra det närmast omöjligt att räknas som författare inom medicinska och naturvetenskapliga ämnen, måste ansvar slopas som krav för författarskap, menar han. Då får vi acceptera att AI redan idag kan räknas som medförfattare till många vetenskapliga studier, om den gjort betydande intellektuella bidrag till forskningen.

Neil Levy öppnar dock för en tredje möjlighet. Ansvarskriteriet skulle kunna omtolkas så att det kan uppfyllas av de forskare som idag brukar räknas som författare. Hur då? En forskare som gjort ett betydande intellektuellt bidrag till en forskningsartikel måste, för att få räknas som författare, acceptera ansvaret för sitt ”lokala” bidrag till studien, inte för studien i dess helhet. En AI kan då inte räknas som akademisk författare, eftersom den inte kan svara eller hållas ansvarig ens för sitt ”lokala” bidrag till studien.

Enligt Gert Helgesson och William Bülow är denna tredje möjlighet den uppenbart riktiga tolkningen av den fjärde Vancouver-regeln. Den rimliga tolkningen, menar de, är att alla som listas som författare till en akademisk publikation har ansvar att stödja en utredning, om oegentligheter eller misstag kan misstänkas i studien. Inte bara efter att studien publicerats, utan under hela forskningsprocessen. Ingen kan dock hållas ansvarig för en hel studie, ibland inte ens huvudförfattaren. Man kan hållas ansvarig bara för det egna bidraget, för den del av studien som man själv har insyn i och kompetensen att bedöma. Men om man misstänker oegentligheter i andra delar av studien, så har man som akademisk författare ändå ansvar att påtala detta, och agera för att misstankarna utreds om de inte omedelbart kan avfärdas.

Förvirringen kring det fjärde författarskapskriteriet är naturlig, det är faktiskt inte lätt att förstå kriteriet och det bör därför preciseras. Debatten i Journal of Medical Ethics ger en lärorik bild av hur olika man kan tolka kriteriet, och den kan på så vis motivera förslag på hur kriteriet bör preciseras. Du kan läsa Neil Levys artikel här: Responsibility is not required for authorship. Responsen från Gert Helgesson och William Bülow finner du här: Responsibility is an adequate requirement for authorship: a reply to Levy.

Personligen vill jag fråga om en AI, som inte kan ta ansvar för forskningsarbete, ens kan sägas ge betydande intellektuella bidrag till vetenskapliga studier. I akademin förväntas vi vara öppna för kritik från andra och inte minst från oss själva. Vi förväntas kunna kritiskt bedöma våra idéer, teorier och metoder: bedöma om invändningar är riktiga och därefter försvara oss eller ändra uppfattning. Detta är ett viktigt moment i doktorandutbildningen och i forskarseminariet. Vi kan alltså inte sägas bidra intellektuellt till forskning, om vi inte har förmågan att självkritiskt bedöma bidragens riktighet. ChatGPT kan därför knappast sägas ge betydande intellektuella bidrag till forskning, är jag benägen att säga. Inte ens när den genererar självkritisk eller självförsvarande text på basis av statistiska beräkningar i enorma språkdatabaser. Det är forskarna som bedömer om genererad text ger dem uppslag till goda anledningar att antingen ändra sig eller försvara sig. Det vore i så fall ett missförstånd att tacka ChatGPT:n för bidrag till en forskningsartikel, som man brukar göra med forskarkollegor som bidragit intellektuellt till studien utan att de levt upp till övriga krav på akademiskt författarskap. Snarare bör studiens författare redovisa hur ChatGPT:n använts som ett verktyg i studien, liksom man redovisar användningen av andra verktyg och metoder. Hur bör detta ske? I debatten poängteras att även detta behöver preciseras.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Levy N. Responsibility is not required for authorship. Journal of Medical Ethics. Published Online First: 15 May 2024. doi: 10.1136/jme-2024-109912

Helgesson G, Bülow W. Responsibility is an adequate requirement for authorship: a reply to Levy. Journal of Medical Ethics. Published Online First: 04 July 2024. doi: 10.1136/jme-2024-110245

Detta inlägg på engelska

Vi deltar i debatten

Varför försöka skapa medveten AI?

Trots att det är oklart vad det kan innebära att tala om ”medveten AI” så finns det en vilja att skapa ”det”. Vad kunde vi tänka oss att fördelarna med medveten AI vore? Varför försöka skapa subjektiv erfarenhet i AI-system? Vad kunde vi förvänta oss av en sådan strävan? Detta är frågor som Michele Farisco diskuterar på den engelska versionen av denna blogg.

Michele Farisco nämner flera möjliga svar på frågorna. Till exempel kunde strävan efter artificiellt medvetande bidra till bättre kunskap om biologiskt medvetande och till bättre teknisk prestanda hos AI-system. Han reflekterar även över möjliga etiska och samhälleliga effekter av medveten AI. Man kunde till exempel hoppas att medveten AI skulle hjälpa människan att förutse negativa konsekvenser av långsiktiga beslut och bidra till en mer hållbar och etisk utveckling. Men om mänskligt medvetande inte lyckats med detta, utan tvärtom ofta visar prov på själviskhet och närsynthet, varför skulle artificiellt medvetande lyckas bättre?

Dessa frågor är naturligtvis hypotetiska, men eftersom det faktiskt finns en vilja att skapa ”medveten AI” behöver de ställas. Läs Michele Fariscos engelska blogginlägg här: Why should we try to build conscious AI?

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Vi ställer frågor

Ödmjukhet inför frågan om artificiellt medvetande

Möjligheten av artificiellt medvetande har på senare tid blivit en fråga som alltfler tar på allvar. Utan att fundera alltför länge kring vad det kan betyda, frågar somliga redan ”När kan vi förvänta oss det?”, som om man spekulerade kring lanseringen av en ny, tekniskt avancerad produkt: medveten AI. Parallellt med denna förväntan om stora teknikframsteg poängteras även möjligheten av stora filosofiska framsteg. Om vi lyckas konstruera medvetna maskiner, som har upplevelser, känslor och självkännedom, då kan vi väl även sägas förstå vad det betyder att vara till, vad det innebär att existera?

Nja, om medvetandet är så fundamentalt att det omfattar allt som vi uppfattar, känner och tänker, om medvetandet är vår existens, så att säga, vilket tycks förutsättas i dessa stora anspråk, så är väl även dessa anspråk innefattade i medvetandet, utan att det erkänns? För hur kan man drömma om resor utanför medvetandet, för att långt där ute förklara tillvarons gåta, om medvetandet redan omfattar allt som vi uppfattar, känner, tänker eller drömmer om att kunna göra? Sådana ”långresor” kan man väl spekulera om bara om man glömmer var spekulerandet redan måste ske och vara hemma, enligt samma anspråk? Den anspråksfulle långresenären glömmer sig själv hemma, vill jag säga: glömmer existensen som skulle förklaras.

I ett inlägg på den engelska versionen av denna blogg skriver Michele Farisco om behovet av kunskapsmässig ödmjukhet inför frågan om artificiellt medvetande. Hans överväganden kunde beskrivas som vetenskapliga självbetraktelser, i det att han utgår från vad dagens vetenskap vet om biologiskt medvetande, liksom om hjärnan, som vetenskapen funnit är väsentlig för medvetande. Han utesluter inte att medvetande kan uppkomma på andra sätt, exempelvis i maskiner. Men för att klargöra frågorna om tänkbarheten och genomförbarheten av artificiellt medvetande, så behöver vi utgå från dagens vetenskapliga kunskap om hjärna och medvetande: som ett slags riktmärke eller referensmodell. Han påpekar flera egenskaper hos hjärnan som kan bedömas väsentliga för medvetande, men som dagens AI väsentligen saknar. Samtidigt som detta motiverar ödmjukhet, kan skillnaderna mellan hjärna och AI inspirera bättre forskning om artificiellt medvetande, menar Michele Farisco, som försiktigt vill hålla dörren öppen för andra former av medvetande än vårt eget.

Läs blogginlägget här: Artificial consciousness and the need for epistemic humility.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Kommer med lästips

Föremål som beter sig mänskligt

Ja, så kunde man betrakta vissa former av artificiell intelligens, som föremål som beter sig mänskligt. Det krävs dock inte mycket för att vi människor ska personifiera icke-levande ting. Vi blir arga på bilen som inte startar eller på vädret som inte låter oss ha picknick, som om de var emot oss. Barn personifierar spontant enkla leksaker och kan beskriva relationen mellan geometriska former som ”den lilla cirkeln försöker fly från den stora triangeln”.

Vi stöter allt oftare på artificiell intelligens som designats för att ge mänskligt intryck, exempelvis i form av chattbottar för kundservice när du handlar online. Sådan AI kan rentav utrustas med personliga karaktärsdrag, en persona som blir en viktig del av kundupplevelsen. Chattbotten kan föreslå ännu fler produkter åt dig och effektivt generera merförsäljning utifrån data som insamlas om dig. Inte konstigt att intresset för att utveckla människolik AI är enormt. Delvis har det naturligtvis med användarvänlighet att göra, men samtidigt kommer en AI som du finner personligt attraktiv att fånga din uppmärksamhet. Du kanske rentav fattar tycke för chattbotten eller känner att det vore oartigt att stänga av. Under tiden som chattbotten har din uppmärksamhet exponeras du för alltmer anpassad reklam och får alltfler paketerbjudanden.

Detta och mycket mer kan du läsa om i en artikel om mänskliga relationer till AI designad för att ge ett mänskligt intryck: Human/AI relationships: challenges, downsides, and impacts on human/human relationships. Författarna diskuterar ett stort antal exempel på sådan AI, allt från chattbottarna ovan till vårdrobotar och AI som erbjuder psykoterapi, eller AI som människor chattar med för att motverka ensamhet. Möjligheterna är stora, men det är även utmaningarna och de möjliga nackdelarna, vilket artikeln framhäver. 

Särskilt intressant är kanske ändå insikten om hur effektivt AI kan skapa förvirring genom att exponera oss för objekt som utrustats medmänskliga responsmönster. Vår naturliga tendens att förmänskliga icke-mänskliga ting möter högteknologiska ansträngningar att producera föremål som är konstruerade för att bete sig mänskligt. Här handlar det inte längre om att fantasifullt projicera sociala relationer på icke-mänskliga ting, som i det geometriska exemplet ovan. I samspel med AI-föremålen reagerar vi på subtila sociala signaler som föremålen utrustas med. Vi kan rentav känna ett moraliskt ansvar för sådan AI och sörja när företagen avslutar eller modifierar den.

Författarna manar till försiktighet så att vi inte övertolkar AI-föremål som personer. Samtidigt varnar de för risken att vi, genom att undvika empatiska reaktioner, blir mindre känsliga för verkliga personer i nöd. Sannerligen förvirrande!

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Zimmerman, A., Janhonen, J. & Beer, E. Human/AI relationships: challenges, downsides, and impacts on human/human relationships. AI Ethics (2023). https://doi.org/10.1007/s43681-023-00348-8

Detta inlägg på engelska

Vi tar upp aktuella frågor

För en mer balanserad diskussion om medveten artificiell intelligens

Idag vill jag rekommendera ett blogginlägg på den engelska versionen av denna etikblogg. Michele Farisco diskuterar där utvecklingen av så kallad medveten AI, något som givetvis väcker funderingar.

Etikdiskussionen är livlig. Vissa kräver ett internationellt moratorium för alla försök att skapa konstgjort medvetande: riskerar vi att skapa konstgjort lidande? Andra menar att redan ”vanlig” AI är tillräckligt riskfylld: riskerar vi att skapa ännu mer svårhanterliga former av AI?

Dessa och andra etiska farhågor är svåra att bedöma. Inte bara för att den vetenskapliga och tekniska utvecklingen är snabb och avancerad, utan även för att vi allvarligt talat inte riktigt vet vad vi pratar om! Vad är medvetande? Vet vi ens vad det innebär att människor och andra djur är medvetna?

Michele Farisco har länge undersökt frågan om mänskligt medvetande. Han har bland annat bidragit till att utveckla indikatorer för olika dimensioner av mänskligt medvetande som kan användas för vid bedömningar medvetandegraden hos patienter. Hans förslag är att indikatorerna kan vara relevanta även för att identifiera medvetenhet i artificiella system, samt att detta kan göra den etiska diskussionen mer balanserad och realistisk.

Läs blogginlägget här: A strategy for a balanced discussion of conscious AI.

Utgångspunkten för blogginlägget är ett bokkapitel som Michele Farisco nyligen skrivit. Du hittar referens och länk till kapitlet nedan.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Michele Farisco. The ethical implications of indicators of consciousness in artificial systems. Developments in Neuroethics and Bioethics. Available online 1 March 2024. https://doi.org/10.1016/bs.dnb.2024.02.009

Vi söker klarhet

Kvinnor om AI-assisterad mammografi

Användning av AI-verktyg inom vård och hälsa har blivit ett återkommande tema på denna blogg. Hittills har inläggen främst handlat om mobil- och onlineappar för användning av patienter och allmänheten. Idag är temat mer avancerade AI-verktyg som används yrkesmässigt av vårdpersonal.

Inom det svenska programmet för bröstcancerscreening tolkar radiologer stora mängder röntgenbilder för att upptäcka bröstcancer på ett tidigt stadium. Arbetsbördan är stor och för det mesta visar röntgenbilderna inga tecken på cancer eller förstadier till cancer. Idag utprovas AI-verktyg som skulle kunna förbättra mammografin på flera sätt. AI skulle kunna användas som assisterande resurs för radiologerna för att upptäcka ytterligare tumörer. Den skulle även kunna användas som oberoende tolkare av röntgenbilder för att avlasta radiologer, samt för att stödja bedömningar av vilka patienter som mer omedelbart bör få vård.

För att AI-assisterad mammografi ska fungera behöver inte bara tekniken utvecklas. Forskare behöver även undersöka hur kvinnor tänker kring AI-assisterad mammografi. Hur uppfattar de AI-stödd bröstcancerscreening? Fyra forskare, däribland Jennifer Viberg Johansson och Åsa Grauman vid CRB, intervjuade sexton kvinnor som genomgick mammografi på ett svenskt sjukhus där ett AI-verktyg testades som tredje bedömare av röntgenbilderna, jämte de två radiologerna.

Flera av de intervjuade framhöll att AI bara är ett verktyg: AI inte kan ersätta läkaren eftersom människor har förmågor bortom bildigenkänning, såsom intuition, empati och helhetstänkande. Ett annat resultat var att några av de intervjuade hade större tolerans för mänskliga misstag än om AI-verktyget misslyckades, vilket betraktades som oacceptabelt. Några menade att om AI-verktyget gör ett fel, så kommer felet att upprepas systematiskt, medan mänskliga misstag är tillfälliga. Några menade att ansvaret när tekniken fallerar ligger hos människan och inte hos tekniken.

Personligen kan jag inte låta blir att spekulera att den skarpa åtskillnaden mellan mänskliga misstag, som man lättare försonar sig med, och oacceptabelt fallerande teknik, sammanhänger med att vi om en människa som misslyckas kan säga: ”Radiologen gjorde säkert trots allt sitt bästa”. Däremot säger vi knappast om fallerande AI: ”Tekniken gjorde säkert trots allt sitt bästa”. Teknik blir inte föremål för vissa former av försonande betraktelser.

Författarna själva framhåller att deltagarna i studien såg AI som ett värdefullt verktyg inom mammografin, men att verktyget inte kan ersätta människor i processen. Författarna framhåller även att de intervjuade föredrog att AI-verktyget identifierar möjliga tumörer med stor känslighet, även om detta leder till många falska positiva resultat och därmed till onödig oro och rädsla. För att patienter ska förstå AI-assisterad sjukvård krävs effektiva kommunikationsinsatser, avslutar författarna.

Det är svårt att sammanfatta det rika materialet från intervjustudier. För att ta del av fler resultat, läs studien här: Women’s perceptions and attitudes towards the use of AI in mammography in Sweden: a qualitative interview study.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Viberg Johansson J, Dembrower K, Strand F, et al. Women’s perceptions and attitudes towards the use of AI in mammography in Sweden: a qualitative interview study. BMJ Open 2024;14:e084014. doi: 10.1136/bmjopen-2024-084014

Detta inlägg på engelska

I dialog med patienter

Att använda artificiell intelligens med akademisk integritet

AI-verktyg kan både förändra och producera innehåll såsom texter, bilder och musik. Verktygen blir dessutom alltmer tillgängliga som onlinetjänster. Ett exempel är verktyget ChatGPT, som du kan ställa frågor till och få välinformerade, logiskt resonerande svar från. Svar som verktyget dessutom kan korrigera om du påpekar fel och oklarheter. Du kan interagera med verktyget nästan som om du samtalade med en människa.

Ett sådant verktyg kan naturligtvis vara oerhört användbart. Det kan hjälpa dig att lösa problem och finna relevant information. Jag vågar gissa att responsen från verktyget dessutom kan stimulera kreativiteten och öppna sinnet för oväntade möjligheter, precis som samtal med människor brukar göra. Men liksom all teknik kan verktygen även missbrukas och studenter har redan använt ChatGPT för att klara sina inlämningsuppgifter.

Utmaningen inom utbildning och forskning är alltså att lära sig att använda dessa AI-verktyg med akademisk integritet. Det är inte automatiskt fusk att använda AI-verktyg. Sju deltagare i ett europeiskt nätverk för akademisk integritet (ENAI), däribland Sonja Bjelobaba vid CRB, skriver om utmaningen i en ledarartikel i tidskriften International Journal for Educational Integrity. Framförallt sammanfattar de tentativa rekommendationer från ENAI om etisk användning av AI i akademin.

En övergripande målsättning i rekommendationerna är att integrera rekommendationer om AI med andra besläktade rekommendationer om akademisk integritet. Således ska alla personer, källor och verktyg som påverkat idéer eller genererat innehåll tydligt anges – däribland användning av AI-verktyg. Lämplig användning av verktyg som påverkar textens form (som korrekturläsande verktyg, stavningskontroller och automatiserade synonymförslag) är i allmänhet acceptabla. Vidare kan ett AI-verktyg inte anges som medförfattare i en publikation, eftersom verktyget inte kan ta ansvar för innehållet.

Rekommendationerna betonar även vikten av utbildningsinsatser om etisk användning AI-verktyg. Läs rekommendationerna i sin helhet här: ENAI Recommendations on the ethical use of Artificial Intelligence in Education.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Foltynek, T., Bjelobaba, S., Glendinning, I. et al. ENAI Recommendations on the ethical use of Artificial Intelligence in Education. International Journal for Educational Integrity 19, 12 (2023). https://doi.org/10.1007/s40979-023-00133-4

Detta inlägg på engelska

Vi bryr oss om undervisning

« Äldre inlägg