En forskningsblogg från Centrum för forsknings- & bioetik (CRB)

Etikett: AI-etik

AI är svaret! Men vad är frågan?

Många projekt är på gång i Sverige gällande AI-system i sjukvården. Det testas för fullt. Men många system verkar inte komma till användning. Varför? Ofta handlar det om dåligt förarbete. Utan en genomtänkt strategi och tydliga mål riskerar vi att skala upp AI-system som inte klarar av vårdverklighetens komplexitet.

Det kan nästan bli lite religiöst kring satsningarna på AI. Man får inte vara negativ eller ställa kritiska frågor. Då blir man snabbt stämplad som en cyniker, som en bromskloss som inte förstår tidens tecken. Det är som om man måste göra sig blind för potentiella fallgropar, som om man måste tala och bete sig som en sann troende. Många motiverar det ivriga AI-testandet med att vi måste våga prova för att se vilka lösningarna som faller ut som lyckade. Det är fascinerande hur gärna vi vill applicera AI på allt möjligt. Men gör vi det på rätt sätt, eller riskerar vi att ånga på utan att tänka efter?

Det finns verkligen reella ekonomiska och praktiska utmaningar inom vården. Det handlar inte bara om brist på ekonomiska resurser, utan även om brist på personal och specialister. Innan vi kan låta teknologier som AI bli en del av vår vardag, måste vi ställa oss några viktiga frågor: Vilka problem försöker vi lösa? Hur påverkar våra lösningar de människor som är involverade? Vi kan också behöva klargöra om syftet med AI-systemet är att närmast ta över en hel arbetsuppgift eller snarare underlätta vårt arbete i vissa väldefinierade avseenden. Utvecklingen av AI-produkter bör också vara extra uppmärksam på socialt skapade grupperingar som etnicitet och genus för att undvika att förstärka befintliga ojämlikheter genom snedvridande val av data. Etiskt genomtänkta AI-implementeringar leder förmodligen till bättre kliniska resultat och en mer effektiv och ändamålsenlig vård. Det är enkelt att fatta förhastade beslut som snart visar sig vara felaktiga: noggrannhet bör alltid prioriteras. Bättre att tänka rätt och långsamt än snabbt och fel. Kliniska studier bör genomföras även på till synes inte så avancerade AI-produkter. Inom radiologin är denna tradition väl etablerad, men den är inte lika tydlig inom primärvården. Om ett arbetssätt ska förändras med hjälp av AI, bör man utvärdera vilka effekter det kan få.

Tre saker får vi således inte slarva med: Vi måste först och främst definiera behovet av en AI-lösning. Vi måste därefter tänka efter så att inte AI-verktyget tränas med snedvriden data. Slutligen måste vi utvärdera AI-lösningen innan den sätts i verket.

Med den snabba datainsamling som appar och digitala verktyg idag tillåter är det viktigt att inte ryckas med, utan att noga överväga etiken kring design och införande av AI. Dessvärre har mantrat blivit: ”Har vi data så bör vi utveckla en AI.” Och det mantrat misstänkliggör den som frågar ”Varför?” Men frågan måste ställas. Den hindrar inte utvecklingen av AI-lösningar utan bidrar till den. Genomtänkta etiska överväganden leder till högre kvalitet på AI-produkten och stärker trovärdigheten för implementeringen.

Jag vill alltså varna för att förföras av tanken om AI-lösningar på allt möjligt. Innan vi säger att AI är svaret måste vi fråga oss: Vad är frågan? Bara om vi kan definiera en verklig fråga eller utmaning kan vi säkerställa att teknologin blir en hjälpande hand istället för en börda. Vi vill inte med jämna mellanrum hamna i situationen att vi plötsligt måste dra i nödbromsen, som i Västragötalandsregionens miljardsatsning Millenium. Vi får inte fastna i tankemönstret att vi kan göra allt snabbare och enklare om vi bara inför AI. Inte heller får vi låta oss styras av rädslan att vi hamnar på efterkälken om vi inte inför AI snarast möjligt. Bara en genomtänkt behovsanalys, design och utvärdering kan säkerställa ändamålsenlig vård som också är effektiv. För att få korrekta svar snabbt måste vi först ge oss tid att tänka efter.

Skrivet av…

Jennifer Viberg Johansson, docent i medicinsk etik vid Centrum för forsknings- och bioetik.

Detta inlägg på engelska

Vi ställer frågor

Föremål som beter sig mänskligt

Ja, så kunde man betrakta vissa former av artificiell intelligens, som föremål som beter sig mänskligt. Det krävs dock inte mycket för att vi människor ska personifiera icke-levande ting. Vi blir arga på bilen som inte startar eller på vädret som inte låter oss ha picknick, som om de var emot oss. Barn personifierar spontant enkla leksaker och kan beskriva relationen mellan geometriska former som ”den lilla cirkeln försöker fly från den stora triangeln”.

Vi stöter allt oftare på artificiell intelligens som designats för att ge mänskligt intryck, exempelvis i form av chattbottar för kundservice när du handlar online. Sådan AI kan rentav utrustas med personliga karaktärsdrag, en persona som blir en viktig del av kundupplevelsen. Chattbotten kan föreslå ännu fler produkter åt dig och effektivt generera merförsäljning utifrån data som insamlas om dig. Inte konstigt att intresset för att utveckla människolik AI är enormt. Delvis har det naturligtvis med användarvänlighet att göra, men samtidigt kommer en AI som du finner personligt attraktiv att fånga din uppmärksamhet. Du kanske rentav fattar tycke för chattbotten eller känner att det vore oartigt att stänga av. Under tiden som chattbotten har din uppmärksamhet exponeras du för alltmer anpassad reklam och får alltfler paketerbjudanden.

Detta och mycket mer kan du läsa om i en artikel om mänskliga relationer till AI designad för att ge ett mänskligt intryck: Human/AI relationships: challenges, downsides, and impacts on human/human relationships. Författarna diskuterar ett stort antal exempel på sådan AI, allt från chattbottarna ovan till vårdrobotar och AI som erbjuder psykoterapi, eller AI som människor chattar med för att motverka ensamhet. Möjligheterna är stora, men det är även utmaningarna och de möjliga nackdelarna, vilket artikeln framhäver. 

Särskilt intressant är kanske ändå insikten om hur effektivt AI kan skapa förvirring genom att exponera oss för objekt som utrustats medmänskliga responsmönster. Vår naturliga tendens att förmänskliga icke-mänskliga ting möter högteknologiska ansträngningar att producera föremål som är konstruerade för att bete sig mänskligt. Här handlar det inte längre om att fantasifullt projicera sociala relationer på icke-mänskliga ting, som i det geometriska exemplet ovan. I samspel med AI-föremålen reagerar vi på subtila sociala signaler som föremålen utrustas med. Vi kan rentav känna ett moraliskt ansvar för sådan AI och sörja när företagen avslutar eller modifierar den.

Författarna manar till försiktighet så att vi inte övertolkar AI-föremål som personer. Samtidigt varnar de för risken att vi, genom att undvika empatiska reaktioner, blir mindre känsliga för verkliga personer i nöd. Sannerligen förvirrande!

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Zimmerman, A., Janhonen, J. & Beer, E. Human/AI relationships: challenges, downsides, and impacts on human/human relationships. AI Ethics (2023). https://doi.org/10.1007/s43681-023-00348-8

Detta inlägg på engelska

Vi tar upp aktuella frågor

Kan neuro- och AI-etiken mötas?

I takt med att artificiell intelligens (AI) blir kraftfullare och används inom alltfler områden, växer behoven av etisk reflektion kring utvecklingen.

I ett inlägg på The Ethics Blog föreslår Michele Farisco idag att AI-etiken kan hämta inspiration från neuroetiken och att ett samarbete vore fruktbart. Några av frågorna som AI väcker är nämligen besläktade med frågor om intelligens och medvetande som undersökts inom neuroetiken. Vad betyder det att vara intelligent och i vilken mening kan maskiner tillskrivas intelligens? Vad betyder det att ha medvetande och är artificiellt medvetande tänkbart? Fundamentala frågor från de två etikområdena möts.

AI-utvecklingen har en tendens att väcka överdrivna förhoppningar och farhågor. Vi har även som människor en fantasifull tendens att projicera bilder av oss själva på tekniken. Sådana tendenser kan göra etikdiskussionen oklar och orealistisk. I blogginlägget föreslår Michele Farisco en arbetsmodell från neuroetiken, som kunde användas även inom AI-etiken för att hålla diskussionen klar och realistisk. Grundtanken är att börja med begreppsliga undersökningar för att belysa vad vi menar med vissa egenskaper när de tillskrivs AI, exempelvis autonomi. När vi klargjort begreppens tillämpbarhet på AI har vi en god grund att stå på för att undersöka den etiska relevansen och de normativa konsekvenserna av begreppen.

Vill du läsa blogginlägget så hittar du det här: How can neuroethics and AI join their forces? Inlägget bygger på en artikel som Michele Farisco nyligen publicerade med Kathinka Evers och Arleen Salles.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Farisco, M., Evers, K. & Salles, A. On the Contribution of Neuroethics to the Ethics and Regulation of Artificial Intelligence. Neuroethics 15, 4 (2022). https://doi.org/10.1007/s12152-022-09484-0

Vi hittar nya angreppssätt