Många projekt är på gång i Sverige gällande AI-system i sjukvården. Det testas för fullt. Men många system verkar inte komma till användning. Varför? Ofta handlar det om dåligt förarbete. Utan en genomtänkt strategi och tydliga mål riskerar vi att skala upp AI-system som inte klarar av vårdverklighetens komplexitet.

Det kan nästan bli lite religiöst kring satsningarna på AI. Man får inte vara negativ eller ställa kritiska frågor. Då blir man snabbt stämplad som en cyniker, som en bromskloss som inte förstår tidens tecken. Det är som om man måste göra sig blind för potentiella fallgropar, som om man måste tala och bete sig som en sann troende. Många motiverar det ivriga AI-testandet med att vi måste våga prova för att se vilka lösningarna som faller ut som lyckade. Det är fascinerande hur gärna vi vill applicera AI på allt möjligt. Men gör vi det på rätt sätt, eller riskerar vi att ånga på utan att tänka efter?

Det finns verkligen reella ekonomiska och praktiska utmaningar inom vården. Det handlar inte bara om brist på ekonomiska resurser, utan även om brist på personal och specialister. Innan vi kan låta teknologier som AI bli en del av vår vardag, måste vi ställa oss några viktiga frågor: Vilka problem försöker vi lösa? Hur påverkar våra lösningar de människor som är involverade? Vi kan också behöva klargöra om syftet med AI-systemet är att närmast ta över en hel arbetsuppgift eller snarare underlätta vårt arbete i vissa väldefinierade avseenden. Utvecklingen av AI-produkter bör också vara extra uppmärksam på socialt skapade grupperingar som etnicitet och genus för att undvika att förstärka befintliga ojämlikheter genom snedvridande val av data. Etiskt genomtänkta AI-implementeringar leder förmodligen till bättre kliniska resultat och en mer effektiv och ändamålsenlig vård. Det är enkelt att fatta förhastade beslut som snart visar sig vara felaktiga: noggrannhet bör alltid prioriteras. Bättre att tänka rätt och långsamt än snabbt och fel. Kliniska studier bör genomföras även på till synes inte så avancerade AI-produkter. Inom radiologin är denna tradition väl etablerad, men den är inte lika tydlig inom primärvården. Om ett arbetssätt ska förändras med hjälp av AI, bör man utvärdera vilka effekter det kan få.

Tre saker får vi således inte slarva med: Vi måste först och främst definiera behovet av en AI-lösning. Vi måste därefter tänka efter så att inte AI-verktyget tränas med snedvriden data. Slutligen måste vi utvärdera AI-lösningen innan den sätts i verket.

Med den snabba datainsamling som appar och digitala verktyg idag tillåter är det viktigt att inte ryckas med, utan att noga överväga etiken kring design och införande av AI. Dessvärre har mantrat blivit: ”Har vi data så bör vi utveckla en AI.” Och det mantrat misstänkliggör den som frågar ”Varför?” Men frågan måste ställas. Den hindrar inte utvecklingen av AI-lösningar utan bidrar till den. Genomtänkta etiska överväganden leder till högre kvalitet på AI-produkten och stärker trovärdigheten för implementeringen.

Jag vill alltså varna för att förföras av tanken om AI-lösningar på allt möjligt. Innan vi säger att AI är svaret måste vi fråga oss: Vad är frågan? Bara om vi kan definiera en verklig fråga eller utmaning kan vi säkerställa att teknologin blir en hjälpande hand istället för en börda. Vi vill inte med jämna mellanrum hamna i situationen att vi plötsligt måste dra i nödbromsen, som i Västragötalandsregionens miljardsatsning Millenium. Vi får inte fastna i tankemönstret att vi kan göra allt snabbare och enklare om vi bara inför AI. Inte heller får vi låta oss styras av rädslan att vi hamnar på efterkälken om vi inte inför AI snarast möjligt. Bara en genomtänkt behovsanalys, design och utvärdering kan säkerställa ändamålsenlig vård som också är effektiv. För att få korrekta svar snabbt måste vi först ge oss tid att tänka efter.

Skrivet av…

Jennifer Viberg Johansson, docent i medicinsk etik vid Centrum för forsknings- och bioetik.

Detta inlägg på engelska

Vi ställer frågor