En forskningsblogg från Centrum för forsknings- & bioetik (CRB)

Månad: oktober 2024

Digitaliseringen av vård och omsorg kräver nationell strategi för att öka individers förmåga att hantera information digitalt

Det råder enighet om att digitaliseringen av vården kan göra det lättare att hålla kontakt med vården och få information som stödjer individuellt beslutsfattande om den egna hälsan. Förmågan att förstå och använda hälsoinformation digitalt varierar dock. Den löftesrika digitaliseringen riskerar därför att skapa ojämlik vård och hälsa.

Man brukar i detta sammanhang tala om digital hälsolitteracitet. Begreppet syftar på förmågan att inhämta, förstå och använda hälsoinformation digitalt för att behålla eller förbättra sin hälsa. Denna förmåga varierar inte bara mellan individer, utan även hos en och samma individ. Sjukdom kan till exempel minska förmågan att använda dator eller smartphone för att upprätthålla kontakt med vården samt förstå och hantera hälsoinformation digitalt. Din digitala hälsolitteracitet är beroende av din hälsa.

Hur tänker svenska beslutfattare kring behovet av strategier för att öka den digitala hälsolitteraciteten i Sverige? En artikel med Karin Schölin Bywall som huvudförfattare undersöker frågan. Material insamlades under tre inspelade fokusgruppsdiskussioner (eller workshops) med totalt 10 deltagare. Studien ingår i ett europeiskt projekt för att öka den digitala hälsolitteraciteten i Europa. Vad ansåg svenska beslutsfattare om behovet av en nationell strategi?

Deltagarna i studien menade att Sverige inte lyft frågan om digital hälsolitteracitet lika mycket som många andra länder i Europa och att statliga myndigheter har begränsad kunskap om problemet. Digitala tjänster i vården kräver dessutom vanligen att man identifierar sig digitalt, men en stor grupp vuxna i Sverige saknar e-legitimation. Behovet av en nationell strategi är därför stort.

Deltagarna diskuterade vidare hur digital hälsolitteracitet yttrar sig i individers förmåga att hitta rätt webbplats och tillförlitlig information på internet. Människor med lägre digital hälsolitteracitet kan kanske inte identifiera lämpliga sökord eller kan ha svårt att bedöma informationskällans trovärdighet. Problemet blir inte mindre av att algoritmer kontrollerar var vi hamnar när vi söker information. Ofta gör algoritmerna företag mer synliga än statliga organisationer.

Beslutsfattarna i studien identifierade även specifika grupper som riskerar digitalt utanförskap och som har olika typer av stödbehov. Bland annat nämndes människor med intellektuella funktionsnedsättningar och ungdomar som inte tillräckligt väl behärskar källkritik (även om de är vana användare av internet och olika appar). Deltagarna diskuterade specifika åtgärder för att motverka digitalt utanförskap i vård och omsorg, som vanliga brevutskick med information om bra webbplatser, anpassning av webbplatsinnehåll för människor med särskilda behov, samt undervisning i källkritik. Det framhölls också att individer kan ha olika kombinationer av tillstånd som påverkar förmågan att hantera hälsoinformation digitalt på olika sätt, och att en strategi för att öka den digitala hälsolitteraciteten därför måste vara nyanserad.

Sammanfattningsvis betonar studien att behovet av en nationell strategi för ökad digital hälsolitteracitet är stort. Samtidigt som digitala teknologier har stor potential att förbättra folkhälsan riskerar de att förstärka redan existerande ojämlikheter, avslutar författarna. Läs studien här: Calling for allied efforts to strengthen digital health literacy in Sweden: perspectives of policy makers.

Något som slog mig var att beslutsfattarna i studien, såvitt jag kunde se, inte betonade den växande gruppen äldre i befolkningen. Äldre kan ha en särskilt bred kombination av tillstånd som påverkar den digitala hälsolitteraciteten på många olika sätt. Dessutom inte bara varierar äldres förmåga att hantera information digitalt med dagsformen, utan förmågan kan förväntas ha en allt stadigare tendens att försämras. Antagligen i samma takt som behovet av att använda förmågan ökar.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Bywall, K.S., Norgren, T., Avagnina, B. et al. Calling for allied efforts to strengthen digital health literacy in Sweden: perspectives of policy makers. BMC Public Health 24, 2666 (2024). https://doi.org/10.1186/s12889-024-20174-9

Detta inlägg på engelska

Vi tycker om etik

Debatt om ansvar och akademiskt författarskap

Vem får räknas som författare till en forskningsartikel? Viss förvirring tycks råda kring de så kallade Vancouver-reglerna för akademiskt författarskap, som fungerar som publiceringsetiska riktlinjer inom främst medicin och naturvetenskap (men ibland även inom humaniora och samhällsvetenskap). En akademisk författare måste enligt dessa regler ha bidragit intellektuellt till studien, ha deltagit i skrivprocessen samt ha godkänt artikelns slutversion. Den djupaste förvirringen tycks dock röra den fjärde regeln, som kräver att en akademisk författare måste ta ansvar för att den publicerade forskningen genomförts korrekt och hederligt. Förvirringen blir inte mindre av att artificiella intelligenser som ChatGPT börjat användas i forsknings- och skrivprocessen. Det händer att forskare ber AI:n att generera invändningar till forskarnas resonemang, vilket naturligtvis kan ge betydande bidrag till forskningsprocessen. AI:n kan även generera text som bidrar till processen att skriva artikeln. Borde en sådan AI räknas som medförfattare?

Nej, menar en publikationsetisk kommitté (Committee on Publication Ethics, COPE) med hänvisning till det sista kravet i Vancouver-reglerna: en AI kan inte vara författare till en akademisk publikation, eftersom den inte kan ta ansvar för den publicerade forskningen. Kommitténs avfärdande av AI-författarskap har väckt en liten men lärorik debatt i Journal of Medical Ethics. Först ut var Neil Levy, som argumenterade för att ansvar (för hela studier) inte är ett rimligt krav för akademiskt författarskap, och att en AI redan idag skulle kunna räknas som författare (om kravet slopas). Detta föranledde en respons från Gert Helgesson och William Bülow, som argumenterade för att ansvar (realistiskt tolkat) är ett rimligt krav, och att en AI inte kan räknas som författare, eftersom den inte kan ta ansvar.

Vad handlar detta om? Vad säger regeln som väckte debatten? Den säger att du, för att räknas som författare till en vetenskaplig artikel, måste försäkra dig om att frågor om korrekthet och hederlighet utretts och säkerställts på ett tillfredsställande sätt. En akademisk författare måste alltså kunna svara för att forskningen utförts riktigt. Enligt Neil Levy är detta krav alltför starkt. I medicin och naturvetenskap är det ofta fallet att nästan ingen av forskarna som räknas som medförfattare kan ta ansvar för hela den publicerade studien. Samarbetena kan vara enorma och forskarna är specialister inom sina egna smala områden. De saknar överblicken och kompetensen att bedöma och svara för studien i dess helhet. I många fall kan inte ens huvudförfattaren göra detta, menar Neil Levy. Om vi inte vill göra det närmast omöjligt att räknas som författare inom medicinska och naturvetenskapliga ämnen, måste ansvar slopas som krav för författarskap, menar han. Då får vi acceptera att AI redan idag kan räknas som medförfattare till många vetenskapliga studier, om den gjort betydande intellektuella bidrag till forskningen.

Neil Levy öppnar dock för en tredje möjlighet. Ansvarskriteriet skulle kunna omtolkas så att det kan uppfyllas av de forskare som idag brukar räknas som författare. Hur då? En forskare som gjort ett betydande intellektuellt bidrag till en forskningsartikel måste, för att få räknas som författare, acceptera ansvaret för sitt ”lokala” bidrag till studien, inte för studien i dess helhet. En AI kan då inte räknas som akademisk författare, eftersom den inte kan svara eller hållas ansvarig ens för sitt ”lokala” bidrag till studien.

Enligt Gert Helgesson och William Bülow är denna tredje möjlighet den uppenbart riktiga tolkningen av den fjärde Vancouver-regeln. Den rimliga tolkningen, menar de, är att alla som listas som författare till en akademisk publikation har ansvar att stödja en utredning, om oegentligheter eller misstag kan misstänkas i studien. Inte bara efter att studien publicerats, utan under hela forskningsprocessen. Ingen kan dock hållas ansvarig för en hel studie, ibland inte ens huvudförfattaren. Man kan hållas ansvarig bara för det egna bidraget, för den del av studien som man själv har insyn i och kompetensen att bedöma. Men om man misstänker oegentligheter i andra delar av studien, så har man som akademisk författare ändå ansvar att påtala detta, och agera för att misstankarna utreds om de inte omedelbart kan avfärdas.

Förvirringen kring det fjärde författarskapskriteriet är naturlig, det är faktiskt inte lätt att förstå kriteriet och det bör därför preciseras. Debatten i Journal of Medical Ethics ger en lärorik bild av hur olika man kan tolka kriteriet, och den kan på så vis motivera förslag på hur kriteriet bör preciseras. Du kan läsa Neil Levys artikel här: Responsibility is not required for authorship. Responsen från Gert Helgesson och William Bülow finner du här: Responsibility is an adequate requirement for authorship: a reply to Levy.

Personligen vill jag fråga om en AI, som inte kan ta ansvar för forskningsarbete, ens kan sägas ge betydande intellektuella bidrag till vetenskapliga studier. I akademin förväntas vi vara öppna för kritik från andra och inte minst från oss själva. Vi förväntas kunna kritiskt bedöma våra idéer, teorier och metoder: bedöma om invändningar är riktiga och därefter försvara oss eller ändra uppfattning. Detta är ett viktigt moment i doktorandutbildningen och i forskarseminariet. Vi kan alltså inte sägas bidra intellektuellt till forskning, om vi inte har förmågan att självkritiskt bedöma bidragens riktighet. ChatGPT kan därför knappast sägas ge betydande intellektuella bidrag till forskning, är jag benägen att säga. Inte ens när den genererar självkritisk eller självförsvarande text på basis av statistiska beräkningar i enorma språkdatabaser. Det är forskarna som bedömer om genererad text ger dem uppslag till goda anledningar att antingen ändra sig eller försvara sig. Det vore i så fall ett missförstånd att tacka ChatGPT:n för bidrag till en forskningsartikel, som man brukar göra med forskarkollegor som bidragit intellektuellt till studien utan att de levt upp till övriga krav på akademiskt författarskap. Snarare bör studiens författare redovisa hur ChatGPT:n använts som ett verktyg i studien, liksom man redovisar användningen av andra verktyg och metoder. Hur bör detta ske? I debatten poängteras att även detta behöver preciseras.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Levy N. Responsibility is not required for authorship. Journal of Medical Ethics. Published Online First: 15 May 2024. doi: 10.1136/jme-2024-109912

Helgesson G, Bülow W. Responsibility is an adequate requirement for authorship: a reply to Levy. Journal of Medical Ethics. Published Online First: 04 July 2024. doi: 10.1136/jme-2024-110245

Detta inlägg på engelska

Vi deltar i debatten

Varför försöka skapa medveten AI?

Trots att det är oklart vad det kan innebära att tala om ”medveten AI” så finns det en vilja att skapa ”det”. Vad kunde vi tänka oss att fördelarna med medveten AI vore? Varför försöka skapa subjektiv erfarenhet i AI-system? Vad kunde vi förvänta oss av en sådan strävan? Detta är frågor som Michele Farisco diskuterar på den engelska versionen av denna blogg.

Michele Farisco nämner flera möjliga svar på frågorna. Till exempel kunde strävan efter artificiellt medvetande bidra till bättre kunskap om biologiskt medvetande och till bättre teknisk prestanda hos AI-system. Han reflekterar även över möjliga etiska och samhälleliga effekter av medveten AI. Man kunde till exempel hoppas att medveten AI skulle hjälpa människan att förutse negativa konsekvenser av långsiktiga beslut och bidra till en mer hållbar och etisk utveckling. Men om mänskligt medvetande inte lyckats med detta, utan tvärtom ofta visar prov på själviskhet och närsynthet, varför skulle artificiellt medvetande lyckas bättre?

Dessa frågor är naturligtvis hypotetiska, men eftersom det faktiskt finns en vilja att skapa ”medveten AI” behöver de ställas. Läs Michele Fariscos engelska blogginlägg här: Why should we try to build conscious AI?

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Vi ställer frågor