En forskningsblogg från Centrum för forsknings- & bioetik (CRB)

År: 2022 (Sida 3 av 3)

Förebyggande av sjukdom behöver anpassas till människors sjukdomsuppfattningar

Flera olika faktorer ökar risken för hjärt-kärlsjukdom. Många av dessa kan vi själva påverka genom ändrad livsstil eller förebyggande läkemedelsbehandling. Men människors attityder till förebyggande åtgärder varierar med deras uppfattningar om hjärt-kärlsjukdom. Hälsokommunikation för att stödja förebyggande åtgärder behöver därför ta hänsyn till människors sjukdomsuppfattningar.

Åsa Grauman har tillsammans med tre kolleger gjort en online-undersökning med 423 slumpvis utvalda svenskar i åldern 40 till 70 år. Deltagarna fick svara på frågor om sig själva och om hur de ser på hjärt-kärlsjukdom. De deltog därefter i ett försök som var utformat för att fånga hur de viktade sina preferenser angående hälsoundersökningsresultat.

Resultaten visade en stor variation i synen på hjärt-kärlsjukdom. Kvinnor angav oftare stress som sin viktigaste riskfaktor medan män oftare angav övervikt och fetma. Ett intressant resultat är att personer som uppgav att de rökte, hade högt blodtryck, övervikt eller levde stillasittande, hade en tendens att tona ned just den faktorn som mindre riskabel för hjärt-kärlsjukdom . Personer som däremot uppgav att de upplevde stress hade en tendens att betona stress som en stor risk för hjärt-kärlsjukdom. Människor som angav familjehistoria som personlig sjukdomsrisk uppvisade större ovillighet att delta i hälsoundersökningar.

Beträffande preferenser kring hälsoundersökningsresultat, fann man att deltagarna föredrog att få sina resultat presenterade i vardagliga ord och med en helhetsbedömning (snarare än exempelvis i siffor). De föredrog också att få resultaten i ett brev (snarare än genom att logga in på en hemsida) som även innehöll livsstilsrekommendationer, och de föredrog 30 minuters konsultation (framför ingen eller bara 15 minuters konsultation).

Det är viktigt att nå ut med budskapet att risken för hjärt-kärlsjukdom kan påverkas genom livsstilsförändringar, samt att hälsoundersökningar kan identifiera riskfaktorer hos människor som i övrigt är symptomfria. Särskilt människor med en familjehistoria av hjärt-kärlsjukdom, som i studien var mer ovilliga att genomgå hälsoundersökningar, kan behöva känna till detta.

För att nå ut med budskapet behöver det anpassas till hur människor uppfattar hjärt-kärlsjukdom och vi behöver bli bättre på att stödja riktiga uppfattningar, sammanfattar författarna. Jag har här nämnt ett litet urval av resultat från studien. Vill du ta del av rikedomen av resultat, läs artikeln: Public perceptions of myocardial infarction: Do illness perceptions predict preferences for health check results.

Du kan även höra en intervju med Åsa Grauman här: Vetenskapsradion Hälsa.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Åsa Grauman, Jennifer Viberg Johansson, Marie Falahee, Jorien Veldwijk. 2022, Public perceptions of myocardial infarction: Do illness perceptions predict preferences for health check results. Preventive Medicine Reports 26, https://doi.org/10.1016/j.pmedr.2021.101683

Detta inlägg på engelska

I dialog med allmänheten

Bilder av god och ond artificiell intelligens

Som Michele Farisco påpekat på den engelska versionen av denna blogg, fungerar artificiell intelligens (AI) ofta som projektionsyta för våra självbilder som människor. Ibland även som projektionsyta för våra bilder av gott och ont, som du snart ska få se.

Inom AI och robotteknik eftersträvas ofta autonomi, i meningen att den artificiella intelligensen ska kunna utföra sina uppgifter på bästa sätt utan mänsklig vägledning. Som en självkörande bil, som säkert tar dig dit du vill utan att du behöver styra, gasa eller bromsa. En annan form av autonomi som ofta eftersträvas är att den artificiella intelligensen ska vara självlärande och därmed kunna förbättra sig själv och bli kraftfullare utan mänsklig vägledning.

Filosofer har diskuterat om AI kan vara autonom även i en annan mening, som förknippas med vårt mänskliga förnuft. En autonom person kan, enligt denna bild, granska sina yttersta mål i livet och revidera dem, om hon bedömer att ny kunskap om världen gör det nödvändigt. Vissa filosofer menar att AI inte kan göra detta, eftersom det förprogrammerade målet, eller nyttofunktionen, skulle göra det irrationellt att ändra målet. Målet ligger fast. Idén om en sådan envist målinriktad AI kan väcka oroande bilder av ondskefull AI som löper amok mittibland oss. Men även betryggande bilder av god AI som pålitligt stödjer oss.

Oroade filosofer har föreställt sig en AI som har det yttersta målet att tillverka vanliga gem. Denna AI antas vara självförbättrande. Den blir därför allt intelligentare och kraftfullare vad gäller målet att tillverka gem. När råvaror sinar lär den sig nya sätt att förvandla jordens resurser till gem och när människor försöker hindra den från att förgöra planeten lär den sig att förgöra mänskligheten. När planeten är utplånad ger den sig ut i rymden och förvandlar universum till gem.

Filosofer som varnar för en sådan ”ond” superintelligent AI hyser även förhoppningar om en ”god” superintelligent AI. Anta nämligen att vi kunde ge självförbättrande AI målet att tjäna mänskligheten. Utan att tröttna skulle den utveckla allt intelligentare och kraftfullare sätt att vara vid vår sida, till tidens ände. Till skillnad från religionens gud skulle denna konstgjorda superintelligens höra våra böner och vidta allt smartare åtgärder för att hjälpa oss. Den skulle antagligen förr eller senare lära sig att förhindra jordbävningar och våra klimatproblem skulle snart vara borta. Inga teodicéproblem i världen kunde undergräva vår tro på denna AI-gud, vars makt att skydda oss mot allt ont bara ökar. Naturligtvis är det oklart hur målet att tjäna mänskligheten kan definieras. Men givet möjligheten att äntligen säkerställa mänsklighetens framtid, menar vissa hoppfulla filosofer att utveckling av människovänlig självförbättrande AI borde vara en av vår tids främsta uppgifter.

Allt detta läste jag i en välskriven artikel av Wolfhart Totschnig, som ifrågasätter den icke-reviderbara målorientering som förknippas med autonom AI i scenarierna ovan. Hans viktigaste poäng är att målstyrd AI som löper amok i universum eller räddar mänskligheten ur varje knipa inte ens är tänkbar. Utanför sin domän förlorar nämligen målet sin meningsfullhet. Målet för en självkörande bil att säkert ta användaren till destinationen har ingen mening utanför domänen vägtrafik. Domänspecifik AI kan därför inte generaliseras till världen som helhet, för nyttofunktionen förlorar sin mening utanför domänen, långt innan universum hinner förvandlas till gem eller mänsklighetens framtid hinner säkerställas av en artificiellt god gud.

Detta är naturligtvis en viktig filosofisk poäng om mål och mening, om begränsade domäner och världen som helhet. Kritiken hjälper oss att mer realistiskt bedöma risker och möjligheter av framtida AI, utan att förhäxas av våra bilder. Samtidigt får jag intrycket att även Totschnig fortsätter att använda AI som projektionsyta för bilder av oss själva. Han menar nämligen att framtida AI mycket väl kan revidera även sina yttersta mål i takt med att den utvecklar en allmän förståelse för världen. Svagheten i scenarierna ovan var ju att de utgick från dagens domänspecifika AI, inte från människans allmänna förnuftsförmåga. Vi ser då inte möjligheten av en äkta människolik AI, som självkritiskt omprövar sina yttersta mål när ny kunskap om världen motiverar detta. Sant människoekvivalent AI skulle ha full autonomi.

Att projicera mänskliga självbilder på framtida AI är inte bara en tendens, såvitt jag kan bedöma, utan en norm som styr diskussionen. Enligt denna norm projiceras fel bild i scenarierna ovan. En bild av dagens maskiner, inte av vår allmänna mänskliga intelligens. Att projicera rätt självbild på framtida AI framstår därmed som ett övergripande mål i diskussionen. Är målet meningsfullt eller borde det omprövas självkritiskt?

Detta är svåra frågor och mitt intryck av diskussionen kan vara felaktigt. Vill du göra en egen bedömning, läs artikeln: Fully autonomous AI.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Totschnig, W. Fully Autonomous AI. Sci Eng Ethics 26, 2473–2485 (2020). https://doi.org/10.1007/s11948-020-00243-z

Detta inlägg på engelska

Vi ställer frågor

Individualiserad läkemedelsbehandling ur patientens perspektiv

Individualiserad läkemedelsbehandling, där rätt patient får rätt dos av rätt läkemedel i rätt tid, kunde tolkas som en rent medicinsk uppgift. Efter genetiska och andra tester på patienten, så bedömer läkaren vilket läkemedel mot sjukdomen och vilken dos som ur medicinsk synvinkel borde fungera effektivast och säkrast för patienten ifråga.

Individualisering kan även tolkas så att uppgiften inbegriper patientens uppfattningar om behandlingen, patientens egna preferenser. Ledgångsreumatism är en sjukdom med många olika symptom. Flera läkemedel finns att tillgå som har olika effekt på olika symptom, samt olika biverkningar. Dessutom tas läkemedlen på olika sätt och med olika intervall. Alla dessa läkemedelsegenskaper påverkar naturligtvis patienternas vardagsliv olika. Ett läkemedel reducerar kanske smärtan effektivt, men ger nedstämdhet, och så vidare. Vid individualiserad behandling av ledgångsreumatism finns därför goda skäl att fråga patienterna om vad de själva anser är viktiga läkemedelsegenskaper och vad de vill uppnå med behandlingen.

I en studie i Clinical Rheumatology förbereder Karin Schölin Byvall och fem medförfattare för individualiserad behandling av ledgångsreumatism ur patientens perspektiv. Detta i förhoppning att underlätta inte bara gemensamt beslutsfattande med patienter som har sjukdomen, utan även framtida kvantitativa studier av preferenser hos patientgruppen.

Så här gick författarna (mycket förenklat) tillväga. Först gjordes en litteraturgenomgång för att identifiera möjliga relevanta läkemedelsegenskaper. Därefter fick patienter i Sverige med ledgångsreumatism ranka nio av dessa egenskaper. I ett tredje steg intervjuades några av patienterna närmare om hur de uppfattade de viktigaste egenskaperna.

I ett sista steg strukturerades intervjuresultaten i ett ramverk med fyra särskilt relevanta läkemedelsegenskaper. De första två handlar om förbättrad förmåga att fungera fysiskt respektive psykosocialt i vardagen. De senare två handlar om allvarliga respektive milda biverkningar. Sammanfattningsvis handlar de viktigaste läkemedelegenskaperna, ur patienternas perspektiv, om förbättrad förmåga att fungera i vardagen samt om acceptabla biverkningar.

Vill du veta mer om studien, läs artikeln: Functional capacity vs side effects: treatment attributes to consider when individualising treatment for patients with rheumatoid arthritis.

Författarna betonar betydelsen av att beakta patienternas egna mål med behandlingen. Individualiserad läkemedelsbehandling förutsätter inte bara medicinska tester, utan kan även förutsätta studier av patientpreferenser.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Bywall, K.S., Esbensen, B.A., Lason, M. et al. Functional capacity vs side effects: treatment attributes to consider when individualising treatment for patients with rheumatoid arthritis. Clin Rheumatol (2021). https://doi.org/10.1007/s10067-021-05961-8

Detta inlägg på engelska

I dialog med patienter

Digitala tvillingar, virtuella hjärnor och språkets faror

En ny datorsimuleringsteknik har börjat användas exempelvis inom tillverkningsindustrin. Simuleringen kallas en digital tvilling, vilket utmanar mig att levandegöra för läsaren vad något som låter så fantasieggande kan vara i verkligheten.

Den mest realistiska förklaring jag kan hitta kommer faktiskt från Harry Potters värld. Minns du kartan över Hogwarts, som inte bara visar alla rum och korridorer, utan även fotstegen i realtid av dem som smyger omkring på skolan? En liknande karta kan lätt skapas i datormiljö genom att förbinda kartan i datorn med sensorer i golvet på byggnaden som kartan avbildar. Genast har du en interaktiv digital karta över byggnaden som automatiskt uppdateras och visar människors rörelser i den. Tänk dig vidare att datorsimuleringen kan göra beräkningar som förutsäger folksamlingar som överstiger myndigheternas rekommendationer, och att den automatiskt sänder ut varningsmeddelanden via ett högtalarsystem. Såvitt jag förstår kan en sådan interaktiv digital karta kallas en digital tvilling för ett intelligent hus.

Naturligtvis är detta en revolutionerande teknik. Arkitektens ritning i något datorprogram får förlängt liv i såväl produktionen som underhållet av byggnaden. Den digitala simuleringen kopplas till sensorer som uppdaterar simuleringen med aktuella data om relevanta faktorer i byggprocessen och därefter i den färdiga byggnaden. Huset får en digital tvilling som under byggnadens hela livscykel automatiskt kontaktar underhållstekniker när sensorerna visar att tvättmaskinerna börjar bli slitna eller luften inte cirkulerar som den ska.

Användningsområdet för digitala tvillingar är enormt. Poängen med dem, som jag förstår det, är inte att de är ”exakta virtuella kopior av verkligheten”, vad det nu kunde betyda. Poängen är att datorsimuleringen är sammanlänkad med det simulerade objektet på ett praktiskt relevant sätt. Sensorer uppdaterar automatiskt simuleringen med relevanta data, samtidigt som simuleringen automatiskt uppdaterar det simulerade objektet på relevanta sätt. Samtidigt uppdateras användare, tillverkare, underhållstekniker och andra aktörer, som lätt överblickar objektets aktuella status, möjligheter och risker, var de än befinner sig i världen.

Det europeiska flaggskeppsprojektet Human Brain Project planerar att utveckla digitala tvillingar till mänskliga hjärnor, detta genom att bygga virtuella hjärnor i datormiljö. I en artikel undersöker filosoferna Kathinka Evers och Arleen Salles, som båda arbetar i projektet, de enorma utmaningar som det skulle innebära att utveckla digitala tvillingar till levande mänskliga hjärnor. Är det ens tänkbart?

Författarna jämför typer av föremål som kan få digitala tvillingar. Det kan handla om artefakter såsom byggnader och bilar eller om naturliga livlösa företeelser såsom berggrunden vid en gruva. Men det skulle alltså även kunna handla om levande ting såsom hjärtat eller hjärnan. Jämförelserna i artikeln visar att hjärnan utmärker sig på flera sätt, som alla gör det oklart om det är rimligt att tala om digitala tvillingar till mänskliga hjärnor. Vore det mer klargörande att tala om digitala kusiner?

Hjärnan är astronomiskt komplex och trots ny kunskap om den så är den i hög grad ogenomskinlig för vårt kunskapssökande. Hur kan vi tala om en digital tvilling till något som är komplext som en galax och okänt som ett svart hål? Dessutom är hjärnan genomgående dynamiskt interaktiv. Den är sammankopplad inte bara med kroppen utan även med kultur, samhälle och omvärld, som den utvecklas i oavbrutet samspel med. Hjärnan smälter närmast ihop med omgivningen. Betyder det att en digital tvilling skulle behöva vara en tvilling till hjärnan-kroppen-kulturen-samhället-världen, det vill säga en digital tvilling till allting?

Nej, så är det naturligtvis inte. Syftet inom projektet är att finna specifika medicinska tillämpningar av den nya datorsimuleringstekniken. Genom att utveckla digitala tvillingar till vissa aspekter av vissa delar av patienters hjärnor, hoppas man kunna förbättra och individanpassa exempelvis kirurgiska ingrepp vid sjukdomar såsom epilepsi. Liksom kartan från Harry Potters värld följer människors fotsteg, skulle den digitala hjärntvillingen kunna följa vissa nervimpulsers utbredning i vissa delar av patientens hjärna. Detta kan öppna nya möjligheter att överblicka, diagnostisera, förutse och behandla sjukdomar såsom epilepsi.

Borde vi undvika termen digital tvilling när vi talar om hjärnan? Ja, det vore antagligen klokare att tala om digitala syskon eller om digitala kusiner, argumenterar Kathinka Evers och Arleen Salles. Även om experterna på området förstår begreppets tekniska användning, är uttrycket ”digital tvilling” språkligt riskabelt när vi talar om den mänskliga hjärnan. Det leder lätt tanken vilse. Vi tänker oss att den digitala tvillingen måste vara en exakt kopia av en människas hela hjärna. Detta riskerar att skapa orealistiska förväntningar och grundlös rädsla omkring teknikutvecklingen. Historien visar dessutom att språket rymmer fler faror. Ord kommer med normativa förväntningar som kan få etiska och sociala konsekvenser som kanske inte avsågs. Att tala om en digital tvilling till en gruvborr är nog ingen större språklig fara. Men handlar det om individuella människors hjärnor, kan talet om digitala tvillingar bli en ny språklig arena där vi befäster fördomar och sprider rädslor.

Efter att ha läst några populärvetenskapliga förklaringar av digital tvillingar vill jag tillägga att försiktighet kan behövas även i anknytning till industriella tillämpningar. För den digitala tvillingen till gruvborren är ju ingen ”exakt virtuell kopia av den verkliga borren” i någon absolut mening, ända ner till rörelserna hos enskilda atomer. Den digitala tvillingen är en kopia i den praktiska mening som tillämpningen gör relevant. Ibland räcker det att kopiera var människor sätter ner sina fötter, som i Harry Potters värld, vars magi oväntat hjälper oss att förstå begreppet digital tvilling mer realistiskt än många verbala ordförklaringar kan göra. Att förklara ord med hjälp av andra ord är inte alltid klargörande, om alla orden styr tanken i samma riktning. Orden ”kopia” och ”replik” leder vårt tänkande precis lika rätt och precis lika fel som ordet ”tvilling” gör.

Vill du bättre förstå utmaningarna kring digitala tvillingar till mänskliga hjärnor och vikten av begreppslig klarhet kring utvecklingen, läs den filosofiskt upplysande artikeln: Epistemic Challenges of Digital Twins & Virtual Brains: Perspectives from Fundamental Neuroethics.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Evers, Kathinka & Salles, Arleen. (2021). Epistemic Challenges of Digital Twins & Virtual Brains: Perspectives from Fundamental Neuroethics. SCIO: Revista de Filosofía. 27-53. 10.46583/scio_2021.21.846

Detta inlägg på engelska

Vi söker klarhet

Nyare inlägg »