En forskningsblogg från Centrum för forsknings- & bioetik (CRB)

Etikett: datadelning

Avbilda hjärnan utan att avslöja personen

Tre samtida tendenser skapar stora utmaningar för forskare. För det första förväntas vetenskapen bli alltmer öppen, bland annat genom att göra insamlade data tillgängliga för nya användare och nya syften. Samtidigt skärps dataskyddslagstiftningar för att skydda människors integritet. Slutligen hittar artificiell intelligens nya sätt att avslöja individerna bakom data, där detta tidigare var omöjligt.

Hjärnavbildning är ett exempel på hur öppnare vetenskap, starkare dataskyddslagstiftning och kraftfullare AI utmanar forskarsamhället. Du tänker kanske inte på att man kan identifiera personen vars hjärna avbildats med magnetkamera? Men där avbildas faktiskt även skallens och ansiktets form, inklusive eventuella ärr. Man skulle alltså kunna känna igen personen. För att kunna dela hjärnavbildningsdata utan att avslöja personen, har man hittills trott att det räckt med att på olika sätt ta bort skall- och ansiktsformen i bilderna, eller göra konturen suddig. Problemet är den tredje tendensen: kraftfullare AI.

AI kan lära sig att identifiera personer, där mänskliga ögon misslyckas. Hjärnavbildningar där huvudets och ansiktets former gjorts oigenkännliga visar sig nämligen ofta innehålla tillräckligt mycket information för att självlärande ansiktsigenkänningsprogram ska kunna identifiera personerna. AI lyckas åter-identifiera vad som avidentifierats. Dessutom är även själva hjärnans anatomi individuell. Liksom våra fingrar har unika fingeravtryck, har våra hjärnor unika ”hjärnavtryck”. Detta gör det möjligt att koppla hjärnavbildningsdata till person, nämligen om man har tidigare identifierade hjärnavbildningsdata från personen. Exempelvis via någon annan databas, eller om personen spridit sina hjärnavbildningar via sociala media så att ”hjärnavtryck” och person kopplats ihop.

Att göra personerna helt oidentifierbara skulle förändra bilderna så kraftigt, att de skulle förlora sitt värde för forskningen. De tre samtida tendenserna – öppnare vetenskap, skarpare dataskyddslagstiftning och kraftfullare AI – tycks således vara på kollisionskurs. Är det överhuvudtaget möjligt att dela vetenskapligt användbara hjärnavbildningsdata på ett ansvarsfullt sätt, när AI verkar kunna avslöja personerna vars hjärnor avbildats?

Nå, allt oönskat som kan ske, måste inte ske. Vore världen lika lömskt konstruerad som i en konspirationsteori, skulle inga säkerhetsåtgärder i världen kunna rädda oss från undergång. Tvärtom skulle sådana totala säkerhetskrav garanterat hota säkerheten, vilket jag nyligen bloggade om.

Så hur ska forskarna göra i praktiken, när de bygger internationella forskningsinfrastrukturer för att dela hjärnavbildningsdata (enligt första tendensen ovan)? Ett konstruktivt förslag presenteras i en artikel i Neuroimage: Reports. Författarna framhåller bland annat ökad och kontinuerligt uppdaterad medvetenhet bland forskare om realistiska dataskyddsrisker. Forskare som arbetar med hjärnavbildning behöver utbildas att tänka i termer av dataskydd och se detta som en naturlig del av forskningen.

Framförallt föreslår författarna flera konkreta åtgärder för att tekniskt och organisatoriskt bygga forskningsinfrastrukturer där dataskyddet finns med från början, som inbyggd standard. Eftersom fullständigt anonymiserade hjärnavbildningsdata är en omöjlighet (sådana data skulle förlora sitt vetenskapliga värde), framhålls i stället pseudonymisering samt kryptering av data. Vidare föreslås tekniska system för att kontrollera åtkomst av data (inte vem som helst ska ha tillgång), samt tydliga dataanvändningsavtal som begränsar vad användaren får göra med data. Utöver detta är givetvis informerat samtycke från personerna som deltar i hjärnavbildningsstudier en del av ordningen.

Sammantaget skulle denna från början inbyggda säkerhetsordning göra det möjligt att bygga forskningsinfrastrukturer som tillfredsställer hårdare dataskyddslagstiftningar, även i en värld där artificiell intelligens i princip kan se vad mänskliga ögon inte ser. De tre samtida tendenserna är kanske inte på kollissionskurs, trots allt. Om dataskydd byggs in från början, kan forskarna dela data utan att tvingas förstöra det vetenskapliga värdet av bilderna, och människor kan fortsätta att vilja delta i forskning.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Damian Eke, Ida E.J. Aasebø, Simisola Akintoye, William Knight, Alexandros Karakasidis, Ezequiel Mikulan, Paschal Ochang, George Ogoh, Robert Oostenveld, Andrea Pigorini, Bernd Carsten Stahl, Tonya White, Lyuba Zehl. “Pseudonymisation of neuroimages and data protection: Increasing access to data while retaining scientific utility,” Neuroimage: Reports, 2021,Volume 1, Issue 4

Detta inlägg på engelska

Vad är hållbarhet i framtiden?

Forskning för ansvarsfull hantering av våra hälsodata

Använder du smarttelefonen för att samla in och analysera din prestation på gymmet? Ny hälsorelaterad teknik utvecklas och integreras snabbt i våra liv. Denna utveckling leder till ett växande behov av att samla in, använda och dela hälsodata digitalt. Sjukvården, den medicinska forskningen, liksom teknik- och läkemedelsföretagen är alltmer beroende av att samla in och dela våra elektroniska hälsodata. Detta för att utveckla vården och nya medicinska och tekniska produkter.

Denna trend mot alltmer delning av personlig hälsoinformation väcker flera integritetsfrågor. Tidigare studier tyder på att människor är villiga att dela sin hälsoinformation om det övergripande syftet är förbättrad hälsa. De är dock mindre villiga att dela sin information med företag och försäkringsbolag, vars syften kan vara oklara eller inte uppfylla människors förväntningar. Det är därför viktigt att undersöka hur individers uppfattningar och attityder förändras beroende på det sammanhang i vilket deras hälsodata används, vilken typ av information som samlas in samt vilka kontrollmekanismer som styr datadelningen. Dessutom finns det en skillnad mellan vad människor säger är viktigt och vad som avslöjas i deras faktiska beteende. I enkäter anger individer ofta att de värdesätter sin personliga information. Samtidigt delar individer sin personliga information online trots liten eller ingen fördel för dem eller samhället.

Känner du igen dig själv, klickar du rutinmässigt på ”Godkänn”-knappen när du installerar en hälsoapp som du vill använda? Detta beteende kan vid första anblick tyda på att människor inte värdesätter sin personliga information särskilt mycket. Är det en korrekt slutsats? Tidigare studier tog kanske inte hänsyn till komplexiteten i beslut om integritet där kontextspecifika faktorer spelar en stor roll. Till exempel kan människor värdera att dela hälsodata via en fysisk aktivitetsapp på telefonen olika. Vi har därför valt att genomföra en studie som använder en sofistikerad flermetodsstrategi som tar hänsyn till kontextspecifika faktorer. Vi tror det finns en fördel inom cybersäkerhets- och integritetsforskning att använda både kvalitativa metoder och en kvantitativ preferensmetod, såsom ett så kallat discrete choice experiment (DCE). Vi hoppas på så vis kunna bidra till att människors hälsodata delas för flera ändamål på ett etiskt bättre sätt.

Du kan läsa mer om våra försök att initiera sådan forskning på vår forskargrupps webbplats. För närvarande analyserar vi enkätdata från 2 000 deltagare från Sverige, Norge, Island och Storbritannien. Forskargruppen har expertis inom juridik, filosofi, etik och samhällsvetenskap. På denna breda grund utforskar vi människors förväntningar och preferenser, samtidigt som vi identifierar möjliga etiska och juridiska fallgropar. På så sätt vill vi bidra till att göra den växande digitala användningen och delningen av hälsodata etiskt välinformerad, socialt acceptabel och i överensstämmelse med människors förväntningar.

Jennifer Viberg Johansson

Skrivet av…

Jennifer Viberg Johansson, postdoc vid Centrum för forsknings- & bioetik, arbetar inom projekten Governance of health data in cyberspace och PREFER.

Detta inlägg på engelska

Utforskar preferenser