Tre samtida tendenser skapar stora utmaningar för forskare. För det första förväntas vetenskapen bli alltmer öppen, bland annat genom att göra insamlade data tillgängliga för nya användare och nya syften. Samtidigt skärps dataskyddslagstiftningar för att skydda människors integritet. Slutligen hittar artificiell intelligens nya sätt att avslöja individerna bakom data, där detta tidigare var omöjligt.

Hjärnavbildning är ett exempel på hur öppnare vetenskap, starkare dataskyddslagstiftning och kraftfullare AI utmanar forskarsamhället. Du tänker kanske inte på att man kan identifiera personen vars hjärna avbildats med magnetkamera? Men där avbildas faktiskt även skallens och ansiktets form, inklusive eventuella ärr. Man skulle alltså kunna känna igen personen. För att kunna dela hjärnavbildningsdata utan att avslöja personen, har man hittills trott att det räckt med att på olika sätt ta bort skall- och ansiktsformen i bilderna, eller göra konturen suddig. Problemet är den tredje tendensen: kraftfullare AI.

AI kan lära sig att identifiera personer, där mänskliga ögon misslyckas. Hjärnavbildningar där huvudets och ansiktets former gjorts oigenkännliga visar sig nämligen ofta innehålla tillräckligt mycket information för att självlärande ansiktsigenkänningsprogram ska kunna identifiera personerna. AI lyckas åter-identifiera vad som avidentifierats. Dessutom är även själva hjärnans anatomi individuell. Liksom våra fingrar har unika fingeravtryck, har våra hjärnor unika ”hjärnavtryck”. Detta gör det möjligt att koppla hjärnavbildningsdata till person, nämligen om man har tidigare identifierade hjärnavbildningsdata från personen. Exempelvis via någon annan databas, eller om personen spridit sina hjärnavbildningar via sociala media så att ”hjärnavtryck” och person kopplats ihop.

Att göra personerna helt oidentifierbara skulle förändra bilderna så kraftigt, att de skulle förlora sitt värde för forskningen. De tre samtida tendenserna – öppnare vetenskap, skarpare dataskyddslagstiftning och kraftfullare AI – tycks således vara på kollisionskurs. Är det överhuvudtaget möjligt att dela vetenskapligt användbara hjärnavbildningsdata på ett ansvarsfullt sätt, när AI verkar kunna avslöja personerna vars hjärnor avbildats?

Nå, allt oönskat som kan ske, måste inte ske. Vore världen lika lömskt konstruerad som i en konspirationsteori, skulle inga säkerhetsåtgärder i världen kunna rädda oss från undergång. Tvärtom skulle sådana totala säkerhetskrav garanterat hota säkerheten, vilket jag nyligen bloggade om.

Så hur ska forskarna göra i praktiken, när de bygger internationella forskningsinfrastrukturer för att dela hjärnavbildningsdata (enligt första tendensen ovan)? Ett konstruktivt förslag presenteras i en artikel i Neuroimage: Reports. Författarna framhåller bland annat ökad och kontinuerligt uppdaterad medvetenhet bland forskare om realistiska dataskyddsrisker. Forskare som arbetar med hjärnavbildning behöver utbildas att tänka i termer av dataskydd och se detta som en naturlig del av forskningen.

Framförallt föreslår författarna flera konkreta åtgärder för att tekniskt och organisatoriskt bygga forskningsinfrastrukturer där dataskyddet finns med från början, som inbyggd standard. Eftersom fullständigt anonymiserade hjärnavbildningsdata är en omöjlighet (sådana data skulle förlora sitt vetenskapliga värde), framhålls i stället pseudonymisering samt kryptering av data. Vidare föreslås tekniska system för att kontrollera åtkomst av data (inte vem som helst ska ha tillgång), samt tydliga dataanvändningsavtal som begränsar vad användaren får göra med data. Utöver detta är givetvis informerat samtycke från personerna som deltar i hjärnavbildningsstudier en del av ordningen.

Sammantaget skulle denna från början inbyggda säkerhetsordning göra det möjligt att bygga forskningsinfrastrukturer som tillfredsställer hårdare dataskyddslagstiftningar, även i en värld där artificiell intelligens i princip kan se vad mänskliga ögon inte ser. De tre samtida tendenserna är kanske inte på kollissionskurs, trots allt. Om dataskydd byggs in från början, kan forskarna dela data utan att tvingas förstöra det vetenskapliga värdet av bilderna, och människor kan fortsätta att vilja delta i forskning.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Damian Eke, Ida E.J. Aasebø, Simisola Akintoye, William Knight, Alexandros Karakasidis, Ezequiel Mikulan, Paschal Ochang, George Ogoh, Robert Oostenveld, Andrea Pigorini, Bernd Carsten Stahl, Tonya White, Lyuba Zehl. “Pseudonymisation of neuroimages and data protection: Increasing access to data while retaining scientific utility,” Neuroimage: Reports, 2021,Volume 1, Issue 4

Detta inlägg på engelska

Vad är hållbarhet i framtiden?