En forskningsblogg från Centrum för forsknings- & bioetik (CRB)

Etikett: Human Brain Project (Sida 3 av 7)

Att förändra den föränderliga människan

Neurovetenskapen bidrar till vår mänskliga självförståelse men väcker även oro att den skulle kunna förändra mänskligheten. Exempelvis genom ny neuroteknik som påverkar hjärnan så djupt att människan inte längre är sant mänsklig, eller slutar att uppleva sig som människa. Patienter som behandlas med så kallad djup hjärnstimulering kan exempelvis uppge att de känner sig som robotar.

Vilka etiska och juridiska åtgärder skulle en sådan utveckling kunna motivera?

Arleen Salles, neuroetiker i Human Brain Project, menar att frågan är förhastad eftersom vi inte klargjort vårt begrepp om människan. Saken kompliceras av att det finns flera begrepp om den mänskliga naturen att bekymra sig över. Om vi tror att vår mänsklighet består i vissa unika förmågor som särskiljer människan från djuren (såsom moral), så tenderar vi att avhumanisera varelser som vi menar saknar dessa förmågor som ”djuriska.” Om vi tror att vår mänsklighet består i vissa förmågor som särskiljer människan från livlösa föremål (såsom känslor), så tenderar vi att avhumanisera varelser som vi menar saknar dessa förmågor som ”mekaniska.” Antagligen är det i den senare meningen som patienterna ovan uppger att de inte känner sig riktigt mänskliga, utan som robotar.

Efter en genomgång av grunddragen i flera centrala filosofiska begrepp om människan, tar Arleen Salles reflektioner en överraskande vändning. Hon presenterar nämligen ett begrepp om vår mänsklighet som utgår från den neurovetenskapliga forskning som man oroar sig skulle kunna förändra vår mänsklighet! Det riktigt överraskande är att detta begrepp om vår mänskliga natur i viss utsträckning ifrågasätter själva frågan. Begreppet framhäver nämligen människans djupgående föränderlighet.

Vad betyder det att oroa sig över att neurovetenskapen kan förändra människans natur, om den mänskliga naturen till stor del kännetecknas av förmågan att förändras?

Den som följer Etikbloggen och minns ett inlägg om Kathinka Evers idé om ett neurovetenskapligt motiverat ansvar för den mänskliga naturen, är redan bekant med det dynamiska begrepp om människan som Arleen Salles presenterar. Förenklat kan man säga att det handlar om att komplettera människans genetiska evolution med en ”epigenetisk” selektiv stabilisering av synapser, som varje människa genomgår under uppväxten. Dessa kopplingar mellan hjärnceller är inte medfödda, utan selekteras i den levande hjärnan under dess samspel med miljön. Språket kan antas tillhöra de mänskliga förmågor som till stor del utvecklas epigenetiskt. Jag har föreslagit ett liknande språkbegrepp tillsammans med två amerikanska apspråksforskare.

Tro nu inte att detta dynamiska begrepp om den mänskliga naturen skulle förutsätta att människan är någonting mycket instabilt. Som om minsta vindpust kunde rubba den mänskliga evolutionen och förändra vår natur i grunden. Tvärtom bidrar antagligen språket som vi utvecklar under uppväxten till att stabilisera de många mänskliga egenskaper som utvecklas samtidigt med språket. Språket stödjer antagligen förmedlingen till nya generationer av de mänskliga livsformer, där språket har sina användningar.

Arleen Salles reflektioner är viktiga bidrag till den neuroetiska diskussionen om människans natur, hjärnan och neurovetenskapen. För att kunna ta etiskt ansvar behöver vi klargöra våra begrepp, framhåller hon. Vi behöver beakta att människan utvecklas i tre sammanvävda dimensioner. Det handlar om genetik tillsammans med selektiv stabilisering av synapser i levande hjärnor, i samspel med sociala-kulturella-språkliga miljöer. Allt samtidigt!

Arleen Salles reflektioner finns utgivna som ett kapitel i en ny antologi, Developments in Neuroethics and Bioethics (Elsevier). Jag är osäker på om publikationen kommer att vara öppet tillgänglig, men förhoppningsvis hittar du Arleen Salles bidrag via den här länken: Humanness: some neuroethical reflections.

Kapitlet rekommenderas som nyskapande bidrag till förståelsen av vår mänskliga natur och frågan huruvida neurovetenskapen kan förändra människan. Frågan tar en överraskande vändning, som antyder vi alla tillsammans har ett fortlöpande ansvar för vår föränderliga mänskliga natur.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Arleen Salles (2021). Humanness: some neuroethical reflections. Developments in Neuroethics and Bioethics. https://doi.org/10.1016/bs.dnb.2021.03.002

Detta inlägg på engelska

Vi tänker om bioetik

Kan du klonas?

Varför kan vi känna metafysiskt illamående inför tanken på klonade människor? Gissningsvis sammanhänger det med hur vi, utan att ge oss tillräckligt med tid för att reflektera, fångas av en enkel bild av individualitet och kloning. Sedan styr bilden vårt tänkande. Vi föreställer oss kanske att kloning består i att vår unika individualitet mångfaldigas i oskiljbara kopior. Vi känner då yrsel inför den otänkbara tanken att vårt individuella jag skulle mångfaldigas som kopior som alla på något märkligt sätt är jag, eller inte kan skiljas från mig.

I ett bidrag till en filosofisk nättidskrift diagnostiserar Kathinka Evers detta metafysiska illamående inför kloning. Om du har minsta tendens att oroas av att du skulle kunna mångfaldigas som ”identiska kopior” som inte kan särskiljas från dig, ge dig då de sju minuter det tar att läsa texten och befria dig från åkomman:

”I cannot be cloned: the identity of clones and what it tells us about the self.”

Naturligtvis förnekar inte Kathinka Evers att kloning är möjligt eller förenat med risker av olika slag. Hon ifrågasätter den förhastade bilden av kloning, genom att ge oss tid reflektera över identitet och individualitet, utan att fångas av bilden.

Vi störs av tanken att modern forskning på något märkligt sätt skulle kunna göra något som borde vara otänkbart. När vi klart ser att vad vi oroas av verkligen är otänkbart, försvinner yrseln. I sin upplysande diagnos av vårt metafysiska illamående, kombinerar Kathinka Evers filosofiska reflektioner med belysande fakta om bland annat genetik och personlighetsutveckling.

Ge dig de sju minuter det tar att befrias från metafysiskt illamående inför kloning!

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Detta inlägg på engelska

Vi tänker om tänkande

Artificiell intelligens och medvetande

I ett inlägg på den engelska versionen av denna blogg diskuterar Michele Farisco idag en hisnande fråga om artificiell intelligens (AI): kan vi skapa medvetna maskiner?

Michele Farisco menar att frågan förutsätter att vi först klargör vad vi menar med medvetande. Han ger exempel på definitioner som använts i diskussionen om medveten AI och konstaterar att de föga överraskande definierar medvetande i termer av olika former av beräkningar inom informationsbehandling. Uppenbarligen bäddar man som man vill ligga. Det vill säga, man definierar sina termer efter den typ av svar man söker. Är det ett filosofiskt uppriktigt sätt att närma sig frågan?

Michele Farisco menar att vi måste närma oss frågan om medveten AI med stor försiktighet och eftertänksamhet. Annars riskerar viktiga filosofiska frågor att försvinna ur sikte bakom en begreppslig slöja av förhastade språkliga analogier mellan det mänskliga och det maskinella.

Läs Michele Fariscos inlägg på The Ethics Blog: Can AI be conscious? Let us think about the question.

Vi söker klarhet

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

En ovanligt stor fråga

Ibland är de intellektuella anspråken på vetenskapen så stora att de riskerar att skymma den egentliga forskningen. Detta tycks hända inte minst när anspråken förknippas med någon stor prestigefull fråga, som livets ursprung eller medvetandets natur. Genom att betona den stora frågan, vill man ofta visa att modern vetenskap är bättre lämpad än äldre mänskliga traditioner att besvara livets gåtor. Bättre än filosofin till exempel.

Jag tänker på detta när jag läser en kort artikel om en sådan gåta: ”What is consciousness? Scientists are beginning to unravel a mystery that has long vexed philosophers”. Artikeln av Christof Koch ger intrycket att det bara är en tidsfråga innan vetenskapen fastställer inte bara var i hjärnan medvetandet uppkommer (man tycks redan hittat en misstänkt), utan även de unika mekanismer som där ger upphov till – allt du någonsin upplevt. Åtminstone om man ska tro på en av de fundamentala teorierna om saken.

Att läsa om upptäckterna bakom identifieringen av var i hjärnan medvetandet uppkommer är lika spännande som att läsa en pusseldeckare. Man förstår att här görs viktig forskning om de effekter som bortfall eller stimulering av olika delar av hjärnan kan ha på människors upplevelser, mentala förmågor och personligheter. Även beskrivningen av en ny teknik och matematisk algoritm för att avgöra om patienter är medvetna eller inte är spännande och tyder på att forskningen gör fascinerande framsteg, som kan få viktiga användningar i sjukvården. Men när matematisk symbolism används för att antyda en möjlig fundamental förklaring till allt du någonsin upplevt, blir artikeln lika svår att förstå som den dunklaste filosofiska text från svunna tider.

Eftersom även företrädare för vetenskapen ibland gör filosofiska anspråk, nämligen när de vill besvara prestigefulla gåtor, är det kanske klokare att öppna sig för filosofin, i stället för att konkurrera med den. Filosofi består nämligen inte bara i att spekulera kring stora frågor. Filosofi handlar även om att ödmjukt klargöra frågorna, som annars tenderar att växa bortom alla rimliga gränser. Sådan öppenhet för filosofin blomstrar inom Human Brain Project, där några av mina filosofiska kolleger vid CRB samarbetar med neurovetare för att begreppsligt klargöra frågor om medvetandet och hjärnan.

Något som jag själv undrade över vid läsningen av den vetenskapligt spännande men samtidigt filosofiskt ambitiösa artikeln, är idén att medvetandet är allt vi upplever: ”Det är melodin som fastnat i huvudet, chokladmoussens sötma, tandvärkens dunkande smärta, den intensiva kärleken till ditt barn och den bittra vetskapen om att alla känslor en dag kommer att upphöra”. Vad betyder det att ta ett så allomfattande anspråk på allvar? Vad är i så fall inte medvetande? Om allt vi kan erfara i själva verket är medvetande, från smaken av chokladmousse till anblicken av stjärnorna på himlen och våra mänskliga kroppar med sina olika organ, var är den objektiva verklighet som vetenskapen vill relatera medvetandet till? Är även den i medvetandet?

Om medvetandet är vår ständiga utgångspunkt, om allt vi erfar som verkligt är medvetande, blir det oklart hur vi kan behandla medvetandet som en objektiv företeelse i världen jämte kroppen och andra ting. Nu talar jag naturligtvis inte om den vetenskapliga forskningen om hjärnan och medvetandet, utan om det gränslösa intellektuella anspråket att vetenskapen förr eller senare upptäcker de neurala mekanismerna som ger upphov till allt vi någonsin kan uppleva.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Christof Koch, What Is Consciousness? Scientists are beginning to unravel a mystery that has long vexed philosophers, Nature 557, S8-S12 (2018) https://doi.org/10.1038/d41586-018-05097-x

Detta inlägg på engelska

I dialog med filosofer

Mänskliga rättigheter och juridiska frågor kring artificiell intelligens

Hur tar vi ansvar för en teknik som används nästan överallt? I takt med att alltfler användningar av artificiell intelligens (AI) utvecklas, växer utmaningarna att överblicka hur tekniken kan påverka människor och mänskliga rättigheter.

Även om AI-lagstiftning redan utvecklas på flera områden, menar Rowena Rodrigues att vi behöver en överblickbar karta över utmaningarna. Hur ser läget ut? Var kan människors rättigheter hotas? Hur hanteras hoten? Var behöver större ansträngningar göras? I en artikel i Journal of Responsible Technology föreslår hon en sådan karta, som sedan diskuteras med utgångspunkt i begreppet sårbarhet (”vulnerability”).

Artikeln identifierar tio problemområden. Ett problem är att AI fattar beslut på basis av algoritmer där beslutsprocessen inte är helt genomskinlig. Varför fick jag inte jobbet, lånet eller bidraget? Svårt att veta när datorprogram levererar beslut som om de vore orakel! Andra problem handlar om säkerhet och ansvar, exempelvis när automatiskt beslutsfattande används i bilar, i medicinska diagnoser, i vapen eller när regeringar övervakar medborgare. Andra problemområden kan handla om risker för diskriminering eller för integritetsintrång när AI samlar in och använder stora datamängder för att fatta beslut som berör individer och grupper. I artikeln kan du läsa om fler problemområden.

För var och en av de tio utmaningarna, identifierar Rowena Rodrigues lösningar som i nuläget finns på plats, samt utmaningarna som det kvarstår att hantera. Därefter diskuteras mänskliga rättigheter. Rowena Rodrigues menar att internationella mänskliga rättighetsfördrag, även om de inte nämner AI, är relevanta för de flesta av problemen som hon kartlagt. Hon framhäver betydelsen att bevaka mänskliga rättigheter ur ett sårbarhetsperspektiv. Genom ett sådant perspektiv ser vi tydligare var och hur AI kan utmana mänskliga rättigheter. Vi ser tydligare hur vi kan minska negativa effekter, utveckla motståndskraft hos sårbara, samt angripa roten till de olika formerna av sårbarhet.

Rowena Rodrigues är knuten till SIENNA-projektet, som avslutas denna månad. Läs hennes artikel om utmaningarna kring en teknik som används nästan överallt: Legal and human rights issues of AI: Gaps, challenges and vulnerabilities.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Rowena Rodrigues. 2020. Legal and human rights issues of AI: Gaps, challenges and vulnerabilities. Journal of Responsible Technology 4. https://doi.org/10.1016/j.jrt.2020.100005

Detta inlägg på engelska

Kommer med lästips

Att lära av internationella försök att lagstifta psykokirurgi

Så kallad psykokirurgi, där psykiska störningar behandlas genom att exempelvis skära av kopplingar i hjärnan, har kanske ett något skamfilat rykte efter det okänsliga bruket av lobotomi under 1900-talet för att behandla ångest och depression. Icke desto mindre kan psykokirurgi av olika slag hjälpa vissa patienter och området utvecklas snabbt. Området behöver antagligen en uppdaterad reglering, men vilka är utmaningarna?

Frågan undersöks ur ett internationellt perspektiv i en artikel i Frontiers in Human Neuroscience. Neurokirurgiska behandlingar av psykiska störningar behöver inte innebära att man förstör hjärnvävnad eller skär av kopplingar. Vid så kallad djup hjärnstimulering skickas exempelvis elektriska pulser till vissa områden av hjärnan. Metoden har visat sig lindra rörelsesvårigheter hos patienter med Parkinsons sjukdom. Denna oväntade möjlighet åskådliggör en av utmaningarna. Hur avgränsar vi de behandlingar som regleringen ska omfatta inom ett område med snabb vetenskaplig och teknisk utveckling?

Artikeln kartlägger lagstiftning av psykokirurgi runtom i världen. Syftet är att hitta styrkor och svagheter i de olika lagstiftningarna. Genom kartläggningen hoppas man kunna motivera rimliga sätt att hantera utmaningarna i framtiden, samtidigt som man uppnår större internationell harmonisering. Utmaningarna är som sagt flera, men beträffande utmaningen att avgränsa de behandlingar som ska omfattas i regleringen, nämns lagstiftningen i Skottland som ett exempel. Den ger ingen uttömmande lista på behandlingar som ska omfattas av regleringen, utan anger att även andra behandlingar än de listade kan komma att omfattas.

Har du är intresserad av juridik och vill ha en mer detaljerad bild av frågorna som behöver besvaras för en bra reglering, läs artikeln: International Legal Approaches to Neurosurgery for Psychiatric Disorders.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Chandler JA, Cabrera LY, Doshi P, Fecteau S, Fins JJ, Guinjoan S, Hamani C, Herrera-Ferrá K, Honey CM, Illes J, Kopell BH, Lipsman N, McDonald PJ, Mayberg HS, Nadler R, Nuttin B, Oliveira-Maia AJ, Rangel C, Ribeiro R, Salles A and Wu H (2021) International Legal Approaches to Neurosurgery for Psychiatric Disorders. Front. Hum. Neurosci. 14:588458. doi: 10.3389/fnhum.2020.588458

Detta inlägg på engelska

Juridiska funderingar

Hur tar vi ansvar för forskning med dubbla användningsområden?

Vi styrs oftare än vi tror av gamla tankemönster. Som filosof finner jag det spännande att se hur mentala mönster fångar oss, hur vi fastnar i dem, och hur vi kan ta oss ur dem. Med den blicken läste jag nyligen ett bokkapitel om något som brukar kallas forskning med dubbla användningsområden, ”dual-use research”. Även här finns tankemönster att fastna i.

I kapitlet diskuterar Inga Ulnicane hur man tagit ansvar för hjärnforskning med dubbla användningsområden inom Human Brain Projekt (HBP). Jag läser kapitlet som ett filosofiskt drama. De europeiska regler som styr HBP, styrs i sin tur av tankemönster om vad problemet med dubbla användningar består i. För att kunna ta verkligt ansvar för projektet, behövde man därför inom HBP tänka sig fri från mönstren som styrde regleringen av projektet. Ansvaret blev en filosofisk utmaning: att öka medvetenheten om verkliga problem kring dubbla användningar av hjärnforskning.

Traditionellt handlar ”dubbla användningsområden” om civila respektive militära användningar. Genom regeln att forskningen i HBP uteslutande ska fokusera på civila användningsområden, kan man säga att regleringen av projektet själv styrdes av detta tankemönster. Det finns naturligtvis stora militära intressen i hjärnforskning, inte minst för att forskningen gränsar till informationsteknik, robotteknik och artificiell intelligens. Resultat kan användas för att öka soldaters stridskraft. De kan användas till effektivare underrättelseverksamhet, kraftfullare bildanalys, snabbare hotdetektering, precisare robotvapen och för att tillfredsställa många andra militära behov.

Problemet är att det finns fler problematiska behov än militära. Forskningsresultat kan även användas till att manipulera människors tankar och känslor i andra syften än militära. De kan användas till att övervaka befolkningar och styra deras beteende. Det går inte att säga en gång för alla vilka problematiska lockelser som hjärnforskningen kan väcka, även bortom det militära området. En enda god idé kan sätta fart på flera dåliga idéer på många andra områden.

Därför föredrar man inom HBP att tala om nyttiga respektive skadliga användningsområden, snarare än om civila respektive militära. Denna öppnare förståelse av ”det dubbla” innebär att man inte en gång för alla kan identifiera problematiska användningsområden. I stället krävs kontinuerlig diskussion bland forskare och andra aktörer samt allmänheten för att öka medvetenheten kring olika möjliga problematiska användningar av hjärnforskning. Vi behöver hjälpa varandra att se de verkliga problemen, som kan dyka upp på helt andra områden än vi förväntar oss. Eftersom problemen sällan kan inringas nationellt, utan rör sig över gränser, behövs dessutom globalt samarbete mellan satsningar på hjärnforskning runtom i världen.

Inom HBP fann man att ytterligare ett tankemönster styrde regleringen av projektet och gjorde det svårare att ta verkligt ansvar för forskningen i projektet. Definitionen av problematiken i styrdokumenten hämtades nämligen från EU:s exportkontrollbestämmelser, som inte är helt relevanta för forskning. Även här fordras större medvetenhet, så att vi inte fastnar i tankemönster om vad som eventuellt skulle kunna ha dubbla användningsområden.

Min personliga slutsats är att mänskliga utmaningar inte bara orsakas av bristande kunskap. De orsakas även av hur vi lockas att tänka, av hur vi upprepar till synes självklara tankemönster. Vår tendens att fasta i mentala mönster gör oss omedvetna om verkliga problem och möjligheter. Därför borde vi ta människans filosofiska dramatik på större allvar. Vi behöver upptäcka betydelsen av att filosofera oss fria från vår självförvållade fångenskap i lockande sätt att tänka. Detta gjorde man i Human Brain Project, menar jag, när man utmanades av vad det verkligen kan betyda att ta ansvar för hjärnforskning med dubbla användningsområden.

Läs Inga Ulnicanes upplysande kapitel, The governance of dual-use research in the EU. The case of neuroscience, som även nämner andra mönster som kan styra tänkandet om forskning med dubbla användningsområden.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Ulnicane, I. (2020). The governance of dual-use research in the EU: The case of neuroscience. In A. Calcara, R. Csernatoni, & C. Lavallée (Editors), Emerging security technologies and EU governance: Actors, practices and processes. London: Routledge/Taylor & Francis Group, pages 177-191.

Detta inlägg på engelska

Vi tänker om tänkande

Det svåra problemet om medvetandet

Kan subjektiva upplevelser av hur kaffe smakar eller hur polarkyla känns reduceras till materiella samband i hjärnan? Varför har vi sådana subjektiva upplevelser? (En termostat kan reglera värme utan att uppleva hur värme eller kyla känns.)

Detta har betraktats som ett extra stort filosofiskt problem om medvetandet. Det har därför benämnts det svåra problemet, ”the hard problem of consciousness”. I ett inlägg på The Ethics Blog frågar Michele Farisco om problemet kan mjukas upp. Han diskuterar två besläktade tänkesätt, som skulle kunna mjuka upp problemet genom att betrakta medvetandet som ett kulturellt begrepp.

Michele Farisco påpekar att en uppmjukning av medvetandeproblemet riskerar att skapa svåra etiska problem. Etiken förutsätter att människor är medvetna, kännande och tänkande. Ett kulturellt uppmjukat medvetandeproblem riskerar att relativisera etiska frågor om exempelvis vård i livets slutskede.

Läs inlägget: The hard problem of consciousness: please handle with care!

Michele Farisco samarbetar med filosofer, kognitionsforskare, neurovetare och datorvetare i Human Brain Project.

Svåra frågor

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Hotad av superintelligenta maskiner

Det finns en rädsla att vi snart skapar artificiell intelligens (AI) som är så superintelligent, att vi inte längre kan kontrollera den. Den gör oss människor till sina slavar. Om vi försöker koppla ur nätverkskabeln så hoppar superintelligensen över till ett annat nätverk, eller så beordrar den en robot att döda oss. Alternativt så hotar den att spränga en hel stad i bitar, om vi tar ett enda steg mot nätverksuttaget.

Jag slås emellertid av hur denna självhävdande artificiella intelligens liknar en sida av vår egen mänskliga intelligens. En viss typ av mänsklig intelligens har redan tagit över. Den styr våra tankar när vi känner oss hotade av superintelligent AI och överväger smarta motåtgärder för att kontrollera den. Ett typiskt drag i denna självhävdande intelligens är just detta att den aldrig ser sig själv som problemet. Alla hot är externa och måste neutraliseras. Vi ska överleva, kosta vad det vill för andra. Jag först! Vårt parti först! Vi betraktar världen med misstro: den tycks fylld av hot mot oss.

I denna självcentrerade anda utpekas AI som nytt främmande hot: okontrollerbara maskiner som sätter sig själva först. Alltså måste vi övervaka maskinerna och bygga smarta försvarssystem som kontrollerar dem. De borde vara våra slavar! Mänskligheten först! Ser du hur vi beter oss lika blint självhävdande som vi fantiserar att supersmart AI skulle göra? En kapprustning i småsinthet.

Kan du se mönstret hos dig själv? Om du kan göra det, så har du upptäckt den andra sidan av den mänskliga intelligensen. Du har upptäckt den självgranskande intelligens som alltid livnär filosofin när den ödmjukt söker orsaken till våra misslyckanden hos oss själva. Paradoxen är: när vi försöker kontrollera världen, så fångas vi i småsinthet; när vi granskar oss själva, så öppnas vi för världen.

Linnés första försök att artbestämma människan var faktiskt inte Homo sapiens, som om vi kunde hävda vår visdom. Linnés första försök att artbestämma oss var en ödmjuk uppmaning till självgranskning:

HOMO. Nosce te ipsum.

På svenska: Människa, känn dig själv!

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Detta inlägg på engelska

Vi tänker om tänkande

Indikatorer på medvetande

Frågan om vi kan veta om någon faktiskt är medveten eller inte, är inte rent filosofisk. Patienter med svåra hjärnskador kan ibland antas bibehålla ett visst medvetande, även om de inte kan visa detta genom beteende. Hur kan vi då veta om en sängbunden patient, som kanske inte ens kan blinka, har någon nivå av medvetande?

I ett blogginlägg på The Ethics Blog föreslår Michele Farisco provisoriskt sex indikatorer på medvetande. Tanken är att indikatorerna kan fastställas inte bara genom att iaktta patienters beteende, utan även genom andra kliniska undersökningar och genom tekniska gränssnitt som möjliggör samspel mellan människa och maskin.

Vill du veta mer, läs inlägget: Are you conscious? Looking for reliable indicators.

Forskningen som Michele Farisco skriver om är ett samarbete mellan filosofer, kognitionsforskare, neurovetare och datorvetare i Human Brain Project.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Deltar i internationella samarbeten

« Äldre inlägg Nyare inlägg »