En forskningsblogg från Centrum för forsknings- & bioetik (CRB)

Etikett: Human Brain Project (Sida 2 av 5)

Etiskt ansvarsfull robotutveckling

Utveckling av nya tekniker hämtar ibland inspiration från naturen. Hur löser växterna och djuren problemet? Ett exempel är dagens robotik, där man vill utveckla bättre robotar på basis av vad neurovetenskapen vet om hjärnan. Hur löser hjärnan problemet?

Neurovetenskapen ser i sin tur nya möjligheter att testa sina hypoteser om hjärnan genom att simulera dem i robotar. Kanske kan man simulera hur områden i hjärnan samverkar vid Parkinsons sjukdom, för att bättre förstå hur patienters rörelseproblem orsakas.

Neurovetenskapligt inspirerad robotik benämns neurorobotik. Den befinner sig ännu i ett tidigt stadium, vilket gör neurorobotik till ett utmärkt område att vara etiskt och socialt mer förutseende än vi varit vid tidigare teknikutvecklingar. Det vill säga, vi kan redan nu börja identifiera möjliga etiska och sociala problem kring teknikutvecklingen och motverka dem innan de uppkommer. Vi kan exempelvis inte blunda för genus- och jämställdhetsfrågor, utan måste kontinuerligt reflektera över hur våra egna sociala och kulturella mönster återspeglas i tekniken vi utvecklar. Vi behöver öppna våra ögon för våra egna blinda fläckar!

Om detta etiska skifte i teknikutvecklingen kan du läsa mer om i en artikel i Science and Engineering Ethics (med Manuel Guerrero från CRB som en av författarna). Skiftet kallas ansvarsfull forskning och innovation och exemplifieras i artikeln med det Europeiska forskningsprojektet Human Brain Project.

Inom detta projekt samarbetar inte bara neurovetare och teknikexperter för att utveckla neurorobotiken. Även humanister och samhällsvetare ingår i samarbetet. Artikeln är själv ett exempel på detta breda samarbete. Emellertid är även implementeringen av ansvarsfull forskning och utveckling i ett tidigt stadium. Man behöver finna konkreta arbetsformer som gör det möjligt att inte bara förutse etiska och sociala problem och reflektera över dem, utan även agera och ingripa för att i praktiken påverka utvecklingen.

Från att ha varit ett ramverk kring forskning och utveckling, tycks etiken nu integreras alltmer i forskningen och utvecklingen. Läs artikeln om du vill fundera om denna övergång till en mer reflekterande och ansvarsfull teknikutveckling.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Aicardi, C., Akintoye, S., Fothergill, B.T. et al. Ethical and Social Aspects of Neurorobotics. Sci Eng Ethics 26, 2533–2546 (2020). https://doi.org/10.1007/s11948-020-00248-8

Detta inlägg på engelska

Vad är hållbarhet i framtiden?

”Samarbetsvillig”, ”trevlig” och ”pålitlig” robotkollega sökes

Robotar får alltfler funktioner på våra arbetsplatser. Logistikrobotar hämtar varorna på lagret. Militärrobotar desarmerar minorna. Skötarrobotar lyfter patienterna och kirurgiska robotar utför operationerna. Allt detta i samspel med mänsklig personal, som tycks ha fått sköna nya robotkolleger på sina arbetsplatser.

Med tanke på att somliga behandlar robotarna som bra kolleger och att bra kolleger bidrar till god arbetsmiljö, blir det rimligt att fråga: Kan en robot vara en bra kollega? Frågan undersöks av Sven Nyholm och Jilles Smids i tidskriften Science and Engineering Ethics.

Författarna behandlar frågan begreppsligt. Först föreslår de kriterier för vad en bra kollega är. Därefter frågar de om robotar kan leva upp till kraven. Frågan om en robot kan vara en bra kollega är intressant, eftersom den visar sig vara mer realistisk än vi först tror. Vi kräver nämligen inte lika mycket av en kollega som av en vän eller en livspartner, resonerar författarna. Många av kraven på bra kolleger har att göra med deras yttre beteende i specifika situationer på arbetsplatsen, snarare än med hur de tänker, känner och är som människor i livets många sammanhang. Ibland är en bra kollega bara någon som får jobbet gjort!

Vilka kriterier nämns i artikeln? Här återger jag med egna ord författarnas lista, som de framhåller inte är menad att vara fullständig. En bra kollega samarbetar för att uppnå mål. En bra kollega kan småprata och göra arbetet trevligt. En bra kollega mobbar inte utan behandlar andra respektfullt. En bra kollega stöttar efter behov. En bra kollega lär sig och utvecklas med andra. En bra kollega är alltid på plats och är pålitlig. En bra kollega anpassar sig efter hur andra mår och delar arbetsrelaterade värden. En bra kollega får gärna socialisera vänskapligt.

Författarna menar att många robotar redan idag lever upp till flera av dessa idéer om vad en bra kollega är, och att robotarna på våra arbetsplatser snart är ännu bättre kolleger. Kraven är, som sagt, lägre än vi först tror, eftersom de inte handlar så mycket om kollegans inre mänskliga liv, utan mer om pålitligt uppvisade beteenden i specifika arbetssituationer. Det är inte så svårt att tänka sig kriterierna omvandlade till specifikationer till robotutvecklarna. Ungefär som i en jobbannons, som listar beteenden som den sökande bör kunna uppvisa.

En butikschef för en mataffär i denna stad annonserade efter personal. Annonsen innehöll märkliga citationstecken, som avslöjade hur butikschefen sökte en människas fasad, snarare än det inre. Det är inte konstigt: att vara professionell är att kunna spela en roll. Butikens affärsidé var ”vi bryr oss om”. Denna idé skulle bli en positiv ”upplevelse” för kunderna i mötet med personalen. En hälsning, en nick, ett leende, ett allmänt trevligt bemötande, skulle skänka denna ”upplevelse” av att man i affären ”bryr sig om människor”. Alltså sökte man en person som, inom citationstecken, ”tycker om människor”.

Om personal kan sökas på detta sätt, varför skulle vi inte efterfråga ”samarbetsvilliga”, ”trevliga” och ”pålitliga” robotkolleger i samma anda? Jag är övertygad om att liknande krav redan förekommer som specifikationer när robotar designas för olika funktioner på våra arbetsplatser.

Livet är inte alltid djupt och innerligt, vilket robotiseringen av arbetslivet speglar. Frågan är vad som händer när ytorna blir så vanliga att vi glömmer citationstecknen omkring de mekaniska fasaderna. Alla är inte lika tydliga på den punkten som den ”människoälskande” butikschefen.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Nyholm, S., Smids, J. Can a Robot Be a Good Colleague?. Sci Eng Ethics 26, 2169–2188 (2020). https://doi.org/10.1007/s11948-019-00172-6

Detta inlägg på engelska

Vi tar upp aktuella frågor

Vi formar samhällena som formar oss: vårt ansvar för den mänskliga naturen

Visionära akademiska texter är ovanliga – texter som belyser hur forskning kan bidra till de riktigt stora mänskliga frågorna. I en artikel i filosofitidskriften Theoria öppnar Kathinka Evers upp ett djupt visionärt perspektiv på neurovetenskapen och den mänskliga naturen. Vågar ni följa med?

I årtusenden har känsliga tänkare bekymrats över människan själv. Visst skapar vi välstånd och säkerhet åt oss. Men som inga andra djur har vi även en olycklig benägenhet att skapa elände åt oss själva (och andra livsformer). 1900-talet var extremt i bägge riktningarna. Vad är mekanismen bakom det mänskliga självskadebeteendet? Kan den belysas och förändras?

Som jag läser henne, ställer Kathinka Evers väsentligen denna stora mänskliga fråga. Hon gör det utifrån dagens neurovetenskapliga syn på hjärnan, som hon menar motiverar ett nytt sätt att förstå och påverka mekanismen bakom det storskaliga mänskliga självskadebeteendet. Väsentligt i den neurovetenskapliga synen, är att människohjärnan är byggd för att aldrig bli helt färdigbyggd. Liksom vi har ett unikt självskadebeteende, föds vi med unikt ofärdiga hjärnor. Dessa hjärnor är formbara under decennier och skulle behöva lika lång omsorg. De formas inte passivt, utan genom att aktivt finna nya, mer eller mindre lyckliga sätt att fungera i samhällena som vi utsätter oss för.

Eftersom våra hjärnor påverkar våra samhällen, kan man säga att vi bygger samhällena som bygger oss själva, i ett ständigt kretslopp. Mitt i detta känsliga utbyte mellan människa och samhälle står alltså hjärnan. Med sin kreativa formbarhet gör den många deterministiska anspråk på genetiken och människans ”medfödda” natur problematiska. Varför är vi som vi är? Delvis för att vi skapar samhällena som skapar oss så som vi är. I årtusenden har vi genererat oss själva via samhällena som vi byggt, okunniga om det hyperinteraktiva organet mitt i processen. Det är alltid bakom våra ögon.

Kathinka Evers poäng är att vi idag har vi så stor kunskap om hjärnans inneboende aktivitet, dynamik och variabilitet, att vi får ett nytt ansvar för vår egen natur. Hon uttrycker tekniskt läget så här: Dagens neurovetenskapliga kunskap om hjärnan ger oss ett naturalistiskt ansvar att vara epigenetiskt proaktiva. Om vi vet att vår aktiva och variabla hjärna stödjer en kulturell evolution bortom vårt genetiska arv, så får vi ett ansvar att påverka evolutionen genom att anpassa samhället till vad vi vet om hjärnans styrkor och svagheter.

Tanken på ett neurovetenskapligt ansvar att utforma samhällen som formar den mänskliga naturen i önskvärd riktning, kan låta som en uppmaning till en ny social ingenjörskonst. Artikeln utvecklar emellertid tanken om detta ansvar inom ramen för en samvetsgrann genomgång av liknande tendenser i vår historia, tendenser som ofta kretsat kring genetiken. Det handlar inte om att stödja ideologier som redan bestämt sig för hur människan bör vara. Det handlar snarare om att låta kunskap om hjärnan inspirera till sociala förändringar, där vi annars okunnigt skulle riskera att återskapa mänskligt elände. Sådan kunskap förutsätter givetvis samarbete mellan natur-, samhälls- och humanvetenskaperna, tillsammans med fri filosofisk reflektion.

I artikeln nämns exemplet ungdomsvåld. I vissa länder finns en politisk vilja att döma ungdomsbrottslingar som om de vore vuxna och även placera dem i vuxenfängelser. Idag vet vi att hjärnan under puberteten är i en utvecklingskris, där viktiga neurala kretsar förändras dramatiskt. Krisande ungdomshjärnor behöver särskild hänsyn. Men här riskerar de att placeras i precis sådana miljöer som vi kan räkna med genererar mer mänskligt elände.

Kunskap om hjärnan kan alltså motivera sociala förändringar som minskar det mänskliga självskadebeteende som bekymrat tänkare i årtusenden. Neurovetenskaplig självkännedom ger oss en nyckel till mekanismen bakom beteendet och ett ansvar att använda den.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Kathinka Evers. 2020. The Culture‐Bound Brain: Epigenetic Proaction Revisited. Theoria. doi:10.1111/theo.12264

Detta inlägg på engelska

I dialog med filosofer

Vad fordras av en etik för artificiell intelligens?

Jag lyfte nyligen fram kritik av etiken kring området artificiell intelligens (AI). En etik som kan hantera utmaningarna som AI ställer oss inför fordrar mer än bara vackert formulerade etiska principer, värdeord och riktlinjer. Vad exakt krävs av AI-etiken?

Michele Farisco, Kathinka Evers och Arleen Salles tar sig an frågan i tidskriften Science and Engineering Ethics. För dem är etik inte främst offentligt deklarerade principer och riktlinjer. Etik är snarare ett ständigt pågående tankearbete: levande etisk reflektion om AI. Deras fråga är alltså inte vad som krävs av ett etiskt ramverk byggt omkring AI. Frågan är vad som krävs av fördjupande etisk reflektion om AI.

Författarna framhåller begreppsanalys som väsentlig för all etisk reflektion om AI. En av de stora svårigheterna är nämligen att vi inte riktigt vet vad vi talar om! Vad är intelligens? Vad är skillnaden mellan artificiell och naturlig intelligens? Hur ska vi förstå relationen mellan intelligens och medvetande? Mellan intelligens och känslor? Mellan intelligens och insiktsfullhet?

Etiska problem om AI kan vara såväl praktiska som teoretiska, påpekar artikelförfattarna. De beskriver två praktiska och två teoretiska problem att hålla uppsikt på. Det ena praktiska problemet handlar om användande av AI i verksamheter som fordrar emotionella förmågor som AI saknar. Empati ger människor förståelse för andra människors behov. Därför bör avsaknaden av emotionellt engagemang hos AI särskilt uppmärksammas när vi överväger att använda AI i verksamheter såsom barn- och äldreomsorg. Det andra praktiska problemet handlar om användande av AI i verksamheter som fordrar en insiktsfullhet som AI saknar. Intelligens handlar inte bara om att reagera på input från omgivningen. Ibland behövs en mer förutseende förståelse av omvärlden: en förmåga att gå bortom den givna erfarenheten och se mindre uppenbara möjligheter. Gråt kan uttrycka smärta, glädje och mycket mer, men AI förutser inte så lätt de mindre uppenbara möjligheterna.

Även två teoretiska problem nämns i artikeln. Det första är huruvida AI i framtiden kan få moraliskt relevanta egenskaper som autonomi, intressen och preferenser. Det andra problemet är om alltmer avancerad AI kan tänkas påverka vår mänskliga självförståelse och skapa oro och osäkerhet om vår identitet. Dessa problem fordrar utan tvekan försiktig analys, för vet vi ens vad vi undrar? I filosofin behöver vi ofta klargöra våra frågor under filosoferandets gång.

Artikeln betonar särskilt ett krav på etisk analys av AI. Den bör samvetsgrant beakta moraliskt relevanta förmågor som AI saknar: förmågor som behövs för att tillfredsställa viktiga mänskliga behov. Kan vi låta en gullig dagisrobot ”trösta” barnen när de skriker av skratt eller när de slår sig så allvarligt att de behöver vård?

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Farisco, M., Evers, K. & Salles, A. Towards establishing criteria for the ethical analysis of Artificial Intelligence. Science and Engineering Ethics (2020). https://doi.org/10.1007/s11948-020-00238-w

Detta inlägg på engelska

Vi vill ha djup

Etik som förnyad klarhet om nya situationer

En artikel i tidskriften Big Data & Society kritiserar skarpt den form av etik som kommit att dominera forskning och utveckling inom artificiell intelligens (AI). Det handlar om samma ramverkstolkning av etiken som du kunde läsa om på Etikbloggen förra veckan. Men med en oroväckande skillnad. Snarare än att fungera som staket som sätter nödvändiga gränser för utvecklingen, riskerar ramverket att användas som etisk täckmantel av AI-företag, som vill undvika juridisk reglering av området. Genom att hänvisa till etisk självreglering – vackra deklarationer av principer, värdeord och riktlinjer – hoppas man kunna undvika juridisk reglering, som verkligen kunde sätta viktiga gränser för AI.

Problemet med AI-etik som ”mjuk etiklagstiftning” är inte bara att den kan användas för att undvika nödvändig juridisk reglering av området. Problemet är framförallt, menar SIENNA-forskarna som skrivit artikeln, att den formen av etik inte hjälper oss att tänka klart om nya situationer. Vad vi behöver, menar de, är en etik som ständigt förnyar vår blick för det nya. Det är nämligen så att AI ständigt ställer oss inför nya situationer: nya användingar av robotar, nya möjligheter för regeringar och företag att övervaka människor, nya former av teknikberoende, nya risker för diskriminering, samt utmaningar som vi kanske inte så lätt förutser.

Författarna betonar att en sådan ögonöppnande AI-etik kräver nära samarbete med samhällsvetenskaperna. Det är naturligtvis riktigt. Själv vill jag betona att en etik som förnyar vår blick för det nya, även måste vara filosofisk i ordets djupaste mening. För att klart se det nya och oväntade, kan du inte ens vila i din professionella kompetens, med sina etablerade metoder, teorier och begrepp. Du måste ifrågasätta dina egna intellektuella ramar. Du måste tänka själv.

Läs den redan uppmärksammade artikeln, som jag upplevde som frisk fläkt.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Anaïs Rességuier, Rowena Rodrigues. 2020. AI ethics should not remain toothless! A call to bring back the teeth of ethics. Big Data & Society

Detta inlägg på engelska

Vi söker klarhet

Etiska ramverk kring forskning

Ordet etiskt ramverk väcker tanken på något fast och avskiljande, som staketet runt trädgården. Forskningen som växer fram inom ramarna är dynamisk och ständigt ny. Men för säkerhets skull inramas den i ett etiskt ramverk, som sätter tydliga gränser för vad forskarna får göra i sitt arbete.

Att detta är en överförenklad bild, står klart efter läsning av en uppslagsrik diskussion av etiska ramverk i neurovetenskapliga forskningsprojekt, som Human Brain Project. Artikeln är skriven Arleen Salles och Michele Farisco vid CRB och är publicerad i AJOB Neuroscience.

Artikeln ifrågasätter inte bara bilden av etiska ramverk som statiska gränser för dynamisk forskning. Inspirerad av tankar inom så kallad ansvarsfull forskning och innovation (RRI), ifrågasätts även bilden att forskning kan avskiljas från omgivande etik och samhälle.

Forskare tenderar att betrakta forskning som deras egen angelägenhet. Det finns dock tendenser mot alltmer samarbete inte bara över disciplingränser, utan även med intressenter såsom patienter, industri och olika former av utomvetenskaplig expertis. Dessa tendenser gör forskning till en alltmer utspridd, gemensam angelägenhet. Inte bara i efterhand i form av tillämpningar, vilket förutsätter att själva forskningsinsatsen kan avskiljas. Utan redan när forskning initieras, planeras och genomförs.

Detta kunde låta hotfullt, som om främmande makter påverkade det fria sanningssökandet. Men det kan även ligga något hoppfullt i utvecklingen. Men för att se det hoppfulla, behöver vi befria oss från bilden av etiska ramverk som statiska gränser, separata från den dynamiska forskningsutvecklingen.

Med exempel från Human Brain Project försöker Arleen Salles och Michele Farisco visa hur etiska utmaningar i neurovetenskapliga projekt inte alltid kan kontrolleras i förväg, genom deklarerade principer, värden och riktlinjer. Även det etiska arbetet är dynamiskt och kräver levande intelligent uppmärksamhet. De försöker även visa hur denna etiska uppmärksamhet når rakt in i de neurovetenskapliga frågorna, begreppen och arbetssätten.

När forskning om mänskans hjärna inte är medveten om sina egna kulturella och samhälleliga villkor, utan tar dem för givna, kan det innebära att relevanta frågor inte ställs samt att forskningsresultat inte alltid får den giltighet som man antar.

Vi har alltså goda skäl att se etiska och samhälleliga reflektioner som levande delar av neurovetenskapen, snarare än som stela ramar omkring den.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Arleen Salles & Michele Farisco (2020) Of Ethical Frameworks and Neuroethics in Big Neuroscience Projects: A View from the HBP, AJOB Neuroscience, 11:3, 167-175, DOI: 10.1080/21507740.2020.1778116

Detta inlägg på engelska

I dialog med forskare

Varför behöver forskningen mångfald?

Vilka vetenskapliga upptäckter som görs beror på de frågor som ställs. Och den som vill upptäcka något nytt behöver antagligen formulera en ny fråga. Eftersom alla människor har olika förförståelse och uppfattningar kommer de också formulera sina frågor på olika sätt. Den här veckan skriver Karin Grasenick och Julia Trattnig från Human Brain Project om fördelarna med mångfald inom en forskargrupp och tar upp exempel på när det spelar roll för att komma med nya rön inom neurovetenskaplig forskning. Till exempel drabbas (biologiska) män och kvinnor olika av både Parkinsons sjukdom och Covid-19, men andra faktorer som ålder, urprung och socioekonomiska faktorer spelar också roll. Och om forskare och ingenjörer tränar AI att diagnosticera hudtumörer med bilder på ljushylta patienter finns en risk att människor med mörk hud drabbas av försenad diagnos och faktiskt mister livet.

Karin Grasenick är samordnare för genus och mångfaldsfrågor inom Human Brain Project, ett stort europeiskt flaggskeppsprojekt och arbetar tillsammans med forskaren Julia Trattnig.

Vill du veta mer? Läs deras text Diversity in research: why do we need it? på the Ethics Blog!

Skrivet av…

Josepine Fernow är ansvarig för kommunikation kring frågor som rör forskningens relation till samhälllet Human Brain Project och leder kommunikationsarbetet hos Centrum för forsknings- & bioetik och i flera andra europeiska forskningsprojekt.

Kommer med lästips

Arbeta hemifrån under pandemin: förslag från Human Brain Project

Pandemin covid-19 har tvingat många att arbeta hemifrån, online via datorn. Omställningen har överraskat, både positivt och negativt. Vi har lärt oss att det fungerar att ha digitala personalmöten, seminarier och fikaraster, och att arbete hemifrån ibland kan innebära större arbetsro än på kontoret. Vi har också upptäckt hur mycket bättre stolen och skrivbordet är på jobbet, hur svårt det är att försöka vara professionell online från ett stökigt hem, och att arbete hemifrån ofta innebär mindre arbetsro än på kontoret!

I det europeiska Human Brain Project (HBP) har man länge arbetat digitalt, med regelbundna möten online. Så arbetade man långt innan pandemin slog till, eftersom projektet är ett samarbete mellan mer än 100 partnerinstitutioner i närmare 20 länder, även utanför Europa. Som ett led i projektets satsning på ansvarsfull forskning och innovation, gör man nu särskilda ansträngningar att digitalt inkludera alla, när så stor del av arbetet flyttat ut på internet.

I tidskriften Journal of Responsible Technology formulerar Karin Grasenick och  Manuel Guerrero från HBP rekommendationer baserade på erfarenheter från projektet. Det handlar om fyra områden: Hur underlättar vi sociala kontakter och familjelivet? Hur minskar vi stress och oro? Hur hanterar vi karriärsteg, roller och ansvar? Hur stödjer vi laganda och samarbete?

Läs den koncisa artikeln! Du kommer att känna igen din arbetssituation och inspireras av förslagen. Även efter pandemin kommer samarbete online att förekomma.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Karin Grasenick,  Manuel Guerrero, Responsible Research and Innovation& Digital Inclusiveness during Covid-19 Crisis in the Human Brain Project (HBP), Journal of Responsi-ble Technology(2020), doi: https://doi.org/10.1016/j.jrt.2020.06.001

Detta inlägg på engelska

Vi hittar nya angreppssätt

Etiska fitnessappar för moraliskt högpresterande

I en ovanligt retorisk artikel för att vara i en vetenskaplig tidskrift, tecknas bilden av en mänsklighet som befriar sig från moralisk svaghet genom nerladdning av etiska fitnessappar.

Författarna menar att devisen ”Känn dig själv!” från Apollontemplet i Delfi idag besvarats grundligare än någonsin. Aldrig har människan känt sig själv bättre. Etiskt är vi i princip fullärda. Samtidigt vet vi mer än någonsin om de moraliska svagheter, som hindrar oss från att agera enligt dessa etiska principer, som vi idag alltså känner så väl. Forskningen upptäcker alltfler mekanismer i hjärna och psyke, som påverkar mänsklighetens moraliska tillkortakommanden.

Givet denna enorma och växande självkännedom, varför utvecklar vi inte artificiell intelligens som stödjer en moraliskt haltande mänsklighet? Varför satsas så mycket resurser på ännu intelligentare artificiell intelligens, som tar våra arbeten ifrån oss och en dag kan hota hela mänskligheten i form av okontrollerbar superintelligens? Varför beter vi oss så oklokt, när vi kunde utveckla artificiell intelligens som hjälper oss människor att bli superetiska?

Hur kan AI göra moraliskt svaga människor superetiska? Författarna jämför med fitnessapparna, som idag hjälper motionärer att träna hälsosammare, effektivare och mer regelbundet än de annars skulle göra. Författarnas förslag är att dagens etiska kunskap om moralteorier i kombination med växande vetenskaplig kunskap om moraliska svagheter kunde stödja en teknikutveckling av kloka appar: visa föremål som stödjer människor på precis de punkter, där vi idag vet att vi haltar moraliskt.

Min personliga bedömning av detta utopiska förslag, är att det mycket väl kan förverkligas i mindre utopiska former. AI används redan flitigt som stöd i beslutsfattande. Man kunde tänka sig mobilappar som stödjer konsumenter att göra etiska matval i butiken. Eller dataspel där matkonsumenter tränas att väga olika etiska hänsynstaganden mot varandra, som djurvälfärd, klimateffekter, ekologiska effekter och mycket annat. Snygga presentationer av de etiska problemen och uppmuntrande musik som gör det roligt att vara moralisk.

Den filosofiska fråga jag ställer mig, är om mänskligheten verkligen kan sägas bli klokare och mer moralisk av artificiellt beslutsstöd i matbutiker och andra sammanhang. Föreställ dig en människa som väljer bland grönsakerna, ivrigt letande efter beslutsstöd i sin intelligenta mobiltelefon. Vad ser du? En människa som tack vare mobilappen blivit klokare än Sokrates, som levde långt innan vi visste så mycket om oss själva som vi vet idag?

Etiska fitnessappar är fullt tänkbara. Risken är bara att de sprider en självkännedom som flyger över oss själva, misstänkt lik den moraliska bristen självgodhet.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Pim Haselager & Giulio Mecacci (2020) Superethics Instead of Superintelligence: Know Thyself, and Apply Science Accordingly, AJOB Neuroscience, 11:2, 113-119, DOI: 10.1080/21507740.2020.1740353

Detta inlägg på engelska

Vi vill ha djup

Ansvarsfullt planerad forskningskommunikation

Akademisk forskning drivs av hur resultat sprids till kolleger via konferenser och publikationer i vetenskapliga tidskrifter. Men forskningsresultat tillhör inte bara forskarsamhället. De tillhör hela samhället. Därför bör resultaten nå inte bara specialisterna i fältet eller i angränsande fält. De bör även nå utanför akademin.

Vilka finns därute? En homogen allmänhet? Nej, så enkelt är det inte. Kommunikation av forskning handlar inte om att forskarna först kommunicerar resultat inomvetenskapligt till varandra och sedan populärvetenskapligt till ”allmänheten”. Utanför akademin finns ingenjörer, företagare, politiker, myndighetsföreträdare, lärare, skolelever, forskningsfinansiärer, skattebetalare, sjukvårdspersonal… Utanför akademin finns vi alla, med våra olika erfarenheter, uppgifter och förmågor.

Forskningskommunikation är därför en strategiskt mer komplicerad uppgift än bara den att ”nå allmänheten”. Varför vill du kommunicera din forskning, vad gör den viktig? Vem kan finna din forskning viktig, vem vill du nå? Hur vill du kommunicera? När vill du kommunicera? Här finns inte bara en uppgift, utan många. Du måste tänka igenom din uppgift i varje enskilt fall. För uppgiften varierar med svaren på dessa frågor. Först när du kan tänka en smula strategiskt om uppgiften, kan du kommunicera forskning ansvarsfullt.

Josepine Fernow är en skicklig och erfaren forskningskommunikatör vid CRB. Hon arbetar med kommunikation i flera forskningsprojekt, däribland Human Brain Project och STARBIOS2. I det senare projektet, som handlar om ansvarsfull forskning och innovation (RRI), bidrar hon i en ny bok med argument för ansvarsfullt planerad forskningskommunikation: Achieving impact: some arguments for designing a communications strategy.

Josepine Fernows bidrag är, anser jag, mer än ett övertygande argument. Det är en ögonöppnande text som hjälper forskningsföreträdare att tydligare se sina relationer till samhället – och därmed sitt ansvar. Akademin är ingen kunskapsklippa i ett hav av okunniga lekmän. I samhället finns tvärtom erfarna människor, som på grund av vad de kan, kan ha glädje av din forskning. Det är lättare att tänka strategiskt om forskningskommunikation om du överblickar forskningens relationer till ett mångsidigt samhälle som redan är kunnigt. Texten öppnar den överblicken.

Josepine Fernow varnar även mot att överdriva betydelsen av din forskning. Biovetenskaplig forskning har möjlighet att i framtiden ge oss nya effektiva behandlingar av svåra sjukdomar, nya näringsrika och motståndskraftiga grödor och mycket mera. Eftersom vi alla är möjliga förmånstagare av sådan forskning, i egenskap av framtida patienter och konsumenter, kan vi vara benägna att tro på överdrivet hoppfulla budskap som överdrivet ambitiösa forskare förmedlar. Vi stirrar oss blinda på den möjliga framtida nyttan, i en farlig ringdans av alltmer orealistiska förhoppningar.

Ringdansen kallas hype. Hype kan i längden hindra din forskning genom förlorat förtroende. Hype kan också göra att din forskning kör fast i återvändsgränder eller tar oetiska genvägar. Den fantastiska framtida ”möjliga nyttan” grumlar ditt omdöme som ansvarsfull forskare.

Inom vissa forskningsfält är det extra svårt att undvika hype, eftersom överdrivna förhoppningar tycks inskrivna i fältets språk. Ett exempel är artificiell intelligens (AI), där det psykologiska och neurovetenskapliga språk som används om maskiner kan ge intryck av att förhoppningarna redan infriats. Genom att tala om maskiner i psykologiska och neurologiska termer, kan det låta som om vissa maskiner redan tänkte som människor och fungerade som hjärnor.

Att kommunicera forskning ansvarsfullt är lika viktigt som svårt. Därför förtjänar uppgiften – dessa uppgifter – största uppmärksamhet. Läs Josepine Fernows argument för noga planerade kommunikationsstrategier och överblicka ansvaret.

Slutligen en påminnelse för alla intresserade: Projektet STARBIOS2 anordnar sin slutkonferens via Zoom fredagen den 29 maj 2020.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Fernow, J. (2019). Note #11: Achieving impact: Some arguments for designing a communications strategy, In A. Declich (Ed.), RRI implementation in bioscience organisations: Guidelines from the STARBIOS2 project, (pp. 177-180). Uppsala University. ISBN: 978-91-506-2811-1

Detta inlägg på engelska

Vi tycker om öppenhet

« Äldre inlägg Nyare inlägg »