En forskningsblogg från Centrum för forsknings- & bioetik (CRB)

Etikett: artificiell intelligens (Sida 2 av 4)

Kan neuro- och AI-etiken mötas?

I takt med att artificiell intelligens (AI) blir kraftfullare och används inom alltfler områden, växer behoven av etisk reflektion kring utvecklingen.

I ett inlägg på The Ethics Blog föreslår Michele Farisco idag att AI-etiken kan hämta inspiration från neuroetiken och att ett samarbete vore fruktbart. Några av frågorna som AI väcker är nämligen besläktade med frågor om intelligens och medvetande som undersökts inom neuroetiken. Vad betyder det att vara intelligent och i vilken mening kan maskiner tillskrivas intelligens? Vad betyder det att ha medvetande och är artificiellt medvetande tänkbart? Fundamentala frågor från de två etikområdena möts.

AI-utvecklingen har en tendens att väcka överdrivna förhoppningar och farhågor. Vi har även som människor en fantasifull tendens att projicera bilder av oss själva på tekniken. Sådana tendenser kan göra etikdiskussionen oklar och orealistisk. I blogginlägget föreslår Michele Farisco en arbetsmodell från neuroetiken, som kunde användas även inom AI-etiken för att hålla diskussionen klar och realistisk. Grundtanken är att börja med begreppsliga undersökningar för att belysa vad vi menar med vissa egenskaper när de tillskrivs AI, exempelvis autonomi. När vi klargjort begreppens tillämpbarhet på AI har vi en god grund att stå på för att undersöka den etiska relevansen och de normativa konsekvenserna av begreppen.

Vill du läsa blogginlägget så hittar du det här: How can neuroethics and AI join their forces? Inlägget bygger på en artikel som Michele Farisco nyligen publicerade med Kathinka Evers och Arleen Salles.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Farisco, M., Evers, K. & Salles, A. On the Contribution of Neuroethics to the Ethics and Regulation of Artificial Intelligence. Neuroethics 15, 4 (2022). https://doi.org/10.1007/s12152-022-09484-0

Vi hittar nya angreppssätt

Bilder av god och ond artificiell intelligens

Som Michele Farisco påpekat på den engelska versionen av denna blogg, fungerar artificiell intelligens (AI) ofta som projektionsyta för våra självbilder som människor. Ibland även som projektionsyta för våra bilder av gott och ont, som du snart ska få se.

Inom AI och robotteknik eftersträvas ofta autonomi, i meningen att den artificiella intelligensen ska kunna utföra sina uppgifter på bästa sätt utan mänsklig vägledning. Som en självkörande bil, som säkert tar dig dit du vill utan att du behöver styra, gasa eller bromsa. En annan form av autonomi som ofta eftersträvas är att den artificiella intelligensen ska vara självlärande och därmed kunna förbättra sig själv och bli kraftfullare utan mänsklig vägledning.

Filosofer har diskuterat om AI kan vara autonom även i en annan mening, som förknippas med vårt mänskliga förnuft. En autonom person kan, enligt denna bild, granska sina yttersta mål i livet och revidera dem, om hon bedömer att ny kunskap om världen gör det nödvändigt. Vissa filosofer menar att AI inte kan göra detta, eftersom det förprogrammerade målet, eller nyttofunktionen, skulle göra det irrationellt att ändra målet. Målet ligger fast. Idén om en sådan envist målinriktad AI kan väcka oroande bilder av ondskefull AI som löper amok mittibland oss. Men även betryggande bilder av god AI som pålitligt stödjer oss.

Oroade filosofer har föreställt sig en AI som har det yttersta målet att tillverka vanliga gem. Denna AI antas vara självförbättrande. Den blir därför allt intelligentare och kraftfullare vad gäller målet att tillverka gem. När råvaror sinar lär den sig nya sätt att förvandla jordens resurser till gem och när människor försöker hindra den från att förgöra planeten lär den sig att förgöra mänskligheten. När planeten är utplånad ger den sig ut i rymden och förvandlar universum till gem.

Filosofer som varnar för en sådan ”ond” superintelligent AI hyser även förhoppningar om en ”god” superintelligent AI. Anta nämligen att vi kunde ge självförbättrande AI målet att tjäna mänskligheten. Utan att tröttna skulle den utveckla allt intelligentare och kraftfullare sätt att vara vid vår sida, till tidens ände. Till skillnad från religionens gud skulle denna konstgjorda superintelligens höra våra böner och vidta allt smartare åtgärder för att hjälpa oss. Den skulle antagligen förr eller senare lära sig att förhindra jordbävningar och våra klimatproblem skulle snart vara borta. Inga teodicéproblem i världen kunde undergräva vår tro på denna AI-gud, vars makt att skydda oss mot allt ont bara ökar. Naturligtvis är det oklart hur målet att tjäna mänskligheten kan definieras. Men givet möjligheten att äntligen säkerställa mänsklighetens framtid, menar vissa hoppfulla filosofer att utveckling av människovänlig självförbättrande AI borde vara en av vår tids främsta uppgifter.

Allt detta läste jag i en välskriven artikel av Wolfhart Totschnig, som ifrågasätter den icke-reviderbara målorientering som förknippas med autonom AI i scenarierna ovan. Hans viktigaste poäng är att målstyrd AI som löper amok i universum eller räddar mänskligheten ur varje knipa inte ens är tänkbar. Utanför sin domän förlorar nämligen målet sin meningsfullhet. Målet för en självkörande bil att säkert ta användaren till destinationen har ingen mening utanför domänen vägtrafik. Domänspecifik AI kan därför inte generaliseras till världen som helhet, för nyttofunktionen förlorar sin mening utanför domänen, långt innan universum hinner förvandlas till gem eller mänsklighetens framtid hinner säkerställas av en artificiellt god gud.

Detta är naturligtvis en viktig filosofisk poäng om mål och mening, om begränsade domäner och världen som helhet. Kritiken hjälper oss att mer realistiskt bedöma risker och möjligheter av framtida AI, utan att förhäxas av våra bilder. Samtidigt får jag intrycket att även Totschnig fortsätter att använda AI som projektionsyta för bilder av oss själva. Han menar nämligen att framtida AI mycket väl kan revidera även sina yttersta mål i takt med att den utvecklar en allmän förståelse för världen. Svagheten i scenarierna ovan var ju att de utgick från dagens domänspecifika AI, inte från människans allmänna förnuftsförmåga. Vi ser då inte möjligheten av en äkta människolik AI, som självkritiskt omprövar sina yttersta mål när ny kunskap om världen motiverar detta. Sant människoekvivalent AI skulle ha full autonomi.

Att projicera mänskliga självbilder på framtida AI är inte bara en tendens, såvitt jag kan bedöma, utan en norm som styr diskussionen. Enligt denna norm projiceras fel bild i scenarierna ovan. En bild av dagens maskiner, inte av vår allmänna mänskliga intelligens. Att projicera rätt självbild på framtida AI framstår därmed som ett övergripande mål i diskussionen. Är målet meningsfullt eller borde det omprövas självkritiskt?

Detta är svåra frågor och mitt intryck av diskussionen kan vara felaktigt. Vill du göra en egen bedömning, läs artikeln: Fully autonomous AI.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Totschnig, W. Fully Autonomous AI. Sci Eng Ethics 26, 2473–2485 (2020). https://doi.org/10.1007/s11948-020-00243-z

Detta inlägg på engelska

Vi ställer frågor

Digitala tvillingar, virtuella hjärnor och språkets faror

En ny datorsimuleringsteknik har börjat användas exempelvis inom tillverkningsindustrin. Simuleringen kallas en digital tvilling, vilket utmanar mig att levandegöra för läsaren vad något som låter så fantasieggande kan vara i verkligheten.

Den mest realistiska förklaring jag kan hitta kommer faktiskt från Harry Potters värld. Minns du kartan över Hogwarts, som inte bara visar alla rum och korridorer, utan även fotstegen i realtid av dem som smyger omkring på skolan? En liknande karta kan lätt skapas i datormiljö genom att förbinda kartan i datorn med sensorer i golvet på byggnaden som kartan avbildar. Genast har du en interaktiv digital karta över byggnaden som automatiskt uppdateras och visar människors rörelser i den. Tänk dig vidare att datorsimuleringen kan göra beräkningar som förutsäger folksamlingar som överstiger myndigheternas rekommendationer, och att den automatiskt sänder ut varningsmeddelanden via ett högtalarsystem. Såvitt jag förstår kan en sådan interaktiv digital karta kallas en digital tvilling för ett intelligent hus.

Naturligtvis är detta en revolutionerande teknik. Arkitektens ritning i något datorprogram får förlängt liv i såväl produktionen som underhållet av byggnaden. Den digitala simuleringen kopplas till sensorer som uppdaterar simuleringen med aktuella data om relevanta faktorer i byggprocessen och därefter i den färdiga byggnaden. Huset får en digital tvilling som under byggnadens hela livscykel automatiskt kontaktar underhållstekniker när sensorerna visar att tvättmaskinerna börjar bli slitna eller luften inte cirkulerar som den ska.

Användningsområdet för digitala tvillingar är enormt. Poängen med dem, som jag förstår det, är inte att de är ”exakta virtuella kopior av verkligheten”, vad det nu kunde betyda. Poängen är att datorsimuleringen är sammanlänkad med det simulerade objektet på ett praktiskt relevant sätt. Sensorer uppdaterar automatiskt simuleringen med relevanta data, samtidigt som simuleringen automatiskt uppdaterar det simulerade objektet på relevanta sätt. Samtidigt uppdateras användare, tillverkare, underhållstekniker och andra aktörer, som lätt överblickar objektets aktuella status, möjligheter och risker, var de än befinner sig i världen.

Det europeiska flaggskeppsprojektet Human Brain Project planerar att utveckla digitala tvillingar till mänskliga hjärnor, detta genom att bygga virtuella hjärnor i datormiljö. I en artikel undersöker filosoferna Kathinka Evers och Arleen Salles, som båda arbetar i projektet, de enorma utmaningar som det skulle innebära att utveckla digitala tvillingar till levande mänskliga hjärnor. Är det ens tänkbart?

Författarna jämför typer av föremål som kan få digitala tvillingar. Det kan handla om artefakter såsom byggnader och bilar eller om naturliga livlösa företeelser såsom berggrunden vid en gruva. Men det skulle alltså även kunna handla om levande ting såsom hjärtat eller hjärnan. Jämförelserna i artikeln visar att hjärnan utmärker sig på flera sätt, som alla gör det oklart om det är rimligt att tala om digitala tvillingar till mänskliga hjärnor. Vore det mer klargörande att tala om digitala kusiner?

Hjärnan är astronomiskt komplex och trots ny kunskap om den så är den i hög grad ogenomskinlig för vårt kunskapssökande. Hur kan vi tala om en digital tvilling till något som är komplext som en galax och okänt som ett svart hål? Dessutom är hjärnan genomgående dynamiskt interaktiv. Den är sammankopplad inte bara med kroppen utan även med kultur, samhälle och omvärld, som den utvecklas i oavbrutet samspel med. Hjärnan smälter närmast ihop med omgivningen. Betyder det att en digital tvilling skulle behöva vara en tvilling till hjärnan-kroppen-kulturen-samhället-världen, det vill säga en digital tvilling till allting?

Nej, så är det naturligtvis inte. Syftet inom projektet är att finna specifika medicinska tillämpningar av den nya datorsimuleringstekniken. Genom att utveckla digitala tvillingar till vissa aspekter av vissa delar av patienters hjärnor, hoppas man kunna förbättra och individanpassa exempelvis kirurgiska ingrepp vid sjukdomar såsom epilepsi. Liksom kartan från Harry Potters värld följer människors fotsteg, skulle den digitala hjärntvillingen kunna följa vissa nervimpulsers utbredning i vissa delar av patientens hjärna. Detta kan öppna nya möjligheter att överblicka, diagnostisera, förutse och behandla sjukdomar såsom epilepsi.

Borde vi undvika termen digital tvilling när vi talar om hjärnan? Ja, det vore antagligen klokare att tala om digitala syskon eller om digitala kusiner, argumenterar Kathinka Evers och Arleen Salles. Även om experterna på området förstår begreppets tekniska användning, är uttrycket ”digital tvilling” språkligt riskabelt när vi talar om den mänskliga hjärnan. Det leder lätt tanken vilse. Vi tänker oss att den digitala tvillingen måste vara en exakt kopia av en människas hela hjärna. Detta riskerar att skapa orealistiska förväntningar och grundlös rädsla omkring teknikutvecklingen. Historien visar dessutom att språket rymmer fler faror. Ord kommer med normativa förväntningar som kan få etiska och sociala konsekvenser som kanske inte avsågs. Att tala om en digital tvilling till en gruvborr är nog ingen större språklig fara. Men handlar det om individuella människors hjärnor, kan talet om digitala tvillingar bli en ny språklig arena där vi befäster fördomar och sprider rädslor.

Efter att ha läst några populärvetenskapliga förklaringar av digital tvillingar vill jag tillägga att försiktighet kan behövas även i anknytning till industriella tillämpningar. För den digitala tvillingen till gruvborren är ju ingen ”exakt virtuell kopia av den verkliga borren” i någon absolut mening, ända ner till rörelserna hos enskilda atomer. Den digitala tvillingen är en kopia i den praktiska mening som tillämpningen gör relevant. Ibland räcker det att kopiera var människor sätter ner sina fötter, som i Harry Potters värld, vars magi oväntat hjälper oss att förstå begreppet digital tvilling mer realistiskt än många verbala ordförklaringar kan göra. Att förklara ord med hjälp av andra ord är inte alltid klargörande, om alla orden styr tanken i samma riktning. Orden ”kopia” och ”replik” leder vårt tänkande precis lika rätt och precis lika fel som ordet ”tvilling” gör.

Vill du bättre förstå utmaningarna kring digitala tvillingar till mänskliga hjärnor och vikten av begreppslig klarhet kring utvecklingen, läs den filosofiskt upplysande artikeln: Epistemic Challenges of Digital Twins & Virtual Brains: Perspectives from Fundamental Neuroethics.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Evers, Kathinka & Salles, Arleen. (2021). Epistemic Challenges of Digital Twins & Virtual Brains: Perspectives from Fundamental Neuroethics. SCIO: Revista de Filosofía. 27-53. 10.46583/scio_2021.21.846

Detta inlägg på engelska

Vi söker klarhet

Hjärninspirerad AI: mänsklig självbespegling?

Trots att användningarna av artificiell intelligens (AI) idag närmast exploderar på flera områden, så är tekniken i vissa avseenden mer begränsad än man kan tro. Det är inte konstigt. All teknik tenderar att vara både användbar och begränsad. Men när det gäller just AI finns en tendens att se varje begränsning som en defekt. Varför?

En jämförelse smyger sig vanligen in vår bild av AI: jämförelsen med människan. Rättare sagt så är detta en jämförelse inte med oss själva, utan med vår självbild som intelligenta varelser med en generaliserad problemlösningsförmåga, som vi antar har gjort oss mer anpassningsbara och framgångsrika än andra arter på planeten. Denna självbild jämförs med en bild av AI som teknisk renodling av denna mänskliga intelligens. Därför blir vi missnöjda med tekniken när den inte löser problem lika generaliserat och självständigt som vi föreställer oss att vi människor gör. Samtidigt kan vi bli missnöjda med oss själva, och kanske lite rädda, när vi upplever att AI löser vissa problem bättre än vi.

Idag talar man om hjärninspirerad AI som ett sätt att lösa de tekniska begränsningarna hos AI. Man söker alltså teknisk inspiration i forskningen om hur den mänskliga hjärnan fungerar. I ett inlägg på The Ethics Blog idag ställer Michele Farisco filosofiska frågor om denna användning av människohjärnan som förebild för AI-tekniken. Vad talar för att detta är den bästa vägen att utveckla tekniken? Många AI-system avviker redan från hur hjärnan arbetar. Kanske har tekniken större potential om vi låter den avvika från hur den biologiska hjärnan fungerar?

Michele Farisco ställer även frågor om vår tendens att spegla oss själva i idealiserade bilder av mänsklig och artificiell intelligens. En risk med detta självbespeglande är att det tudelar allt vi möter i antingen mänskligt eller omänskligt, intelligent eller ointelligent, perfekt eller defekt. Sådana tendenser i vår historia har inte varit harmlösa.

Läs Michele Fariscos blogginlägg som ställer frågor om AI och mänsklig självbespegling: Brain-inspired AI: human narcissism again?

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Vad är hållbarhet i framtiden?

Säkerställa framtiden redan från början

Tänk om det fanns en säker metod för att förutse och hantera framtida risker, allt som kunde gå fel med ny teknik till exempel. Då kunde vi ansvarsfullt navigera förbi alla farorna, vi kunde säkerställa framtiden redan nu.

Naturligtvis är det bara en dröm. Om vi hade en ”säker metod” för att redan från början utesluta framtida risker, skulle tiden snart springa ifrån den metoden, som då visade sig opålitlig i en ny tid. Eftersom vi litade på metoden, blev metoden för att hantera framtida risker snart själv en framtida risk!

Det går alltså inte att säkerställa framtiden redan från början. Betyder det att vi måste ge upp alla försök att ta ansvar för framtiden, eftersom varje metod en vacker dag missar något oförutsebart nytt och därför orsakar olyckor? Är det kanske bättre att inte försöka ta något ansvar alls, för att inte riskera att orsaka olyckor genom våra ofullkomliga säkerhetsåtgärder? Märkligt nog är det lika omöjligt att vara oansvarig inför framtiden som att vara ansvarig. Du skulle behöva anstränga dig minutiöst, så att du inte råkar tillaga en hälsosam frukost eller undvika en bilkollision. Snart önskar du att du hade en ”säker metod” som kunde förutse alla framtida faror som du måste undvika att undvika om du vill leva fullkomligt oansvarigt. Din oansvarighet för framtiden skulle bli ett oöverstigligt ansvar.

Förlåt om jag driver tids- och ansvarsbegreppen över bristningsgränsen, men jag tror faktiskt att många av oss har en naturlig böjelse att göra det, för att framtiden skrämmer oss. Ett aktuellt exempel är tendensen att tänka att någon ansvarig borde ha förutsett pandemin och genomfört kraftfulla motåtgärder redan från början, som säkerställt att det aldrig blev någon pandemi. Jag vill inte förneka att det finns fall där vi kan resonera så – ”någon ansvarig borde ha…” – men nu tänker jag på frestelsen att resonera så rent instinktivt, så fort något oönskat inträffar. Som om framtiden kunde säkerställas redan från början och oönskade händelser därför undantagslöst vore skandaler.

Nu är vi i ett nytt läge. På grund av pandemin har det blivit oansvarigt att inte förbereda sig (bättre än tidigare) för pandemirisker. Så ser vårt ansvar för framtiden ut. Det ändras med tiden. Ansvaret vilar i nuet, i vårt faktiska läge idag. Där har ansvaret för framtiden sitt hem. Det kan låta oansvarigt att säga så. Ska vi sitta med armarna i kors och invänta att det oönskade inträffar, för att först därefter få ett ansvar att undvika det i framtiden? Problemet är att denna invändning återigen driver begreppen över bristningsgränsen. Den leker med tanken att framtiden kan överblickas och säkerställas redan nu, ett tankemönster som i sig kan utgöra en risk. Ett samhälle där varje instans måste säkerställa framtiden inom sitt ansvarsområde, riskerar att sparka nedåt för att hålla eventuella oroselement utanför den säkerställda ordningen: ”Vår uppdragsgivare kräver att vi säkerställer att…, därför behöver vi ett intyg samt en personlig deklaration där du…”. Många skulle hamna utanför den säkerställda ordningen, vilket knappast tryggar någon ordning. Och eftersom oroselementen definieras genom konstruerade kriterier, som kanske implementeras i automatiserade administrationssystem, riskerar systemen inte bara att begå systematiska misstag i mötet med verkliga människor. De rentav inbjuder till falskspel med systemen.

Så hur tar vi ansvar för framtiden på ett i praktiken ansvarsfullt sätt? Låt oss först lugna ner oss inför utmaningen. Vi har ju konstaterat att det är omöjligt att inte ta ansvar! Bara genom att andas tar vi ansvar för framtiden, genom att laga frukost, genom att styra bilen. Ansvarstagande är så naturligt, att ingen behöver ta ansvar för det. Men hur tar vi ansvar för något så dynamiskt som forskning och teknikutveckling? De är ju redan i framtiden, tycks det, eller åtminstone i framkant. Hur kan vi förlägga ansvaret för en skön ny värld till nuet, som tycks passé redan från början? Måste inte ansvaret vara lika framtidsinriktat, lika mycket i framkant, eftersom forskning och teknik ständigt rör sig mot framtiden, där de gör framtiden annorlunda det omkörda nuet?

Återigen drivs begreppen över bristningsgränsen. Den som läser detta inlägg uppmärksamt kan dock notera en hoppingivande motsägelse. Jag har påpekat att det är omöjligt att säkerställa framtiden redan nu. Samtidigt påpekar jag att det är i nuet som ansvaret för framtiden ligger. Det är bara här som vi i praktiken tar ansvar för framtiden. Hur kan jag vara så ologisk?

Svaret är att det första påpekandet riktas mot vår intellektuella tendens att driva tids-och ansvarsbegreppen över bristningsgränsen, när vi känner oss osäkra inför framtiden och önskar att vi kunde kontrollera den redan nu. Det andra påpekandet påminner oss om hur lugnt tids- och ansvarsbegreppen fungerar i praktiken, när vi tar ansvar för framtiden. Det första påpekandet drar alltså en gräns för intellektet, som hysteriskt gärna vill totalkontrollera framtiden redan från början. Det andra påpekandet öppnar upp för praktiken att i varje ögonblick ta ansvar.

När vi tar ansvar för framtiden, så lär vi oss av historien så som den framträder i vårt nuvarande minne, vilket jag redan antytt. Erfarenheterna från pandemin gör det möjligt att nu ta ansvar för framtiden på ett annat sätt än tidigare. De inte alltid positiva erfarenheterna av artificiell intelligens gör det möjligt att nu ta bättre ansvar för framtida robotiseringar. Det märkliga är alltså att ansvarstagande förutsätter att det går snett ibland och att vi intresserar oss för det. Annars hade vi inget att lära oss av inför framtiden. Det är egentligen självklart. Ansvar är möjligt bara i en värld som inte är helt säkerställd från början, en värld där det oönskade inträffar. Så motsägelsefullt är livet. Vi kan aldrig renodla säkerheten enligt intellektets ensidiga krav, för säkerheten förutsätter det osäkra och det oönskade.

Mot denna filosofiska bakgrund vill jag rekommendera en artikel i Journal of Responsible Innovation, som diskuterar ansvarsfull forskning och utveckling i ett stort europeiskt forskningsprojekt, Human Brain Project (HBP): From responsible research and innovation to responsibility by design. Artikeln beskriver hur man inom HBP försökt vara förutseende och ta ansvar för den dynamiska forskningen och teknikutvecklingen inom projektet. Artikeln reflekterar inte minst över frågan hur man fortsätter att ta ansvar även när projektet avslutas, inom den europeiska forskningsinfrastruktur som planeras bli projektets produkt: EBRAINS.

Författarna är väl medvetna om att specifika reglerade ansatser själva kan bli en källa till problem, när de möter det nya och oförutsedda. Ansvaret för framtiden kan inte regleras. Det kan inte reduceras till konstruerade kriterier och föreskrifter. En av författarnas viktigaste slutsatser är att ansvaret från början behöver vara en integrerad del av forskningen och teknikutvecklingen, snarare än ett yttre ramverk. Ansvaret för framtiden fordrar flexibilitet och öppenhet, förutseende och engagemang, reflektion och vidsynthet. Men vad är det?

Personligen vill jag säga att det delvis handlar om att acceptera livets dubbelhet. Om vi inte vågar sväva i ovisshet, utan alltid kräver säkerhet och inget annat än säkerhet, så kommer vi garanterat att undergräva säkerheten. Genom att vara uppriktigt intresserade av det osäkra och oönskade, kan ansvarstagandet bli en integrerad del av forskningen och teknikutvecklingen.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Bernd Carsten Stahl, Simisola Akintoye, Lise Bitsch, Berit Bringedal, Damian Eke, Michele Farisco, Karin Grasenick, Manuel Guerrero, William Knight, Tonii Leach, Sven Nyholm, George Ogoh, Achim Rosemann, Arleen Salles, Julia Trattnig & Inga Ulnicane. From responsible research and innovation to responsibility by design. Journal of Responsible Innovation. (2021) DOI: 10.1080/23299460.2021.1955613

Detta inlägg på engelska

Vad är hållbarhet i framtiden?

Artificiell intelligens och medvetande

I ett inlägg på den engelska versionen av denna blogg diskuterar Michele Farisco idag en hisnande fråga om artificiell intelligens (AI): kan vi skapa medvetna maskiner?

Michele Farisco menar att frågan förutsätter att vi först klargör vad vi menar med medvetande. Han ger exempel på definitioner som använts i diskussionen om medveten AI och konstaterar att de föga överraskande definierar medvetande i termer av olika former av beräkningar inom informationsbehandling. Uppenbarligen bäddar man som man vill ligga. Det vill säga, man definierar sina termer efter den typ av svar man söker. Är det ett filosofiskt uppriktigt sätt att närma sig frågan?

Michele Farisco menar att vi måste närma oss frågan om medveten AI med stor försiktighet och eftertänksamhet. Annars riskerar viktiga filosofiska frågor att försvinna ur sikte bakom en begreppslig slöja av förhastade språkliga analogier mellan det mänskliga och det maskinella.

Läs Michele Fariscos inlägg på The Ethics Blog: Can AI be conscious? Let us think about the question.

Vi söker klarhet

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Mänskliga rättigheter och juridiska frågor kring artificiell intelligens

Hur tar vi ansvar för en teknik som används nästan överallt? I takt med att alltfler användningar av artificiell intelligens (AI) utvecklas, växer utmaningarna att överblicka hur tekniken kan påverka människor och mänskliga rättigheter.

Även om AI-lagstiftning redan utvecklas på flera områden, menar Rowena Rodrigues att vi behöver en överblickbar karta över utmaningarna. Hur ser läget ut? Var kan människors rättigheter hotas? Hur hanteras hoten? Var behöver större ansträngningar göras? I en artikel i Journal of Responsible Technology föreslår hon en sådan karta, som sedan diskuteras med utgångspunkt i begreppet sårbarhet (”vulnerability”).

Artikeln identifierar tio problemområden. Ett problem är att AI fattar beslut på basis av algoritmer där beslutsprocessen inte är helt genomskinlig. Varför fick jag inte jobbet, lånet eller bidraget? Svårt att veta när datorprogram levererar beslut som om de vore orakel! Andra problem handlar om säkerhet och ansvar, exempelvis när automatiskt beslutsfattande används i bilar, i medicinska diagnoser, i vapen eller när regeringar övervakar medborgare. Andra problemområden kan handla om risker för diskriminering eller för integritetsintrång när AI samlar in och använder stora datamängder för att fatta beslut som berör individer och grupper. I artikeln kan du läsa om fler problemområden.

För var och en av de tio utmaningarna, identifierar Rowena Rodrigues lösningar som i nuläget finns på plats, samt utmaningarna som det kvarstår att hantera. Därefter diskuteras mänskliga rättigheter. Rowena Rodrigues menar att internationella mänskliga rättighetsfördrag, även om de inte nämner AI, är relevanta för de flesta av problemen som hon kartlagt. Hon framhäver betydelsen att bevaka mänskliga rättigheter ur ett sårbarhetsperspektiv. Genom ett sådant perspektiv ser vi tydligare var och hur AI kan utmana mänskliga rättigheter. Vi ser tydligare hur vi kan minska negativa effekter, utveckla motståndskraft hos sårbara, samt angripa roten till de olika formerna av sårbarhet.

Rowena Rodrigues är knuten till SIENNA-projektet, som avslutas denna månad. Läs hennes artikel om utmaningarna kring en teknik som används nästan överallt: Legal and human rights issues of AI: Gaps, challenges and vulnerabilities.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Rowena Rodrigues. 2020. Legal and human rights issues of AI: Gaps, challenges and vulnerabilities. Journal of Responsible Technology 4. https://doi.org/10.1016/j.jrt.2020.100005

Detta inlägg på engelska

Kommer med lästips

Hotad av superintelligenta maskiner

Det finns en rädsla att vi snart skapar artificiell intelligens (AI) som är så superintelligent, att vi inte längre kan kontrollera den. Den gör oss människor till sina slavar. Om vi försöker koppla ur nätverkskabeln så hoppar superintelligensen över till ett annat nätverk, eller så beordrar den en robot att döda oss. Alternativt så hotar den att spränga en hel stad i bitar, om vi tar ett enda steg mot nätverksuttaget.

Jag slås emellertid av hur denna självhävdande artificiella intelligens liknar en sida av vår egen mänskliga intelligens. En viss typ av mänsklig intelligens har redan tagit över. Den styr våra tankar när vi känner oss hotade av superintelligent AI och överväger smarta motåtgärder för att kontrollera den. Ett typiskt drag i denna självhävdande intelligens är just detta att den aldrig ser sig själv som problemet. Alla hot är externa och måste neutraliseras. Vi ska överleva, kosta vad det vill för andra. Jag först! Vårt parti först! Vi betraktar världen med misstro: den tycks fylld av hot mot oss.

I denna självcentrerade anda utpekas AI som nytt främmande hot: okontrollerbara maskiner som sätter sig själva först. Alltså måste vi övervaka maskinerna och bygga smarta försvarssystem som kontrollerar dem. De borde vara våra slavar! Mänskligheten först! Ser du hur vi beter oss lika blint självhävdande som vi fantiserar att supersmart AI skulle göra? En kapprustning i småsinthet.

Kan du se mönstret hos dig själv? Om du kan göra det, så har du upptäckt den andra sidan av den mänskliga intelligensen. Du har upptäckt den självgranskande intelligens som alltid livnär filosofin när den ödmjukt söker orsaken till våra misslyckanden hos oss själva. Paradoxen är: när vi försöker kontrollera världen, så fångas vi i småsinthet; när vi granskar oss själva, så öppnas vi för världen.

Linnés första försök att artbestämma människan var faktiskt inte Homo sapiens, som om vi kunde hävda vår visdom. Linnés första försök att artbestämma oss var en ödmjuk uppmaning till självgranskning:

HOMO. Nosce te ipsum.

På svenska: Människa, känn dig själv!

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Detta inlägg på engelska

Vi tänker om tänkande

Dags att reglera teknik som kan optimera människors egenskaper

Kanske har du också drömt om att vara mer än du är. Snabbare, smartare, modigare, starkare, eller kanske mer attraktiv? Det är inte länge sedan det bara var i science fiction som sådant var möjligt. Nu utmanar ny teknik som kan förändra våra kroppar och hjärnor våra föreställningar om vad som är normalt och abnormalt. Och gränserna mellan att behandla, förbättra och optimera suddas sakta ut. Under hösten har till exempel SVT-serien Framtiden runt hörnet lyft frågan i ett avsnitt om att optimera sig själv

Men det är inte många forskare eller företag som utvecklar läkemedel, proteser eller implantat som själva skulle hävda att de sysslar med att optimera människor, eller det som på engelska kallas human enhancement. Men teknologierna  de utvecklar kommer ändå att kunna röra sig från en domän till en annan. Våra kroppar kan förändras både funktionellt och kosmetiskt. Det finns både forskning och (icke evidensbaserad) behandling som syftar till att få oss att leva längre. Våra hjärnor kan också optimeras på olika sätt. Våra tankar och känslor kan förändras med läkemedel och terapi. Kanske kan man också förändra vår moral, både till det bättre och sämre. 

Den här spänningen kan vi känna igen från olika debatter om mer vanliga sätt att optimera människor. Doping inom idrotten till exempel. Eller studenter som använder ADHD-medicin för att plugga inför en stor tenta. Men det finns andra exempel på teknologier som kan användas för att optimera egenskaper. Vad händer om man förändrar människors moral eller använder cybernetiska implantat inom militären? Eller om friska individer får tillgång till neuroproteser för att förbättra minnet eller någon annan kognitiv funktion, när tekniken från början var avsedd för människor som skadats av neurologiska sjukdomar.  

Det har såklart funnits diskussion om hur etiken kring sådan utveckling ska regleras. Men eftersom väldigt få av de forskare och ingenjörer som utvecklar teknik som kan användas för att optimera olika egenskaper hos människor själva skulle säga att de är i optimeringsbranschen har initiativen inte varit så framgångsrika. Men kanske är tiden inne för etiska riktlinjer? Och då väcks frågan: hur gör man det på ett område som är brett, komplext och svårt att avgränsa? Ska det vara en uppsättning fristående allmänna riktlinjer för hela fältet, eller är det så spretigt att det kräver en reglering för varje fält eller domän? 

Ett försök till att svara på frågan kommer från SIENNA-projektet (Stakeholder-Informed Ethics for New technologies with high socio-ecoNomic and human rights impAct). Det är ett EU-projekt som fått i uppgift att utveckla den här typen av etiska regler och riktlinjer för tre väldigt olika teknikområden. Dels optimering av mänskliga egenskaper, men också av genetik och genomik, samt artificiell intelligens och robotik. Det kanske inte kommer som ett överraskning att det svåraste uppdraget varit just optimering. I närmare tre år har SIENNA kartlagt fältet, analyserat de etiska implikationerna, kartlagt lagstiftningen, studerat hur forskningsetikkommitteer hanterar de etiska frågorna, och kommit med förslag på olika sätt att förbättra befintlig lagstiftning. Input har kommit från olika typer av intressenter, experter och allmänheten. Representanter från industri, akademi och myndigheter har deltagit i olika workshops och granskat förslag. Allmänhetens syn på frågorna har undersökts i fokusgrupper i fem länder och kompletterats med en enkätundersökning där 11,000 personer i 11 länder från Europa, Afrika, Asien, Nord- och Sydamerika fått svara på frågor om sina attityder till att använda olika teknologier för att optimera människors egenskaper eller prestationer. Resultatet är ett etiskt ramverk, som beskriver olika alternativ för hur det här arbetet kan översättas till praktisk etisk vägledning. 

Ramverket för optimering bygger på tre fallstudier som kan ge lite klarhet i vad som står på spel i ett väldigt spretigt fält: användandet av antidepressiva läkemedel, behandling av demens, och genetik. Fallstudierna lyfter fram olika typer frågor som sannolikt kommer att bli aktuella. Och de svårigheter som kommer med den komplexa uppgift som SIENNA nu står inför: att utveckla en etisk riktlinje för teknologier som används för att optimera mänskliga förmågor. 

Utvecklingen av många av de här teknologierna, deras applikationer och den potential för optimering de har, är fortfarande i sin linda. Så kanske är det här precis rätt läge att föreslå sätt för forskningsetikkommittéer att informera forskare om de etiska utmaningar som följer med den här potentialen att optimera människor? Och att uppmuntra forskarna att reflektera kring potentiella konsekvenser av att tekniken används för optimering i samband med att de ansöker om etikgodkännande för sin forskning.  

För den som vill vara med och påverka hur förslaget från SIENNA kommer att se ut finns möjligheten att delta i en remissrunda i mitten av januari nästa år. Mellan den 11-25 januari 2021 kommer projektets förslag för etisk reglering av teknologier som kan optimera våra egenskaper att finnas tillgängliga för kommentar. Men du kan också ge input till förslag som rör genomik, AI och robotik. Den som vill vara med rekommenderas besöka webbplatsen, www.sienna-project.eu.

Josepine Fernow

Skrivet av…

Josepine Fernow, koordinator vid Centrum för forsknings- och bioetik och kommunikationsledare i SIENNA-projektet.

SIENNA-projektets logotyp

Det här inlägget på engelska

”Samarbetsvillig”, ”trevlig” och ”pålitlig” robotkollega sökes

Robotar får alltfler funktioner på våra arbetsplatser. Logistikrobotar hämtar varorna på lagret. Militärrobotar desarmerar minorna. Skötarrobotar lyfter patienterna och kirurgiska robotar utför operationerna. Allt detta i samspel med mänsklig personal, som tycks ha fått sköna nya robotkolleger på sina arbetsplatser.

Med tanke på att somliga behandlar robotarna som bra kolleger och att bra kolleger bidrar till god arbetsmiljö, blir det rimligt att fråga: Kan en robot vara en bra kollega? Frågan undersöks av Sven Nyholm och Jilles Smids i tidskriften Science and Engineering Ethics.

Författarna behandlar frågan begreppsligt. Först föreslår de kriterier för vad en bra kollega är. Därefter frågar de om robotar kan leva upp till kraven. Frågan om en robot kan vara en bra kollega är intressant, eftersom den visar sig vara mer realistisk än vi först tror. Vi kräver nämligen inte lika mycket av en kollega som av en vän eller en livspartner, resonerar författarna. Många av kraven på bra kolleger har att göra med deras yttre beteende i specifika situationer på arbetsplatsen, snarare än med hur de tänker, känner och är som människor i livets många sammanhang. Ibland är en bra kollega bara någon som får jobbet gjort!

Vilka kriterier nämns i artikeln? Här återger jag med egna ord författarnas lista, som de framhåller inte är menad att vara fullständig. En bra kollega samarbetar för att uppnå mål. En bra kollega kan småprata och göra arbetet trevligt. En bra kollega mobbar inte utan behandlar andra respektfullt. En bra kollega stöttar efter behov. En bra kollega lär sig och utvecklas med andra. En bra kollega är alltid på plats och är pålitlig. En bra kollega anpassar sig efter hur andra mår och delar arbetsrelaterade värden. En bra kollega får gärna socialisera vänskapligt.

Författarna menar att många robotar redan idag lever upp till flera av dessa idéer om vad en bra kollega är, och att robotarna på våra arbetsplatser snart är ännu bättre kolleger. Kraven är, som sagt, lägre än vi först tror, eftersom de inte handlar så mycket om kollegans inre mänskliga liv, utan mer om pålitligt uppvisade beteenden i specifika arbetssituationer. Det är inte så svårt att tänka sig kriterierna omvandlade till specifikationer till robotutvecklarna. Ungefär som i en jobbannons, som listar beteenden som den sökande bör kunna uppvisa.

En butikschef för en mataffär i denna stad annonserade efter personal. Annonsen innehöll märkliga citationstecken, som avslöjade hur butikschefen sökte en människas fasad, snarare än det inre. Det är inte konstigt: att vara professionell är att kunna spela en roll. Butikens affärsidé var ”vi bryr oss om”. Denna idé skulle bli en positiv ”upplevelse” för kunderna i mötet med personalen. En hälsning, en nick, ett leende, ett allmänt trevligt bemötande, skulle skänka denna ”upplevelse” av att man i affären ”bryr sig om människor”. Alltså sökte man en person som, inom citationstecken, ”tycker om människor”.

Om personal kan sökas på detta sätt, varför skulle vi inte efterfråga ”samarbetsvilliga”, ”trevliga” och ”pålitliga” robotkolleger i samma anda? Jag är övertygad om att liknande krav redan förekommer som specifikationer när robotar designas för olika funktioner på våra arbetsplatser.

Livet är inte alltid djupt och innerligt, vilket robotiseringen av arbetslivet speglar. Frågan är vad som händer när ytorna blir så vanliga att vi glömmer citationstecknen omkring de mekaniska fasaderna. Alla är inte lika tydliga på den punkten som den ”människoälskande” butikschefen.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Nyholm, S., Smids, J. Can a Robot Be a Good Colleague?. Sci Eng Ethics 26, 2169–2188 (2020). https://doi.org/10.1007/s11948-019-00172-6

Detta inlägg på engelska

Vi tar upp aktuella frågor

« Äldre inlägg Nyare inlägg »