Hur ska framtidens AI-etik se ut?

11 juli, 2019

josepine-fernow-sienna-svKanske använder du Google Maps när du tar dig runt i en ny stad. Frågar Siri, Alexa eller Ok Google att spela din favoritlåt på Spotify, Kanske ber du din AI hitta något du vill köpa på Amazon, eller läsa upp ett meddelande från en kompis när du sitter i bilen. Bilen kanske har en semi-autonom adaptiv farthållare… För att det ska fungera behöver mjukvaran i de olika maskinerna samla in information: Data om dig, vart du är på väg, vilken musik du gillar, var och vad du brukar handla, vilka dina vänner är och vad ni pratar om. Och såklart väcker det frågan om du är villig att ge upp en del av ditt privatliv och en bit av din personliga frihet för att kunna dra nytta av fördelarna som den här typen av teknik har att erbjuda.

Det är svårt att förutse konsekvenserna av att utveckla och använda ny teknik. Myndigheter och organisationer sliter med att utvärdera etiken, juridiken kring tekniken. Och vilka konsekvenser den kan få för mänskliga rättigheter. Vi använder IT-system i forskning, inom industrin och i våra hem. Regleringen av systemen behöver fungera för alla som berörs av den. Vi vill skydda etiska värden och mänskliga rättigheter, möjliggöra forskning och utveckling, ta innovationer från universiteten till industrin, och se till att både stora och små företag kan utveckla sina affärsidéer. Och samtidigt se till att det finns acceptans i samhället för teknikutveckling.

EU tar det här på allvar och vill utveckla policy som bygger på forskning, empiriska data och konsultationer med de aktörer som är berörda. De senaste åren har EU investerat 10 miljoner Euro i tre forskningsprojekt som ska ta sig an etiken och mänskliga rättigheter kopplat till utvecklingen av nya digitala teknologier. Satsningen har skett genom Horizon2020-programmet och projekten PANELFIT, SHERPA och SIENNA.

Det första projektet, PANELFIT (som står för Participatory Approaches to a New Ethical and Legal Framework for ICT), kommer att utveckla riktlinjer för hur man ska hantera etiken och juridiken kring forskning och innovation på informations- och kommunikationsteknikområdet. Det andra projektet, SHERPA (som står för Shaping the ethical dimensions of Smart Information Systems (SIS) – A European Perspective), kommer att utveckla olika verktyg för att identifiera och hantera de etiska aspekterna av ”smarta” informationssystem. Det vill säga IT-system som kombinerar artificiell intelligens med analys av stora datamängder. Det tredje projektet, SIENNA (som står för Stakeholder-informed ethics for new technologies with high socio- economic and human rights impact), kommer att utveckla verktyg för forskningsetikkommittéer, etiska koder för olika yrkesgrupper, och bättre etiska och legala ramverk för AI och robotik, men också genetik och genomik och teknologi som kan användas för att förbättra människors egenskaper.

SSP-graphic

Alla projekten arbetar på olika sätt med att engagera både olika intressenter och allmänheten. De stödjer EUs vision om ansvarsfull innovation (det som på engelska kallas för RRI, eller Responsible Research and Innovation). Projekten samarbetar och SIENNA, SHERPA och PANELFIT har nyligen publicerat en gemensam artikel i tidskriften Orbit, där vi bjuder in alla er som på något sätt berörs av de här frågorna att prata med oss och på så sätt bidra till vårt arbete.

Vill du läsa mer? Rowena Rodrigues och Anaïs Resseguier har skrivit om nåra av frågorna som användandet av AI väcker på bloggen Ethics Dialogues (The underdog in the AI and ethical debate: human autonomy). Du kan också läsa mer om SIENNA-projektet i en tidigare post här på Etikbloggen (Ethics, human rights and responsible innovation).

Vill du veta mer om samarbetet mellan SIENNA, SHERPA och PANELFIT? I så fall hoppas jag att du vill läsa vår artikel i Orbit (Setting future ethical standards for ICT, Big Data, AI and robotics: The contribution of three European Projects), eller följa oss på YouTube och se en video från vårt gemensamma webbinarium den 20 maj i år (SIENNA, SHERPA, PANELFIT: Setting future ethical standards for ICT, Big Data, SIS, AI & Robotics).

Vill du veta hur SIENNA-projektet tänker omkring AI och robotik? Ladda ner infografiken i pdf-format här och läs vår state-of-the-art review för AI och robotik (rapport från SIENNA projektet).

c_721882-l_1-k_webb

Josepine Fernow

Detta inlägg på engelska

Vad är hållbarhet i framtiden? - Etikbloggen


Kan en robot lära sig tala?

29 maj, 2018

Pär SegerdahlDet finns självmodifierande datorprogram som ”lär sig” av framgång och misslyckande. Schackspelande datorer kan exempelvis bli bättre av att spela mot människor.

Skulle en liknande robot kunna lära sig tala? Om roboten får samma input som ett barn får, så borde det väl i princip vara möjligt?

Lägg märke till hur frågan växlar fram och tillbaka mellan människa och maskin. Vi säger att roboten lär sig. Vi säger att barnet får input. Vi talar roboten som om den vore ett barn. Vi talar om barnet som om det vore en robot. Sedan tar vi detta språkliga sicksackande på allvar som en fascinerande fråga, kanske till och med en stor forskningsuppgift.

En AI-expert och blivande far som drömde om forskningsuppgiften vidtog följande ambitiösa åtgärd. Han utrustade hela huset med kameror och mikrofoner. Syfte? Han ville veta exakt vilken typ av språklig input barnet får när det lär sig tala. I ett senare skede skulle han kunna ge en självmodifierande robot samma slags input och testa om den också lär sig tala.

Hur utföll projektet? Den personliga erfarenheten av barnet fick AI-experten att ifrågasätta hela projektet att lära en robot tala. Hur kunde en personlig erfarenhet leda till att ett till synes seriöst vetenskapligt projekt ifrågasattes?

Här kunde jag börja jollra om hur varmt sociala barn är jämfört med iskalla maskiner. Hur de lär sig i intima relationer till föräldrarna. Hur de nyfiket och med upptäckarglädje tar initiativet, i stället för att beräknande invänta input.

Problemet är att sådant joller från min sida får det att låta som om AI-experten enbart hade fel om robotar och barn. Att han saknade faktakoll, men nu vet bättre. Så enkelt är det inte. Idén om projektet förutsatte nämligen ett omedvetet språkligt sicksackande. Redan i frågan suddas gränserna mellan robotar och barn ut. Redan i frågan har man till hälften besvarat den!

Vi kan alltså inte nöja oss med att besvara frågan i rubriken med ett Nej. Vi måste tillbakavisa frågan som nonsens. Det är frågans bedrägliga sicksackande som får den att låta trovärdig; som något att utforska.

Att språkteknologiska lösningar alltmer använder självmodifierande program är däremot troligt. Men det är en annan fråga.

Pär Segerdahl

Beard, Alex. How babies learn – and why robots can’t compete. The Guardian, 3 April 2018

Detta inlägg på engelska

Vi är kritiska : www.etikbloggen.crb.uu.se


Förbered er på robottrams

26 februari, 2018

Pär SegerdahlI takt med att datorer och robotar tar över uppgifter som hittills bara kunnat utföras av människor, som att köra bil, kommer vi antagligen att utsättas för alltfler försåtliga språkliga glidningar från teknikens prästerskap.

Idén om intelligenta datorer, om medvetna robotar, är av någon anledning ohyggligt fascinerande. Vi ser oss själva som intelligenta och medvetna varelser. Tänk om robotar också kan vara intelligenta och medvetna! Faktum är att vi redan har sett dem (nästan): på bioduken. Snart ser vi dem kanske i verkligheten också (på riktigt)!

Tänk om artefakter som vi betraktat som dött mekaniska en vacker dag får livets karaktär! Tänk om vi skapar intelligent liv! Har vi tillräckligt många utropstecken för ett sådant mirakel?

Idén om intelligent liv i superdatorer kommer ofta tillsammans med idén att det finns ett test som kan avgöra om en superdator är intelligent. Det är lite som om jag ville göra idén om evighetsmaskiner trovärdig genom att tala om ett evighetsmaskin-test, uppfunnet av en supersmart matematiker på 1600-talet. Frågan om något är en evighetsmaskin är i princip avgörbar och alltså värd att beakta! Snart driver de kanske våra intelligenta, robotstyrda bilar!

Det finns en välkänd idé om ett intelligenstest för datorer, uppfunnet av den brittiske matematikern Alan Turing. Testet antas kunna avgöra om en maskin ”har vad vi har”: intelligens. Hur funkar testet? I princip handlar det om huruvida du kan skilja en dator från en människa – eller inte kan göra det.

Men det är väl ingen konst att skilja en dator från en människa? Nej, visst! Jag glömde säga att det finns dimridåer i testet, så att du varken ser, hör, känner, smakar eller luktar något! I princip skickar du in nedskrivna frågor i dimman. Ur dimman kommer nedskrivna svar. Men vem skrev/genererade svaren? Människa eller dator? Om du inte kan skilja de datorgenererade svaren från mänskliga svar – ja, då är det säkrast att du hukar, för då lurar en intelligent superdator i dimman!

Testet är alltså anpassat till datorn, som inte kan ha ett intelligent ansiktsuttryck eller se perplex ut, och som inte kan stöna ”Åh neej, vilken dum fråga!” Testet är anpassat till ett ingenjörsbegrepp om intelligent hantering av skrivna symbolsekvenser. Att den stackars testpersonen är en människa som inte alltid är säker på ”vem” som ”genererat” det skrivna svaret, döljer allt detta.

Dessa språkliga glidningar syns ovanligt tydligt i en artikel jag stött på via en ganska smart sökmotor. Artikeln frågar om maskiner kan vara medvetna. Och den svarar: Ja, och ett nytt Turing-test kan bevisa det.

Artikeln börjar med att hänryckas av medvetandet som ”vårt obeskrivliga och gåtfulla inre liv”. Medvetandet exemplifieras sedan med virveln av sensationer som väcks inom oss när vi äntligen återser vår käresta, hör ett underbart violinsolo, eller avnjuter en makalös måltid.

Efter denna extatiska hyllning av medvetandet, börjar anpassningarna av begreppet, så att det till slut bara är ett begrepp om maskinell informationshantering. Författarna ”visar” att medvetande inte förutsätter något samspel med omgivningen. Det förutsätter inte heller minnen. Medvetande förutsätter vidare inga känslor som ilska, rädsla eller glädje. Det förutsätter varken uppmärksamhet, självreflektion, språk eller förmåga att agera i världen.

Vad blir då kvar av medvetandet, som det nyss lät så läckert att ha? Svaret i artikeln är att medvetande har att göra med ”mängden integrerad information som en organism, eller en maskin, kan generera”.

Begreppet anpassas alltså gradvis till vad som skulle bevisas. Det blir slutligen något som föga överraskande kan karaktärisera en datamaskin. Efter att vi svalt denna anpassning, är det meningen att vi i slutet av artikeln återigen ska häpna och känna hänryckning över att en maskin kan ha ”detta gåtfulla inre liv” som vi har, medvetande: ”Åh, vilket utsökt violinsolo, för att inte tala om sniglarna, åh så ljuvligt att återses så här!”

Det nya Turing-test som författarna föreställer sig är såvitt jag förstår ett slags bildidentifierings-test: Kan en dator identifiera innehållet i en bild som ”ett rån mot ett affärsbiträde”? En medveten dator ska kunna identifiera bildinnehåll lika bra som en människa. Jag gissar att tanken är att uppgiften kräver supermycket integrerad information. Inga enkla tumregler av typen man + pistol + byggnad + rädd kund = rån. Det måste handla om så himla mycket integrerad information att datorn verkligen alldeles själv fattar att det är ett rån (och inte en femåring som leker med en leksakspistol).

Tron på testet förutsätter alltså att vi svalt anpassningarna av begreppet medvetande och börjat hänryckas av superstora mängder integrerad information som: ”Vårt obeskrivliga och gåtfulla inre liv”.

Den här typen av försåtliga språkliga glidningar kommer att attrahera oss ännu mer i takt med att robottekniken utvecklas. Tänk dig en android med mimik och röst som kan uttrycka intelligens och som kan stöna inför dumma frågor. Då har vi väl en intelligent och medveten maskin!

Eller bara en bedrägligare dimridå, en vandrande interaktiv superbioduk?

Pär Segerdahl

Detta inlägg på engelska

Vi söker klarhet - www.etikbloggen.crb.uu.se


%d bloggare gillar detta: