Hur ska framtidens AI-etik se ut?

11 juli, 2019

josepine-fernow-sienna-svKanske använder du Google Maps när du tar dig runt i en ny stad. Frågar Siri, Alexa eller Ok Google att spela din favoritlåt på Spotify, Kanske ber du din AI hitta något du vill köpa på Amazon, eller läsa upp ett meddelande från en kompis när du sitter i bilen. Bilen kanske har en semi-autonom adaptiv farthållare… För att det ska fungera behöver mjukvaran i de olika maskinerna samla in information: Data om dig, vart du är på väg, vilken musik du gillar, var och vad du brukar handla, vilka dina vänner är och vad ni pratar om. Och såklart väcker det frågan om du är villig att ge upp en del av ditt privatliv och en bit av din personliga frihet för att kunna dra nytta av fördelarna som den här typen av teknik har att erbjuda.

Det är svårt att förutse konsekvenserna av att utveckla och använda ny teknik. Myndigheter och organisationer sliter med att utvärdera etiken, juridiken kring tekniken. Och vilka konsekvenser den kan få för mänskliga rättigheter. Vi använder IT-system i forskning, inom industrin och i våra hem. Regleringen av systemen behöver fungera för alla som berörs av den. Vi vill skydda etiska värden och mänskliga rättigheter, möjliggöra forskning och utveckling, ta innovationer från universiteten till industrin, och se till att både stora och små företag kan utveckla sina affärsidéer. Och samtidigt se till att det finns acceptans i samhället för teknikutveckling.

EU tar det här på allvar och vill utveckla policy som bygger på forskning, empiriska data och konsultationer med de aktörer som är berörda. De senaste åren har EU investerat 10 miljoner Euro i tre forskningsprojekt som ska ta sig an etiken och mänskliga rättigheter kopplat till utvecklingen av nya digitala teknologier. Satsningen har skett genom Horizon2020-programmet och projekten PANELFIT, SHERPA och SIENNA.

Det första projektet, PANELFIT (som står för Participatory Approaches to a New Ethical and Legal Framework for ICT), kommer att utveckla riktlinjer för hur man ska hantera etiken och juridiken kring forskning och innovation på informations- och kommunikationsteknikområdet. Det andra projektet, SHERPA (som står för Shaping the ethical dimensions of Smart Information Systems (SIS) – A European Perspective), kommer att utveckla olika verktyg för att identifiera och hantera de etiska aspekterna av ”smarta” informationssystem. Det vill säga IT-system som kombinerar artificiell intelligens med analys av stora datamängder. Det tredje projektet, SIENNA (som står för Stakeholder-informed ethics for new technologies with high socio- economic and human rights impact), kommer att utveckla verktyg för forskningsetikkommittéer, etiska koder för olika yrkesgrupper, och bättre etiska och legala ramverk för AI och robotik, men också genetik och genomik och teknologi som kan användas för att förbättra människors egenskaper.

SSP-graphic

Alla projekten arbetar på olika sätt med att engagera både olika intressenter och allmänheten. De stödjer EUs vision om ansvarsfull innovation (det som på engelska kallas för RRI, eller Responsible Research and Innovation). Projekten samarbetar och SIENNA, SHERPA och PANELFIT har nyligen publicerat en gemensam artikel i tidskriften Orbit, där vi bjuder in alla er som på något sätt berörs av de här frågorna att prata med oss och på så sätt bidra till vårt arbete.

Vill du läsa mer? Rowena Rodrigues och Anaïs Resseguier har skrivit om nåra av frågorna som användandet av AI väcker på bloggen Ethics Dialogues (The underdog in the AI and ethical debate: human autonomy). Du kan också läsa mer om SIENNA-projektet i en tidigare post här på Etikbloggen (Ethics, human rights and responsible innovation).

Vill du veta mer om samarbetet mellan SIENNA, SHERPA och PANELFIT? I så fall hoppas jag att du vill läsa vår artikel i Orbit (Setting future ethical standards for ICT, Big Data, AI and robotics: The contribution of three European Projects), eller följa oss på YouTube och se en video från vårt gemensamma webbinarium den 20 maj i år (SIENNA, SHERPA, PANELFIT: Setting future ethical standards for ICT, Big Data, SIS, AI & Robotics).

Vill du veta hur SIENNA-projektet tänker omkring AI och robotik? Ladda ner infografiken i pdf-format här och läs vår state-of-the-art review för AI och robotik (rapport från SIENNA projektet).

c_721882-l_1-k_webb

Josepine Fernow

Detta inlägg på engelska

Vad är hållbarhet i framtiden? - Etikbloggen


Kan en robot lära sig tala?

29 maj, 2018

Pär SegerdahlDet finns självmodifierande datorprogram som ”lär sig” av framgång och misslyckande. Schackspelande datorer kan exempelvis bli bättre av att spela mot människor.

Skulle en liknande robot kunna lära sig tala? Om roboten får samma input som ett barn får, så borde det väl i princip vara möjligt?

Lägg märke till hur frågan växlar fram och tillbaka mellan människa och maskin. Vi säger att roboten lär sig. Vi säger att barnet får input. Vi talar roboten som om den vore ett barn. Vi talar om barnet som om det vore en robot. Sedan tar vi detta språkliga sicksackande på allvar som en fascinerande fråga, kanske till och med en stor forskningsuppgift.

En AI-expert och blivande far som drömde om forskningsuppgiften vidtog följande ambitiösa åtgärd. Han utrustade hela huset med kameror och mikrofoner. Syfte? Han ville veta exakt vilken typ av språklig input barnet får när det lär sig tala. I ett senare skede skulle han kunna ge en självmodifierande robot samma slags input och testa om den också lär sig tala.

Hur utföll projektet? Den personliga erfarenheten av barnet fick AI-experten att ifrågasätta hela projektet att lära en robot tala. Hur kunde en personlig erfarenhet leda till att ett till synes seriöst vetenskapligt projekt ifrågasattes?

Här kunde jag börja jollra om hur varmt sociala barn är jämfört med iskalla maskiner. Hur de lär sig i intima relationer till föräldrarna. Hur de nyfiket och med upptäckarglädje tar initiativet, i stället för att beräknande invänta input.

Problemet är att sådant joller från min sida får det att låta som om AI-experten enbart hade fel om robotar och barn. Att han saknade faktakoll, men nu vet bättre. Så enkelt är det inte. Idén om projektet förutsatte nämligen ett omedvetet språkligt sicksackande. Redan i frågan suddas gränserna mellan robotar och barn ut. Redan i frågan har man till hälften besvarat den!

Vi kan alltså inte nöja oss med att besvara frågan i rubriken med ett Nej. Vi måste tillbakavisa frågan som nonsens. Det är frågans bedrägliga sicksackande som får den att låta trovärdig; som något att utforska.

Att språkteknologiska lösningar alltmer använder självmodifierande program är däremot troligt. Men det är en annan fråga.

Pär Segerdahl

Beard, Alex. How babies learn – and why robots can’t compete. The Guardian, 3 April 2018

Detta inlägg på engelska

Vi är kritiska : www.etikbloggen.crb.uu.se


%d bloggare gillar detta: