En forskningsblogg från Centrum för forsknings- & bioetik (CRB)

Etikett: robotar

Hotad av superintelligenta maskiner

Det finns en rädsla att vi snart skapar artificiell intelligens (AI) som är så superintelligent, att vi inte längre kan kontrollera den. Den gör oss människor till sina slavar. Om vi försöker koppla ur nätverkskabeln så hoppar superintelligensen över till ett annat nätverk, eller så beordrar den en robot att döda oss. Alternativt så hotar den att spränga en hel stad i bitar, om vi tar ett enda steg mot nätverksuttaget.

Jag slås emellertid av hur denna självhävdande artificiella intelligens liknar en sida av vår egen mänskliga intelligens. En viss typ av mänsklig intelligens har redan tagit över. Den styr våra tankar när vi känner oss hotade av superintelligent AI och överväger smarta motåtgärder för att kontrollera den. Ett typiskt drag i denna självhävdande intelligens är just detta att den aldrig ser sig själv som problemet. Alla hot är externa och måste neutraliseras. Vi ska överleva, kosta vad det vill för andra. Jag först! Vårt parti först! Vi betraktar världen med misstro: den tycks fylld av hot mot oss.

I denna självcentrerade anda utpekas AI som nytt främmande hot: okontrollerbara maskiner som sätter sig själva först. Alltså måste vi övervaka maskinerna och bygga smarta försvarssystem som kontrollerar dem. De borde vara våra slavar! Mänskligheten först! Ser du hur vi beter oss lika blint självhävdande som vi fantiserar att supersmart AI skulle göra? En kapprustning i småsinthet.

Kan du se mönstret hos dig själv? Om du kan göra det, så har du upptäckt den andra sidan av den mänskliga intelligensen. Du har upptäckt den självgranskande intelligens som alltid livnär filosofin när den ödmjukt söker orsaken till våra misslyckanden hos oss själva. Paradoxen är: när vi försöker kontrollera världen, så fångas vi i småsinthet; när vi granskar oss själva, så öppnas vi för världen.

Linnés första försök att artbestämma människan var faktiskt inte Homo sapiens, som om vi kunde hävda vår visdom. Linnés första försök att artbestämma oss var en ödmjuk uppmaning till självgranskning:

HOMO. Nosce te ipsum.

På svenska: Människa, känn dig själv!

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Detta inlägg på engelska

Vi tänker om tänkande

Etiskt ansvarsfull robotutveckling

Utveckling av nya tekniker hämtar ibland inspiration från naturen. Hur löser växterna och djuren problemet? Ett exempel är dagens robotik, där man vill utveckla bättre robotar på basis av vad neurovetenskapen vet om hjärnan. Hur löser hjärnan problemet?

Neurovetenskapen ser i sin tur nya möjligheter att testa sina hypoteser om hjärnan genom att simulera dem i robotar. Kanske kan man simulera hur områden i hjärnan samverkar vid Parkinsons sjukdom, för att bättre förstå hur patienters rörelseproblem orsakas.

Neurovetenskapligt inspirerad robotik benämns neurorobotik. Den befinner sig ännu i ett tidigt stadium, vilket gör neurorobotik till ett utmärkt område att vara etiskt och socialt mer förutseende än vi varit vid tidigare teknikutvecklingar. Det vill säga, vi kan redan nu börja identifiera möjliga etiska och sociala problem kring teknikutvecklingen och motverka dem innan de uppkommer. Vi kan exempelvis inte blunda för genus- och jämställdhetsfrågor, utan måste kontinuerligt reflektera över hur våra egna sociala och kulturella mönster återspeglas i tekniken vi utvecklar. Vi behöver öppna våra ögon för våra egna blinda fläckar!

Om detta etiska skifte i teknikutvecklingen kan du läsa mer om i en artikel i Science and Engineering Ethics (med Manuel Guerrero från CRB som en av författarna). Skiftet kallas ansvarsfull forskning och innovation och exemplifieras i artikeln med det Europeiska forskningsprojektet Human Brain Project.

Inom detta projekt samarbetar inte bara neurovetare och teknikexperter för att utveckla neurorobotiken. Även humanister och samhällsvetare ingår i samarbetet. Artikeln är själv ett exempel på detta breda samarbete. Emellertid är även implementeringen av ansvarsfull forskning och utveckling i ett tidigt stadium. Man behöver finna konkreta arbetsformer som gör det möjligt att inte bara förutse etiska och sociala problem och reflektera över dem, utan även agera och ingripa för att i praktiken påverka utvecklingen.

Från att ha varit ett ramverk kring forskning och utveckling, tycks etiken nu integreras alltmer i forskningen och utvecklingen. Läs artikeln om du vill fundera om denna övergång till en mer reflekterande och ansvarsfull teknikutveckling.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Aicardi, C., Akintoye, S., Fothergill, B.T. et al. Ethical and Social Aspects of Neurorobotics. Sci Eng Ethics 26, 2533–2546 (2020). https://doi.org/10.1007/s11948-020-00248-8

Detta inlägg på engelska

Vad är hållbarhet i framtiden?

”Samarbetsvillig”, ”trevlig” och ”pålitlig” robotkollega sökes

Robotar får alltfler funktioner på våra arbetsplatser. Logistikrobotar hämtar varorna på lagret. Militärrobotar desarmerar minorna. Skötarrobotar lyfter patienterna och kirurgiska robotar utför operationerna. Allt detta i samspel med mänsklig personal, som tycks ha fått sköna nya robotkolleger på sina arbetsplatser.

Med tanke på att somliga behandlar robotarna som bra kolleger och att bra kolleger bidrar till god arbetsmiljö, blir det rimligt att fråga: Kan en robot vara en bra kollega? Frågan undersöks av Sven Nyholm och Jilles Smids i tidskriften Science and Engineering Ethics.

Författarna behandlar frågan begreppsligt. Först föreslår de kriterier för vad en bra kollega är. Därefter frågar de om robotar kan leva upp till kraven. Frågan om en robot kan vara en bra kollega är intressant, eftersom den visar sig vara mer realistisk än vi först tror. Vi kräver nämligen inte lika mycket av en kollega som av en vän eller en livspartner, resonerar författarna. Många av kraven på bra kolleger har att göra med deras yttre beteende i specifika situationer på arbetsplatsen, snarare än med hur de tänker, känner och är som människor i livets många sammanhang. Ibland är en bra kollega bara någon som får jobbet gjort!

Vilka kriterier nämns i artikeln? Här återger jag med egna ord författarnas lista, som de framhåller inte är menad att vara fullständig. En bra kollega samarbetar för att uppnå mål. En bra kollega kan småprata och göra arbetet trevligt. En bra kollega mobbar inte utan behandlar andra respektfullt. En bra kollega stöttar efter behov. En bra kollega lär sig och utvecklas med andra. En bra kollega är alltid på plats och är pålitlig. En bra kollega anpassar sig efter hur andra mår och delar arbetsrelaterade värden. En bra kollega får gärna socialisera vänskapligt.

Författarna menar att många robotar redan idag lever upp till flera av dessa idéer om vad en bra kollega är, och att robotarna på våra arbetsplatser snart är ännu bättre kolleger. Kraven är, som sagt, lägre än vi först tror, eftersom de inte handlar så mycket om kollegans inre mänskliga liv, utan mer om pålitligt uppvisade beteenden i specifika arbetssituationer. Det är inte så svårt att tänka sig kriterierna omvandlade till specifikationer till robotutvecklarna. Ungefär som i en jobbannons, som listar beteenden som den sökande bör kunna uppvisa.

En butikschef för en mataffär i denna stad annonserade efter personal. Annonsen innehöll märkliga citationstecken, som avslöjade hur butikschefen sökte en människas fasad, snarare än det inre. Det är inte konstigt: att vara professionell är att kunna spela en roll. Butikens affärsidé var ”vi bryr oss om”. Denna idé skulle bli en positiv ”upplevelse” för kunderna i mötet med personalen. En hälsning, en nick, ett leende, ett allmänt trevligt bemötande, skulle skänka denna ”upplevelse” av att man i affären ”bryr sig om människor”. Alltså sökte man en person som, inom citationstecken, ”tycker om människor”.

Om personal kan sökas på detta sätt, varför skulle vi inte efterfråga ”samarbetsvilliga”, ”trevliga” och ”pålitliga” robotkolleger i samma anda? Jag är övertygad om att liknande krav redan förekommer som specifikationer när robotar designas för olika funktioner på våra arbetsplatser.

Livet är inte alltid djupt och innerligt, vilket robotiseringen av arbetslivet speglar. Frågan är vad som händer när ytorna blir så vanliga att vi glömmer citationstecknen omkring de mekaniska fasaderna. Alla är inte lika tydliga på den punkten som den ”människoälskande” butikschefen.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Nyholm, S., Smids, J. Can a Robot Be a Good Colleague?. Sci Eng Ethics 26, 2169–2188 (2020). https://doi.org/10.1007/s11948-019-00172-6

Detta inlägg på engelska

Vi tar upp aktuella frågor

Vad fordras av en etik för artificiell intelligens?

Jag lyfte nyligen fram kritik av etiken kring området artificiell intelligens (AI). En etik som kan hantera utmaningarna som AI ställer oss inför fordrar mer än bara vackert formulerade etiska principer, värdeord och riktlinjer. Vad exakt krävs av AI-etiken?

Michele Farisco, Kathinka Evers och Arleen Salles tar sig an frågan i tidskriften Science and Engineering Ethics. För dem är etik inte främst offentligt deklarerade principer och riktlinjer. Etik är snarare ett ständigt pågående tankearbete: levande etisk reflektion om AI. Deras fråga är alltså inte vad som krävs av ett etiskt ramverk byggt omkring AI. Frågan är vad som krävs av fördjupande etisk reflektion om AI.

Författarna framhåller begreppsanalys som väsentlig för all etisk reflektion om AI. En av de stora svårigheterna är nämligen att vi inte riktigt vet vad vi talar om! Vad är intelligens? Vad är skillnaden mellan artificiell och naturlig intelligens? Hur ska vi förstå relationen mellan intelligens och medvetande? Mellan intelligens och känslor? Mellan intelligens och insiktsfullhet?

Etiska problem om AI kan vara såväl praktiska som teoretiska, påpekar artikelförfattarna. De beskriver två praktiska och två teoretiska problem att hålla uppsikt på. Det ena praktiska problemet handlar om användande av AI i verksamheter som fordrar emotionella förmågor som AI saknar. Empati ger människor förståelse för andra människors behov. Därför bör avsaknaden av emotionellt engagemang hos AI särskilt uppmärksammas när vi överväger att använda AI i verksamheter såsom barn- och äldreomsorg. Det andra praktiska problemet handlar om användande av AI i verksamheter som fordrar en insiktsfullhet som AI saknar. Intelligens handlar inte bara om att reagera på input från omgivningen. Ibland behövs en mer förutseende förståelse av omvärlden: en förmåga att gå bortom den givna erfarenheten och se mindre uppenbara möjligheter. Gråt kan uttrycka smärta, glädje och mycket mer, men AI förutser inte så lätt de mindre uppenbara möjligheterna.

Även två teoretiska problem nämns i artikeln. Det första är huruvida AI i framtiden kan få moraliskt relevanta egenskaper som autonomi, intressen och preferenser. Det andra problemet är om alltmer avancerad AI kan tänkas påverka vår mänskliga självförståelse och skapa oro och osäkerhet om vår identitet. Dessa problem fordrar utan tvekan försiktig analys, för vet vi ens vad vi undrar? I filosofin behöver vi ofta klargöra våra frågor under filosoferandets gång.

Artikeln betonar särskilt ett krav på etisk analys av AI. Den bör samvetsgrant beakta moraliskt relevanta förmågor som AI saknar: förmågor som behövs för att tillfredsställa viktiga mänskliga behov. Kan vi låta en gullig dagisrobot ”trösta” barnen när de skriker av skratt eller när de slår sig så allvarligt att de behöver vård?

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Farisco, M., Evers, K. & Salles, A. Towards establishing criteria for the ethical analysis of Artificial Intelligence. Science and Engineering Ethics (2020). https://doi.org/10.1007/s11948-020-00238-w

Detta inlägg på engelska

Vi vill ha djup

Etik som förnyad klarhet om nya situationer

En artikel i tidskriften Big Data & Society kritiserar skarpt den form av etik som kommit att dominera forskning och utveckling inom artificiell intelligens (AI). Det handlar om samma ramverkstolkning av etiken som du kunde läsa om på Etikbloggen förra veckan. Men med en oroväckande skillnad. Snarare än att fungera som staket som sätter nödvändiga gränser för utvecklingen, riskerar ramverket att användas som etisk täckmantel av AI-företag, som vill undvika juridisk reglering av området. Genom att hänvisa till etisk självreglering – vackra deklarationer av principer, värdeord och riktlinjer – hoppas man kunna undvika juridisk reglering, som verkligen kunde sätta viktiga gränser för AI.

Problemet med AI-etik som ”mjuk etiklagstiftning” är inte bara att den kan användas för att undvika nödvändig juridisk reglering av området. Problemet är framförallt, menar SIENNA-forskarna som skrivit artikeln, att den formen av etik inte hjälper oss att tänka klart om nya situationer. Vad vi behöver, menar de, är en etik som ständigt förnyar vår blick för det nya. Det är nämligen så att AI ständigt ställer oss inför nya situationer: nya användingar av robotar, nya möjligheter för regeringar och företag att övervaka människor, nya former av teknikberoende, nya risker för diskriminering, samt utmaningar som vi kanske inte så lätt förutser.

Författarna betonar att en sådan ögonöppnande AI-etik kräver nära samarbete med samhällsvetenskaperna. Det är naturligtvis riktigt. Själv vill jag betona att en etik som förnyar vår blick för det nya, även måste vara filosofisk i ordets djupaste mening. För att klart se det nya och oväntade, kan du inte ens vila i din professionella kompetens, med sina etablerade metoder, teorier och begrepp. Du måste ifrågasätta dina egna intellektuella ramar. Du måste tänka själv.

Läs den redan uppmärksammade artikeln, som jag upplevde som frisk fläkt.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Anaïs Rességuier, Rowena Rodrigues. 2020. AI ethics should not remain toothless! A call to bring back the teeth of ethics. Big Data & Society

Detta inlägg på engelska

Vi söker klarhet

Vad är en moralisk maskin?

Jag läste nyss en på många sätt klargörande artikel om så kallade moraliska robotar. Filosofen John-Stewart Gordon varnar för fallgropar som icke-etiker (robotforskare och AI-programmerare) kan ramla ned i när de försöker konstruera moraliska maskiner. Helt enkelt för att de saknar etisk expertis.

Den första fallgropen är de rena nybörjarmisstagen. Man kanske naivt identifierar etik med vissa berömda bioetiska principer, som om etik inte kunde vara något annat än så kallad principlism. Eller så tror man att datorsystem genom automatiserad analys av enskilda fall kan ”lära sig” etiska principer och ”bli moraliska”. Som om moral kunde upptäckas erfarenhetsmässigt eller empiriskt.

Den andra utmaningen har att göra med att etikexperterna själva är oeniga om den ”rätta” moralteorin. Det finns flera konkurrerande etiska teorier (konsekvensetik, pliktetik, dygdeetik med mera). Vilken moralisk rättningsmall ska programmerarna använda när datorer ska fås att lösa moraliska problem och dilemman som uppkommer i olika verksamheter? (Tänk på robotbilar i svåra trafiksituationer.)

Den första fallgropen kan åtgärdas med mer kunskap i etik. Hur hanterar vi den andra? Ska programmerare få välja moralteori fritt som det passar dem? Ska vi tillåta såväl konsekvensetiska som pliktetiska robotbilar på våra gator?

John-Stewart Gordons förslag är att så kallad maskinetik bör fokusera på överensstämmelser mellan olika moralteorier angående vad man inte får göra. Robotar bör förses med en bindande lista på sådant som måste undvikas som omoraliskt. Med den inskränkningen får robotarna sedan spelrum att använda och balansera mångfalden av moralteorier, för att på olika sätt lösa moraliska problem.

Sammanfattningsvis bör robotforskare och AI-programmerare konsultera etikexperterna, så att de undviker nybörjarmisstagen och förstår de metodologiska problem som uppkommer när inte ens experterna på området kan enas om den rätta moralteorin.

Allt detta förefaller både klokt och klargörande på ett plan. Samtidigt känner jag mig uppriktigt förvirrad kring själva idén om ”moraliska maskiner” (även om artikeln inte diskuterar idén, utan fokuserar på etiska utmaningar för ingenjörerna). Vad betyder idén? Inte så att jag betvivlar att artificiell intelligens kan designas enligt etiska krav. Vi kanske inte vill att robotbilar ska undvika kollisioner i stadstrafik genom att svänga in på trottoarer där många människor promenerar. I den meningen kan det finnas etisk programvara, ungefär som det finns etiska aktiefonder. Vi kunde tala om moraliska och omoraliska robotbilar, lika självklart som vi talar om etiska och oetiska fonder.

Ändå känner jag mig som sagt osäker. Varför? Jag inledde med att skriva ”så kallade” moraliska robotar. Det gjorde jag för att jag inte är bekväm med att tala om moraliska maskiner, men är öppen för förslag på vad det kan betyda. Jag tror att vad som förvirrar mig är att moraliska maskiner omnämns utan distanserande uttryck, som om alla egentligen borde veta vad det måste betyda. Etikexperter är oense om den ”rätta” moralteorin. Men de tycks eniga om att moralteori bestämmer vad ett moraliskt beslut är, ungefär som språkläran bestämmer vad en grammatisk mening är. Med den tilltron till moralteori behöver man inte fundera över vad en moralisk maskin är. Det är helt enkelt en maskin som fattar beslut enligt accepterad moralteori. Men fattar maskiner beslut i samma mening som människor gör det?

Kanske handlar det om betoning. Vi talar om etiska fonder utan att känna yrsel inför att en aktiefond kan vara etisk (”Kan de vara humoristiska också?”). Det finns ingen mytologisk betoning i talet om etiska fonder. På samma sätt kan vi tala om etiska robotbilar utan att känna yrsel som inför något övernaturligt. Men i den filosofiska diskussionen om maskinetik omnämns ibland moraliska maskiner på ett mytologiskt sätt, tycks det mig. Som om en kentaur, en maskin-människa, snart ser dagens ljus. Samtidigt ska vi inte känna yrsel inför dessa sköna nya kentaurer, eftersom experterna kan bokstavera exakt vad de talar om. Med alla rättningsmallar i händerna behöver de inga distanserande uttryck!

Jag misstänker att även etisk expertis kan vara en filosofisk fallgrop när vi intellektuellt närmar oss så kallade moraliska maskiner. Expertattityden kan tysta de förvirrande frågor som vi alla behöver tid att reda ut, när uppriktiga tvivel gör uppror mot anspråket att veta.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Gordon, J. Building Moral Robots: Ethical Pitfalls and Challenges. Sci Eng Ethics 26, 141–157 (2020). https://doi.org/10.1007/s11948-019-00084-5

Detta inlägg på engelska

Vi ställer frågor

Hur ska framtidens AI-etik se ut?

josepine-fernow-sienna-svKanske använder du Google Maps när du tar dig runt i en ny stad. Frågar Siri, Alexa eller Ok Google att spela din favoritlåt på Spotify, Kanske ber du din AI hitta något du vill köpa på Amazon, eller läsa upp ett meddelande från en kompis när du sitter i bilen. Bilen kanske har en semi-autonom adaptiv farthållare… För att det ska fungera behöver mjukvaran i de olika maskinerna samla in information: Data om dig, vart du är på väg, vilken musik du gillar, var och vad du brukar handla, vilka dina vänner är och vad ni pratar om. Och såklart väcker det frågan om du är villig att ge upp en del av ditt privatliv och en bit av din personliga frihet för att kunna dra nytta av fördelarna som den här typen av teknik har att erbjuda.

Det är svårt att förutse konsekvenserna av att utveckla och använda ny teknik. Myndigheter och organisationer sliter med att utvärdera etiken, juridiken kring tekniken. Och vilka konsekvenser den kan få för mänskliga rättigheter. Vi använder IT-system i forskning, inom industrin och i våra hem. Regleringen av systemen behöver fungera för alla som berörs av den. Vi vill skydda etiska värden och mänskliga rättigheter, möjliggöra forskning och utveckling, ta innovationer från universiteten till industrin, och se till att både stora och små företag kan utveckla sina affärsidéer. Och samtidigt se till att det finns acceptans i samhället för teknikutveckling.

EU tar det här på allvar och vill utveckla policy som bygger på forskning, empiriska data och konsultationer med de aktörer som är berörda. De senaste åren har EU investerat 10 miljoner Euro i tre forskningsprojekt som ska ta sig an etiken och mänskliga rättigheter kopplat till utvecklingen av nya digitala teknologier. Satsningen har skett genom Horizon2020-programmet och projekten PANELFIT, SHERPA och SIENNA.

Det första projektet, PANELFIT (som står för Participatory Approaches to a New Ethical and Legal Framework for ICT), kommer att utveckla riktlinjer för hur man ska hantera etiken och juridiken kring forskning och innovation på informations- och kommunikationsteknikområdet. Det andra projektet, SHERPA (som står för Shaping the ethical dimensions of Smart Information Systems (SIS) – A European Perspective), kommer att utveckla olika verktyg för att identifiera och hantera de etiska aspekterna av ”smarta” informationssystem. Det vill säga IT-system som kombinerar artificiell intelligens med analys av stora datamängder. Det tredje projektet, SIENNA (som står för Stakeholder-informed ethics for new technologies with high socio- economic and human rights impact), kommer att utveckla verktyg för forskningsetikkommittéer, etiska koder för olika yrkesgrupper, och bättre etiska och legala ramverk för AI och robotik, men också genetik och genomik och teknologi som kan användas för att förbättra människors egenskaper.

SSP-graphic

Alla projekten arbetar på olika sätt med att engagera både olika intressenter och allmänheten. De stödjer EUs vision om ansvarsfull innovation (det som på engelska kallas för RRI, eller Responsible Research and Innovation). Projekten samarbetar och SIENNA, SHERPA och PANELFIT har nyligen publicerat en gemensam artikel i tidskriften Orbit, där vi bjuder in alla er som på något sätt berörs av de här frågorna att prata med oss och på så sätt bidra till vårt arbete.

Vill du läsa mer? Rowena Rodrigues och Anaïs Resseguier har skrivit om nåra av frågorna som användandet av AI väcker på bloggen Ethics Dialogues (The underdog in the AI and ethical debate: human autonomy). Du kan också läsa mer om SIENNA-projektet i en tidigare post här på Etikbloggen (Ethics, human rights and responsible innovation).

Vill du veta mer om samarbetet mellan SIENNA, SHERPA och PANELFIT? I så fall hoppas jag att du vill läsa vår artikel i Orbit (Setting future ethical standards for ICT, Big Data, AI and robotics: The contribution of three European Projects), eller följa oss på YouTube och se en video från vårt gemensamma webbinarium den 20 maj i år (SIENNA, SHERPA, PANELFIT: Setting future ethical standards for ICT, Big Data, SIS, AI & Robotics).

Vill du veta hur SIENNA-projektet tänker omkring AI och robotik? Ladda ner infografiken i pdf-format här och läs vår state-of-the-art review för AI och robotik (rapport från SIENNA projektet).

c_721882-l_1-k_webb

Josepine Fernow

Detta inlägg på engelska

Vad är hållbarhet i framtiden? - Etikbloggen

Kan en robot lära sig tala?

Pär SegerdahlDet finns självmodifierande datorprogram som ”lär sig” av framgång och misslyckande. Schackspelande datorer kan exempelvis bli bättre av att spela mot människor.

Skulle en liknande robot kunna lära sig tala? Om roboten får samma input som ett barn får, så borde det väl i princip vara möjligt?

Lägg märke till hur frågan växlar fram och tillbaka mellan människa och maskin. Vi säger att roboten lär sig. Vi säger att barnet får input. Vi talar roboten som om den vore ett barn. Vi talar om barnet som om det vore en robot. Sedan tar vi detta språkliga sicksackande på allvar som en fascinerande fråga, kanske till och med en stor forskningsuppgift.

En AI-expert och blivande far som drömde om forskningsuppgiften vidtog följande ambitiösa åtgärd. Han utrustade hela huset med kameror och mikrofoner. Syfte? Han ville veta exakt vilken typ av språklig input barnet får när det lär sig tala. I ett senare skede skulle han kunna ge en självmodifierande robot samma slags input och testa om den också lär sig tala.

Hur utföll projektet? Den personliga erfarenheten av barnet fick AI-experten att ifrågasätta hela projektet att lära en robot tala. Hur kunde en personlig erfarenhet leda till att ett till synes seriöst vetenskapligt projekt ifrågasattes?

Här kunde jag börja jollra om hur varmt sociala barn är jämfört med iskalla maskiner. Hur de lär sig i intima relationer till föräldrarna. Hur de nyfiket och med upptäckarglädje tar initiativet, i stället för att beräknande invänta input.

Problemet är att sådant joller från min sida får det att låta som om AI-experten enbart hade fel om robotar och barn. Att han saknade faktakoll, men nu vet bättre. Så enkelt är det inte. Idén om projektet förutsatte nämligen ett omedvetet språkligt sicksackande. Redan i frågan suddas gränserna mellan robotar och barn ut. Redan i frågan har man till hälften besvarat den!

Vi kan alltså inte nöja oss med att besvara frågan i rubriken med ett Nej. Vi måste tillbakavisa frågan som nonsens. Det är frågans bedrägliga sicksackande som får den att låta trovärdig; som något att utforska.

Att språkteknologiska lösningar alltmer använder självmodifierande program är däremot troligt. Men det är en annan fråga.

Pär Segerdahl

Beard, Alex. How babies learn – and why robots can’t compete. The Guardian, 3 April 2018

Detta inlägg på engelska

Vi är kritiska : www.etikbloggen.crb.uu.se