De flesta av oss har ingen tendens att tro att en mänsklig spegelbild möjligen kan ha känslor bara för att spegelbilden har exakt samma ansiktsuttryck som människan framför spegeln. Till exempel har vi ingen tendens att vända oss till spegelbilden för att ställa frågor. Vi vänder oss till människan. Dessutom är det tydligt att spegelbilden inte rör sig själv, den speglar bara människans rörelser.

Situationen att använda ett AI-verktyg som Chat GPT eller Gemini har en annan karaktär. För det första riktar vi oss till AI-verktyget för att ställa frågor. Allt går ut på att göra precis det som vi aldrig skulle göra med våra spegelbilder: via AI-appen vänder vi oss till vad som ger intryck av att vara ”någon annan”. Vi ställer frågor till vad som framstår som ”den andre” och är nyfikna på svaret. Vidare upplever vi att vi kan diskutera svaret och be om förtydliganden på sätt som liknar mänskliga samtal. Slutligen kan vi häpna över svaret, som kan upplevas som mer eller mindre självständigt, intelligent och sensibelt. Det är svårt att undvika intrycket att vi chattar med en extremt servicevänlig, alert och kunnig person som vi bör visa hänsyn till, och som vi kan känna tacksamhet till.

Inte underligt då om frågan om artificiellt medvetande ter sig alltmer spännande att diskutera som en realistisk möjlighet. Faktum är att de stora språkmodeller som ”svarar” på våra frågor om allt möjligt överraskat många av AI-ingenjörerna bakom tekniken själva. Somliga anser rentav att AI i vissa fall redan idag kan sägas vara medveten. Några anger en procentsats för hur troligt det är att språkmodellen du chattar med är medveten. Andra föresätter sig att bygga medveten AI som en möjlighet i framtiden.

Kan man på ett vetenskapligt och rationellt sätt undersöka om ett AI-system verkligen kan sägas vara medvetet? Inte bara spekulera om saken? En av de stora utmaningarna här är att AI-systemen är tränade på människogenererade data för att återspegla mänskliga drag. Därför kan man inte använda de systemegenskaper som gör ett så emotionellt intryck på oss som evidens för att AI-systemet vi interagerar med har något slags känslor. Systemet vore felbyggt om det inte fick dig att häpna över likheten med att prata med en mer eller mindre självständig, intelligent och sensibel människa. Så hur kan man seriöst närma sig denna fantasieggande fråga, om systemet är konstruerat för att generera vad som lätt kunde tas som evidens för ett jakande svar?

Om detta skriver Michele Farisco idag på den engelska versionen av Etikbloggen. Han diskuterar fem strategier för att närma sig frågan om artificiellt medvetande på ett vetenskapligt och rationellt sätt, samt förslår en väg framåt. Om du vill ta frågan om artificiellt medvetande på allvar, hittar du hans blogginlägg här: How to tell if AI has feelings when it is designed to reflect human traits?

Personligen undrar jag om de systemegenskaper och sätt att chatta med AI som kan locka oss att tro att AI-verktyget möjligen är medvetet (eller snart blir det), även fick oss att ställa frågan. Liksom svar kan locka, kan frågor hägra. Att genomskåda våra hägrande frågor är lika angeläget som att inte förledas av de lockande svaren.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Vi söker klarhet

Dela inlägget