Ja, så kunde man betrakta vissa former av artificiell intelligens, som föremål som beter sig mänskligt. Det krävs dock inte mycket för att vi människor ska personifiera icke-levande ting. Vi blir arga på bilen som inte startar eller på vädret som inte låter oss ha picknick, som om de var emot oss. Barn personifierar spontant enkla leksaker och kan beskriva relationen mellan geometriska former som ”den lilla cirkeln försöker fly från den stora triangeln”.

Vi stöter allt oftare på artificiell intelligens som designats för att ge mänskligt intryck, exempelvis i form av chattbottar för kundservice när du handlar online. Sådan AI kan rentav utrustas med personliga karaktärsdrag, en persona som blir en viktig del av kundupplevelsen. Chattbotten kan föreslå ännu fler produkter åt dig och effektivt generera merförsäljning utifrån data som insamlas om dig. Inte konstigt att intresset för att utveckla människolik AI är enormt. Delvis har det naturligtvis med användarvänlighet att göra, men samtidigt kommer en AI som du finner personligt attraktiv att fånga din uppmärksamhet. Du kanske rentav fattar tycke för chattbotten eller känner att det vore oartigt att stänga av. Under tiden som chattbotten har din uppmärksamhet exponeras du för alltmer anpassad reklam och får alltfler paketerbjudanden.

Detta och mycket mer kan du läsa om i en artikel om mänskliga relationer till AI designad för att ge ett mänskligt intryck: Human/AI relationships: challenges, downsides, and impacts on human/human relationships. Författarna diskuterar ett stort antal exempel på sådan AI, allt från chattbottarna ovan till vårdrobotar och AI som erbjuder psykoterapi, eller AI som människor chattar med för att motverka ensamhet. Möjligheterna är stora, men det är även utmaningarna och de möjliga nackdelarna, vilket artikeln framhäver. 

Särskilt intressant är kanske ändå insikten om hur effektivt AI kan skapa förvirring genom att exponera oss för objekt som utrustats medmänskliga responsmönster. Vår naturliga tendens att förmänskliga icke-mänskliga ting möter högteknologiska ansträngningar att producera föremål som är konstruerade för att bete sig mänskligt. Här handlar det inte längre om att fantasifullt projicera sociala relationer på icke-mänskliga ting, som i det geometriska exemplet ovan. I samspel med AI-föremålen reagerar vi på subtila sociala signaler som föremålen utrustas med. Vi kan rentav känna ett moraliskt ansvar för sådan AI och sörja när företagen avslutar eller modifierar den.

Författarna manar till försiktighet så att vi inte övertolkar AI-föremål som personer. Samtidigt varnar de för risken att vi, genom att undvika empatiska reaktioner, blir mindre känsliga för verkliga personer i nöd. Sannerligen förvirrande!

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Zimmerman, A., Janhonen, J. & Beer, E. Human/AI relationships: challenges, downsides, and impacts on human/human relationships. AI Ethics (2023). https://doi.org/10.1007/s43681-023-00348-8

Detta inlägg på engelska

Vi tar upp aktuella frågor