Det finns en rädsla att vi snart skapar artificiell intelligens (AI) som är så superintelligent, att vi inte längre kan kontrollera den. Den gör oss människor till sina slavar. Om vi försöker koppla ur nätverkskabeln så hoppar superintelligensen över till ett annat nätverk, eller så beordrar den en robot att döda oss. Alternativt så hotar den att spränga en hel stad i bitar, om vi tar ett enda steg mot nätverksuttaget.
Jag slås emellertid av hur denna självhävdande artificiella intelligens liknar en sida av vår egen mänskliga intelligens. En viss typ av mänsklig intelligens har redan tagit över. Den styr våra tankar när vi känner oss hotade av superintelligent AI och överväger smarta motåtgärder för att kontrollera den. Ett typiskt drag i denna självhävdande intelligens är just detta att den aldrig ser sig själv som problemet. Alla hot är externa och måste neutraliseras. Vi ska överleva, kosta vad det vill för andra. Jag först! Vårt parti först! Vi betraktar världen med misstro: den tycks fylld av hot mot oss.
I denna självcentrerade anda utpekas AI som nytt främmande hot: okontrollerbara maskiner som sätter sig själva först. Alltså måste vi övervaka maskinerna och bygga smarta försvarssystem som kontrollerar dem. De borde vara våra slavar! Mänskligheten först! Ser du hur vi beter oss lika blint självhävdande som vi fantiserar att supersmart AI skulle göra? En kapprustning i småsinthet.
Kan du se mönstret hos dig själv? Om du kan göra det, så har du upptäckt den andra sidan av den mänskliga intelligensen. Du har upptäckt den självgranskande intelligens som alltid livnär filosofin när den ödmjukt söker orsaken till våra misslyckanden hos oss själva. Paradoxen är: när vi försöker kontrollera världen, så fångas vi i småsinthet; när vi granskar oss själva, så öppnas vi för världen.
Linnés första försök att artbestämma människan var faktiskt inte Homo sapiens, som om vi kunde hävda vår visdom. Linnés första försök att artbestämma oss var en ödmjuk uppmaning till självgranskning:
HOMO. Nosce te ipsum.
På svenska: Människa, känn dig själv!
Skrivet av…
Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.
Vi tänker om tänkande
Intressant att Linne’ startade med en uppmaning till medvetande för att senare ändra till tänkande. Undrar om det var för att generalisera eller för stt bli slagkraftigare?
Om man nu vill koppla detta till den intelligens som verkar åsyftas av Nick Bostrom i sin bok Superintelligens funderar jag på om denna SI har ett medvetande eller kan kallas tänkande.
Människan kan väl betecknas som ett socialt djur med behov och möjlighet att knyta än till andra människor. Men blir det ett vi då? Eller blir det ett jag och den andre? Med ett vi menar jag då förmågan att sätta sig in i den andres situation som en like till mig. Då behövs väl ett medvetande och ett självmedvetande.
Skulle då en Artificiell Intelligens kunna bygga upp ett sådant medvetande? Och skall detta då vara en del av intelligensen? Av Superintelligensen borde väl detta vara möjligt. Denna SI skall ju på alla områden överträffa människans förmågor. Och skulle denna SI därmed också kunna utveckla en Superetik som kan hantera mångfald, dynamik, flexibilitet, motstridiga men samtidiga målkonflikter med mera som kännetecknar vår postmoderna tid?
Dessa tankar arbetar jag med nu i en C-uppsats i Etik inom ToL på Teologen vid UU.
Tack för kommentar, Olof! Jag gissar att Linné kanske var en smula perplex inför uppgiften att särskilja människan från aporna. Han säger själv att han inte kunde hitta något särskiljande drag, bortsett från att aporna har ett avstånd mellan hörntänderna och övriga tänder, som människan saknar. Därför blir vår särart en uppgift för oss själva att ta ansvar för, spekulerar jag att Linné tänkte: ”Människa, känn dig själv!” Lycka till med C-uppsatsen, och glöm inte Linnés uppmaning när du undersöker dina frågor, för människan – du själv, vi själva! – försvinner lätt i våra filosofiska begreppsapparater.