En forskningsblogg från Centrum för forsknings- & bioetik (CRB)

Att använda artificiell intelligens med akademisk integritet

AI-verktyg kan både förändra och producera innehåll såsom texter, bilder och musik. Verktygen blir dessutom alltmer tillgängliga som onlinetjänster. Ett exempel är verktyget ChatGPT, som du kan ställa frågor till och få välinformerade, logiskt resonerande svar från. Svar som verktyget dessutom kan korrigera om du påpekar fel och oklarheter. Du kan interagera med verktyget nästan som om du samtalade med en människa.

Ett sådant verktyg kan naturligtvis vara oerhört användbart. Det kan hjälpa dig att lösa problem och finna relevant information. Jag vågar gissa att responsen från verktyget dessutom kan stimulera kreativiteten och öppna sinnet för oväntade möjligheter, precis som samtal med människor brukar göra. Men liksom all teknik kan verktygen även missbrukas och studenter har redan använt ChatGPT för att klara sina inlämningsuppgifter.

Utmaningen inom utbildning och forskning är alltså att lära sig att använda dessa AI-verktyg med akademisk integritet. Det är inte automatiskt fusk att använda AI-verktyg. Sju deltagare i ett europeiskt nätverk för akademisk integritet (ENAI), däribland Sonja Bjelobaba vid CRB, skriver om utmaningen i en ledarartikel i tidskriften International Journal for Educational Integrity. Framförallt sammanfattar de tentativa rekommendationer från ENAI om etisk användning av AI i akademin.

En övergripande målsättning i rekommendationerna är att integrera rekommendationer om AI med andra besläktade rekommendationer om akademisk integritet. Således ska alla personer, källor och verktyg som påverkat idéer eller genererat innehåll tydligt anges – däribland användning av AI-verktyg. Lämplig användning av verktyg som påverkar textens form (som korrekturläsande verktyg, stavningskontroller och automatiserade synonymförslag) är i allmänhet acceptabla. Vidare kan ett AI-verktyg inte anges som medförfattare i en publikation, eftersom verktyget inte kan ta ansvar för innehållet.

Rekommendationerna betonar även vikten av utbildningsinsatser om etisk användning AI-verktyg. Läs rekommendationerna i sin helhet här: ENAI Recommendations on the ethical use of Artificial Intelligence in Education.

Skrivet av…

Pär Segerdahl, docent i filosofi vid Centrum för forsknings- och bioetik och redaktör för Etikbloggen.

Foltynek, T., Bjelobaba, S., Glendinning, I. et al. ENAI Recommendations on the ethical use of Artificial Intelligence in Education. International Journal for Educational Integrity 19, 12 (2023). https://doi.org/10.1007/s40979-023-00133-4

Detta inlägg på engelska

Vi bryr oss om undervisning

2 kommentarer

  1. Lars Hertzberg

    Har prövat GPT-roboten ett par gånger och har funnit att den åtminstone i vissa fall är allt annat än välinformerad. Tvärtom tycks den kunna leverera fullständigt vilseledande ”information”.

    • Pär Segerdahl

      Tack för kommentar! Ja, AI är ett instrument med begränsningar att vara uppmärksam på. Och problemet är kanske att vi förväntar oss att intelligens ska vara någonting obegränsat. Det är olyckligt, eftersom attityden förslöar uppmärksamheten.

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *

Denna webbplats använder Akismet för att minska skräppost. Lär dig hur din kommentardata bearbetas.