Om ChatGPT och liknande verktyg

Den aktuella debatten har huvudsakligen utgått från ChatGPT, men det finns också många andra verktyg inom s.k. generativ AI, som är enkla att söka upp: här är några exempel. Det finns många fler.

Verktygen har naturligtvis inte primärt utvecklats för att kunna fuska med hemuppgifter. Betydligt vanligare är att de hjälper ägare till olika webbplatser, bloggar m.m. att hitta material och generera nya texter så att det blir lättare att hålla sajterna uppdaterade. De kan också användas för att t.ex. granska programkod.

Hur fungerar AI-verktygen?

ChatGPT använder sig sedan mars 2023 av GPT4, som är den senaste versionen av en s.k. språkmodell, som har utvecklats kraftigt under de senaste åren. Viktigt att ha i åtanke är att verktyget inte är en sökmotor, utan genererar text utifrån andra texter utifrån vad som språkligt och lingvistiskt verkar passa ihop. Kvaliteten på de instruktioner som man ger till modellen är avgörande för resultatets kvalitet. Man kan t.ex. ange omfång på svaret, ange stilnivåer, precisera frågan genom att ange att vissa saker ska uteslutas och vilka perspektiv som ska jämföras. Svaren kan också erhållas på olika språk och inom loppet av några sekunder kan en helt begriplig, sammanhängande text levereras. Resultatet kan vara imponerande. Särskilt frågor som innehåller, och kan besvaras med mer strikt regelstyrd, formelartad text – programkod, matematiska formler – har goda förutsättningar att få bra svar. Eftersom de svar som genereras är ny text undgår de för närvarande också eventuella textmatchningssystem, som t.ex. Ouriginal.

Begränsningar i tekniken

Det är alltså inte nödvändigtvis fakta som genereras, utan texten bygger på inomspråklig sannolikhet. Processen kan också leverera ett svar som innehåller helt falska påståenden, konstruerade för att uppfylla det som begärs i instruktionerna. Om man t.ex. ställer en fråga och ber ChatGPT att i svaret inkludera referenser till relevanta källor, kan resultatet bli en lista där tidskrifternas namn, årgång och volymnummer är korrekta, men där de angivna artiklarna visar sig saknas om man kontrollerar referenserna. De är alltså helt och hållet påhittade, och går inte heller att hitta någon annanstans på nätet, medan andra referenser kan visa sig vara korrekta.

De här verktygen har också andra begränsningar. Av naturliga skäl är de begränsade till det material som finns i deras databaser, vilket innebär att tryckt material och digitala källor som inte är öppet tillgängliga saknas, vilket påverkar svarens kvalitet, troligen mer inom vissa områden än andra. Just ChatGPT saknar f.n. texter som tillkommit senare än 2021, men det gäller inte andra verktyg.

Det ligger dock i självlärande systems natur att de blir bättre och bättre, i takt med att de får fler och fler användare, att deras databaser stadigt växer, och att de samtidigt får någon sorts återkoppling om kvaliteten på svaren. Vissa verktyg kan t.ex. redan inkludera giltiga, om än otillräckliga referenser. Utvecklingen går rasande fort, och vi kan räkna med att de blir mer och mer kompetenta.

Kommande utveckling

Generativ AI fortsätter att utvecklas. Under 2023 är den på väg att integreras i de stora sökmotorerna – t.ex. satsar både Google (Google Search) och Microsoft (Bing) på detta. Då blir svaren inte längre en rent inomspråklig angelägenhet, utan sammaställs från öppna sidor på nätet, med referenser till dessa – vilket både möjliggör mer avancerade sökningar och svar, men fortfarande kräver en bedömning av källornas relevans och tillförlitlighet. Redan nu ser vi början på förstärkt AI-stöd i program såsom Word, PowerPoint, Excel och likande. Det finns också redan verktyg för automatisk textning av videos, liksom av vad som sägs i onlinemöten, i realtid m.m.

Ökar risken för fusk?

Majoriteten studenter fuskar inte, och lärarnas fokus vid examination ligger på att bedöma studenternas lärande, och inte på att spana efter ev. fusk. Samtidigt vet vi att det förekommer försök till vilseledande vid examination. Hur vanligt det är med fusk via just AI är omöjligt att avgöra, men det finns belagda fall vid svenska universitet, inklusive Uppsala. Kännedom om olika sajter som frestar studenter att ta otillåtna genvägar sprids snabbt.

På sätt och vis är situationen inte ny. Att den enkla tillgången till AI-verktygen i sig skulle leda till mer fusk är inte självklart, men kanske kommer det att ersätta andra sätt att fuska. Sannolikt kommer ChatGPT inom kort inte längre att vara gratis (redan nu finns en betalversion), och detsamma gäller flera andra liknande verktyg, men det finns personer som är villiga att betala för färdiga arbeten. Tidigare har vi kunnat dra viss fördel av att svenska är ett litet språk, som inte varit lika intressant för aktörer som erbjuder färdiga texter, men AI-verktygens utveckling har redan förändrat den bilden.

Precis som tidigare är det inte alltid enkelt att avgöra var gränsen går mellan att en student enbart förhåller sig otillräckligt självständigt till ett material eller en frågeställning, resp. att studenten medvetet fuskar. Här ligger kanske den största utmaningen med de AI-baserade verktygen: studenterna behöver veta hur och när verktygen kan fungera som stöd för lärandet, och när de måste lämna dem bakom sig för att kunna visa vad de verkligen har lärt sig.

En kritisk punkt är att verktygen i dagsläget är på väg att bli en integrerad del av de vanliga sökmotorer och program som används dagligen av oss alla. Risken är då att gränsen mellan vad som är tillåtet och otillåtet vad gäller skriftliga uppgifter blir mindre tydlig. Här har både universitetet och enskilda lärare ett stort ansvar för att arbeta förebyggande.

FÖLJ UPPSALA UNIVERSITET PÅ

facebook
instagram
twitter
youtube
linkedin