Du fantastiska, artificiella normalbegåvning
Krönika

Vill vi verkligen vara omgivna av allvetande mirakelhjärnor, undrar universitetslektorn Lars Oestreicher. AI-illustration: Lars Oestreicher
Kanske ska vi vara tacksamma att våra AI-system inte riktigt når den högre nivån av intelligens än, utan snarare landar i något slags normalbegåvning som faktiskt kan ha fel ibland? Det skriver Lars Oestreicher, universitetslektor vid avdelningen för Människa-Maskininteraktion vid Institutionen för informationsteknologi.

Lars Oestreicher, universitetslektor vid Institutionen för informationsteknologi. Foto: Privat
Artificiell intelligens, det vet vi idag alla vad det är. Eller, vet vi verkligen det? Frågan är faktiskt om det ens finns något som kan kallas AI (utan modifierande tillägg). Det mesta av det som idag kallas AI är det som förut kallades ”svag” AI, alltså avancerade metoder som inspirerats av MI, eller Mänsklig Intelligens. Det som de flesta idag kanske förstår som artificiell intelligens är det som förut kallades ”stark” AI: system som visar på äkta intelligent beteende. Det senare har vi inte idag, som tur är. Men vi har många system vi kan klassificera som svag AI, till exempel djupinlärning, eller Deep Learning. Det används bland annat för att tolka röntgen- och mikroskopbilder i sjukvården. Sen finns generativa system, som skapar bilder, filmer och även musik från textbeskrivningar, och inte minst stora språkmodeller, LLM, som finns i chatbottar.
Dessa ”svaga” AI-tillämpningar är trots sitt namn mycket imponerade inom sina respektive tillämpningsområden, men oftast inte så smarta som vi ofta vill tro. Självklart har det varit många barnsjukdomar i början av utvecklingen, såsom AI-genererade bilder med människor som har både sex, sju eller åtta (!) fingrar på händerna. Även om det är lite omänskligt att inte reagera på det, så har vi ju faktiskt en del konstnärer som gjort betydligt konstigare saker i sina målningar, som till exempel Salvador Dali. Så visst skulle man kanske kalla det för intelligent, och kanske till och med kreativt.
Men jag vet inte om jag personligen skulle gå riktigt så långt. Och det gäller också våra nya ersättningar för Google, nämligen ChatGPT, CoPilot, Claude, DeepSeek och alla andra liknande system. Visst kan de ge bra svar på många frågor, men det finns fortfarande enkla saker som de går bet på. Jag frågade en tidigare version av ChatGPT om mina mest intressanta publicerade forskningsartiklar. Och jag fick mycket riktigt fram de mest intressanta artiklarna. Eller, de skulle ha varit det, om det nu verkligen hade varit så att jag hade skrivit dem. Men artiklarna fanns inte, trots att jag fick fullständiga och korrekt utformade referenser, med tidskrift, volym, nummer och sidnummer (!). Nu har man tydligen korrigerat det i de senare versionerna av ChatGPT, men grundproblemet är detsamma: hur bär sig systemen egentligen åt när de tänker?
De AI-system vi har idag bygger till mycket stor del på att upptäcka mönster, till exempel i bilder som de sen kan generalisera. Att tala om exakt vad som skiljer en katt från en hund är ganska svårt om man tänker efter. Men ett AI-baserat system klarar det galant efter att ha tränat på ett stort antal bilder av katter och hundar. Men är det intelligent? Att ChatGPT inte klarade att ge mig riktiga publikationer är ett exempel på problem som kan uppstå. En referens måste ha ett visst format, ett mönster, och det kan ett LLM lära sig. Men jag har förstås inte publicerat tillräckligt många artiklar för att de tillsammans ska bilda ett tillräckligt starkt semantiskt mönster. Därför fyllde ChatGPT på med lite detaljer som passade in i det starkare generella mönstret för akademiska referenser, men som i övrigt inte har någon verklighetsanknytning.
Eftersom systemen ska vara ”intelligenta” måste man förstås förklara problemen genom antropomorfa metaforer, så de gör inga fel utan hallucinerar istället, de stackarna. Naturligtvis är det nu inte så att de hallucinerar på riktigt. Men kanske, bara kanske, är det ändå så att våra AI-system inte riktigt når den högre nivån av intelligens än, utan snarare landar i något slags normalbegåvning som faktiskt kan ha fel ibland? Systemen är duktiga, men inte superintelligenta, och de kan göra misstag precis som alla andra normalbegåvningar.
Och, handen på hjärtat, vill vi verkligen vara omgivna av allvetande mirakelhjärnor? Kanske en AN, Artificiell Normalbegåvning, vore en bättre väg att gå, inte minst för att bevara människans eller till och med mänsklighetens självuppskattning?
Lars Oestreicher, universitetslektor vid Institutionen för informationsteknologi.