
Mitt syn på kunstig intelligens ― utviklingen siste året
Publisert 01.01.2025

Nå er det omtrent ett år siden jeg publiserte Mitt syn på kunstig intelligens, og det er på tide med en ny vurdering.
Gjennom dette året har ChatGPT og etter hvert også Claude.ai vært mine trofaste kompanjonger. Jeg har utviklet Feedbach fra ingenting, helt alene, i tillegg til alt det andre som fyller opp livet. Disse verktøyene har gjort meg mer effektiv, spesielt når jeg har stått overfor problemer der jeg har manglet ekspertise. For eksempel trengte jeg å gjøre noen databaseendringer, og jeg anslo at det ville kreve cirka fem timers "yak shaving" for å komme i mål. Idet jeg skulle starte, tenkte jeg at jeg kunne prøve ChatGPT. Fem minutter senere kjørte koden, og jeg brukte fem minutter til på å teste den. Fikk jeg en produktivitetsgevinst? Både ja og nei. Jeg fikk jobben gjort, men jeg brukte de fire timene og femti minuttene på helt andre ting enn koding. Kjekt det også!
Utviklingen av AI-assistenter
Viktigheten av gode prompts
I starten av året var det viktig å være oppmerksom på hvordan man ordla seg når man skrev prompts for å få best mulig resultat. Om man ba om kodehjelp, måtte man, etter at man hadde fikset alle kompileringsfeilene, gå grundig gjennom koden og sjekke for helt åpenbare feil og mer skjulte feil. Snudde < og > operatorer kunne fint forekomme, og true ble ofte false.
New Kid on the Block – Claude.ai
I sommer begynte jeg å teste ut den nye kule fyren i byen, Claude.ai fra Anthropic. Claude var særlig bedre enn ChatGPT 4o på koderesultater, og for øvrig omtrent like god som ChatGPT. Noen små forskjeller som gjør likevel at den ene kan være bedre enn den andre i noen sammenhenger. For eksempel kan ikke Claude.ai generere bilder, og den har heller ikke tilgang til internett. Hvis det man lurer på krever input fra nyere tid, er derfor ChatGPT bedre egnet. Til gjengjeld har Claude.ai et mye større kontekstvindu enn ChatGPT, så hvis vi trenger AI-assistanse for store datasett, kan vi oppnå bedre resultater med Claude.
Fremveksten av ChatGPT-modellen o1
Like før jeg fikk lagt om rutinene, ble ChatGPT-modellen o1 lansert i preview, samt o1-mini, som var spesialisert for koding. o1-preview imponerte meg veldig, først og fremst fordi den kunne "resonnere".
Å produsere en tekst for så å sende den tilbake til AI-assistenten for forbedring var en vanlig teknikk i vår for å forbedre resultatene; å bruke AI-assistentene iterativt, om du vil. Dette ble innebygd med o1-preview. Innebygd kvalitetssjekk, altså. I starten av året snakket man om forskjellene mellom ChatGPT 3.5 og ChatGPT 4.0 var at 3.5 ville klare å bestå de fleste eksamener, mens 4.0 var på nivå med topp 10 % av studentene.
o1-preview, fordi den kvalitetssjekker, er på doktorgradsnivå – ja, innenfor alle emner!
Etter å ha brukt o1-preview de siste månedene har jeg en tillit til resultatene som nesten kan matche den jeg kan ha til et menneske!
Context is King
Min opplevelse av de nyeste modellene er at måten man formulerer seg på har blitt mindre viktig. Overordnet betyr det at AI-assistentene har blitt mye bedre til å forstå intensjonen med det du ber om, selv om du ikke nødvendigvis har formulert deg helt korrekt. Om du uttrykker deg høflig eller ikke, mener jeg har mindre å si nå enn for et år siden (sjekk gjerne ut denne tråden på LinkedIn der jeg foreslår at man likevel skal uttrykke seg høflig).
Selv om AI-assistentene er flinkere til å forstå intensjon, er det likevel ikke slik at man kan forvente at informasjon som må tilgjengeliggjøres, kan oppstå av seg selv. Derfor er det så viktig å jobbe med kontekst. Dersom man stiller et spørsmål uten noe kontekst, får man et helt generisk svar som sannsynligvis kan finnes like enkelt med et søk, men det er først når man fyller på med informasjon at verdien oppstår. Kontekstvinduet, størrelsen på informasjonen man kan sende til en AI-assistent, tilsvarer i dag typisk en bok på 300–500 sider. Dette er altså innholdet du kan fore AI-assistenten med, og som benyttes til å gi et godt svar. Tenk litt på det neste gang du ber om hjelp til en faglig tekst, og blir skuffet fordi den ikke forstår deg godt nok!
Hvis du legger litt innsats i å skape en kontekst for problemet ditt, vil du få mye bedre svar, og det vil trolig være forskjellen på å ha en veldig irriterende assistent som gir svar du aldri kan stole på, til å ha denne doktorgradsassistenten som forstår hensiktene dine og som gir presise svar på første forsøk.
Hvor går vi herfra?
Hvis man sammenligner AI-utviklingen i år med året før, synes jeg det er klart at utviklingen går fortere. Vi begynner å bli vant til å se AI implementert i løsninger vi bruker i hverdagen. Noen ganger føles det nyttig, mens mange ganger føles det krampaktig. Sånn kommer det nok til å være en stund fremover. Mange snakker om å løse gamle problemer mer effektivt, men jeg tror at endringene vi står overfor vil gjøre at de gamle problemene i mindre grad er relevante.
AI-agenter
Hva skjer når vi gir AI-assistentene beslutningsmyndighet?
- Jeg trenger nye sko; kjøp noe jeg liker. ...og dagen etter ligger de i postkassen!
En AI-agent er autonom og kan handle på egen hånd, og ta (visse!) avgjørelser på vegne av brukeren. De kommer til å bli godt kjent med hver og en av oss, og etter hvert bli i stand til å finne ut hvilke sko vi liker, eller kanskje til og med komme med forslag som vi ikke klarer å tenke på selv!
En AI-agent vil kunne sette sammen en middagsplan og bestille ingredienser, og samtidig ta hensyn til alle allergiene i familien, samt ambisjonene dine om å sove bedre og trene mer! Om du er bekymret for sprøytemidler, velger den gjerne økologiske matvarer, eller varer fra produsenter som bruker mindre. Den kan ta hensyn til miljøkrav, og velge kortreiste produkter, og den kan vurdere hele verdikjeden til produktet og analysere miljøeffekten. Dette er ting som folk flest ikke gidder å sette seg inn i.
Nye problemer
Så hva vil det si da, om AI-agenter skal gjøre ulike ærend for oss? De bryr seg sikkert ikke så mye om komplementærfarger på nettsidene og bannerannonser i nettaviser. De bryr seg nok heller om at informasjonen er tilgjengelig som strukturerte data, for å kunne fatte best mulige beslutninger.
Hvordan kan man gjøre nettbutikken "synlig"; sikre at man blir vurdert, når brukerne ikke lenger er mennesker, men agenter som handler på vegne av dem? Hvilke utvelgelseskriterier blir avgjørende?
Dette er eksempler på nye problemer som man må begynne å tenke på fremover.
Hva mer?
Det er vanskelig å tenke seg at man får veldig mye bedre språkmodeller enn de beste man har tilgang til i dag. Man kan selvsagt tenke at de vil være raskere, og forhåpentligvis mindre energikrevende, men resultatene holder allerede veldig høy kvalitet etter min mening.
Jeg tror at avanserte språkmodeller vil bli mer tilgjengelige, og at det kommer flere alternativer der sikkerhet og personvern vil være ledende.
Samtidig har vi sett en stor utvikling innenfor medieproduksjon de siste månedene. Mange verktøy for produksjon, evaluering og redigering av lyd, bilde og video har blitt lansert. Det er naturlig å forvente en skalering av slike løsninger. Kanskje videoutleiebutikkene kommer tilbake, men i stedet for å få låne en film, kan du bygge din egen skreddersydde, generert i serverparken i kjelleren!
Mange lurer nok på AGI, Artificial General Intelligence, hvor en AI tilpasser seg omgivelsene. I dag har vi AI-modeller som løser oppgaver den er trent på skikkelig godt, men med AGI vil AI-modellen også kunne løse oppgaver innenfor områder den ikke har trent på. Dette tror jeg vi er langt unna å oppnå, men første steget er trolig å kombinere ulike AI-modeller som kan løse oppgaver innenfor sine spesialområder, og slik vil fremstå tilpasningsdyktig. Det er likevel stor forskjell på dette og ekte AGI.
Bare for å ha nevnt det, tror jeg heller ikke vi får selvkjørende biler i 2025, men vi kommer likevel ett år nærmere.