Auto-FoU: Resonnere m/åpne kilder.

Tore Wig og Aksel Braanen Sterri etterlyser en statsstøttet norsk KI-løsning i Aftenposten 03.02.2025.

I likhet med mange peker de på at kinesiske DeepSeek nå har overgått ChatGPT i popularitet. De måler i antall nylige nedlastninger av appen, men ytelsene på testbatteriene er viktigere.

DeepSeek er utviklet av en oppstartsbedrift i Hangzhou og kan kommunisere på flere språk. Utviklingskostnadene var etter sigende på 5,6 millioner dollar, betydelig lavere enn de milliardene amerikanske teknologiselskaper investerer i KI.

Denne utviklingen har ført til store bevegelser i teknologimarkedet, skriver de. Mandag morgen falt aksjene til flere store teknologiselskaper, inkludert Nvidia, som produserer KI-brikker, med over 10 prosent. Dette skyldes bekymringer for at DeepSeeks suksess kan utfordre deres markedsposisjon.

Denne situasjonen bør være en vekker for Norge. Wig og Braanen Sterri mener at det er på tide å utnytte Norges eget potensial innen kunstig intelligens og investere i utvikling av egne KI-løsninger. Vi har muligheten til å ta en ledende rolle i denne teknologiske utviklingen ved å satse på forskning, innovasjon og samarbeid mellom akademia og arbeidsliv.

Her må føyes til at dette gjelder Europa generelt.

Akademia

Men også innen akademia sjøl er det nye utfordringer. Det gjeldet særlig kombinasjonen av resonnerende (CoT – Chain-of-Thought) og agentisk KI. Et tidlig forsøk her er OpenAI’s o3-modell slik Ethan Mollick beskriver på Substack 03.02.2025.

Ved å bruke den nyeste OpenAI o3 språkmodellen kan verktøyet analysere og syntetisere data fra ulike internettkilder, inkludert tekst, bilder og PDF-filer. Det skrives detaljerte rapporter og artikkelutkast på 5-10 minutter – en oppgave som vanligvis ville tatt et menneske flere timer. Eksperter advarer imidlertid om at menneskelig verifisering fortsatt er nødvendig, da AI-en kan ha utfordringer med å skille autoritativ informasjon fra rykter og med å formidle usikkerhet på en presis måte.

Her er ytelsen plottet inn i et diagram over utviklingstrenden i en av Google-Proof Q&A (GPQA) sine testbatterier. Diagrammet viset hvordan Ph.D.-studenter scorer på krevende flervalgstester med Google-støtte innafor (71%) og utafor (34%) eget fagområde. ChatGPT-o3 nærmer seg 90%

Men resonnerende “indre” løkker av prompt & completion suppleres også med agentisk organisering der KI-maskinen deler opp et problem i flere trinn som kan utføres sekvensielt eller i parallell.

Mollick testet med en ledetekst på denne malen:

[Problembeskrivelse] Jeg ber deg undersøke den akademiske forskningslitteraturen om denne problemstillinga med fokus på høykvalitetsartikler og randomiserte kontrollerte studier, inkludert håndtering av problematiske definisjoner og konflikter mellom allmenn oppfatning og forskningen. Presenter resultatene med tanke på en diskusjon på masternivå om dette problemet.

Resultatet var overbevisende og på nivå med en begynnende Ph.D.-student.

Dette kan brukes til systematiske søk på Internett, sammenfatning av det som finnes og så bruk av dette inn i resonnerings- prosessen.

Dette har OpenAI med sans for markedsføring kalt Deep resesarch, – det samme som Google har gjort. DeepSeek kaller sitt resonnerings-modus for DeepThink. Dypere blir det vel ikke… ?

Vi må tolke det i lys av bevegelsen for åpen vitenskap (Open Science) og åpne læringsressurser (Open Educational Resources). Her blir forskningsartikler og lærestoff åpent publisert på Internett og er da kilder for KI-maskinenes søkeatferd og bearbeiding.

En ting er slike nye funn og innovasjoner på systemsida. Vel så viktig er nå det eksperimentelle utviklingsarbeidet for bedre kvalitet i design og gjennomføring av høyere utdanning, bedre praksisordninger og styrket studiemotivasjon.

Her spiller også KI en voksende rolle, – i samspill med alt det dype.