Debatt ● Helge Høivik

KI, universitetene og avhengighets­fellen

Selskapet bak den nye KI-tjenesten Claude for Education har en integrerings­avtale for Canvas, den største læringsplattformen i Norge. Hva kan det bety om tjenesten integreres for norske studenter?

Vi ser konturene av et marked hvor tre store KI-aktører kjemper om vår universitetssektor, skriver forfatteren. Her hjelper han studenter på en internasjonal sommerskole.
Publisert

Denne teksten er et debatt­inn­legg. Inn­holdet i teksten uttrykker forfatterens egen mening.

Det amerikanske KI-selskapet Anthropic har nylig lansert Claude for Education, en spesialversjon av Claude for høyere utdanning. Selskapet har posisjonert seg som et mer sikkerhetsbevisst alternativ enn OpenAI, som de opprinnelig sprang ut fra. 

Med finansiering fra Jeff Bezos’ Amazon sikter de nå mot universitetssektoren, hvor de tilbyr KI-drevne verktøy for undervisning, læring og administrasjon.

Hva er Claude for Education? Initiativet har tre hovedområder:

  • Læringsmodus: Styrke selvstendig tenkning ved å veilede studenters resonnement fremfor å gi direkte svar på spørsmål.

  • Gjøre tilgjengelig: Flere institusjoner, blant annet Northeastern University, London School of Economics (LSE) og Champlain College, tilbyr løsningen til alle studenter.

  • «Akademisk markedsføring»: Studenter kan bli «ambassadører» for Claude og de kan få gratis tilgang som belønning for gode prosjekter som bruker Claude.

I tillegg markedsføres Claude som en trygg løsning for:

  • Studenter: Veiledning i litteraturgjennomganger, matematikk og oppgaveutforming.

  • Lærere: Effektiv tilbakemelding på essays, vurderingskriterier og ligninger.

  • Administrasjon: Analyse av studentdata, automatisering av henvendelser og forenkling av arbeid med styringsdokumenter.

Anthropic har valgt Instructure som integrasjonspartner på læringsplattformen Canvas LMS. Den dominerer i Norge. Dermed ser vi konturene av et marked hvor tre store KI-aktører kjemper om vår universitetssektor: Microsoft/OpenAI Copilot, Googles Gemini og NotebookLM, og nå Claude for Education. 

Problemet er ikke nødvendigvis KI-integrasjon i høyere utdanning, men måten den skjer på. Det har blitt et mønster: Kommersiell teknologi tilbys til lokkepris, institusjonene blir avhengige, og når løsningene er blitt virksomhetskritiske, øker avgiftene og den indirekte kontrollen. 

Vi har sett dette før. 

OsloMet hevder for eksempel på sine nettsider at opplysninger og kommunikasjon i Canvas ikke blir videreformidlet av institusjonen til tredjepart. Strengt tatt er dette korrekt: Universitetet selv overfører ikke data aktivt til amerikanske myndigheter. 

Men det er jo ikke slik det foregår. Dette er en illusjon som står for fall for hver IT-konto som blir stengt av Elon Musk sine våpendragere.

Claude markedsføres som en sikker løsning, men bruker Amazons servere. Dermed er dataene sårbare for amerikansk overvåking. Dette er ikke en hypotetisk problemstilling. Amerikanske lover gir myndighetene tilgang til data fra amerikanske selskaper uansett hvor serverne befinner seg fysisk. 

Amerikanske lover gir myndighetene tilgang til data fra amerikanske selskaper uansett hvor serverne befinner seg fysisk. 

Helge Høivik

KI-utviklingen skjer raskt, men avhengighetsskapende prosesser tar tid. Når universitetene først har integrert en løsning, er det vanskelig å gå tilbake. Vi må forstå hva som kan skje om fem og ti år for å kunne påvirke det som vil skje.

Den norske universitets- og høyskolesektoren (UH-sektoren) kunne ha valgt en annen vei og satset på skandinavisk eller europeisk infrastruktur hvor vi selv eksperimenterte med teknologien, definerte bruksmåter og styrte utviklingen. 

Denne debatten handler om mer enn teknisk implementering. Den handler om akademisk frihet, datasuverenitet og prinsipper med store praktiske konsekvenser. 

KI er på alvor. Dens tekster, illustrasjoner og andre symbolske artefakter er ikke framstilt av tenkende maskiner. De gir bare skinn av tankeprosesser. Maskinene opptrer nå i økende grad med syntetisk oppriktighet og pretenderte følelser, men uten hensikt. KI føler ikke og resonnerer ikke, men vet hvordan følelse og resonnement ser ut

Dette er ikke en bieffekt — det er produktet.

Powered by Labrador CMS