Debatt ● Tone Liodden
Er det greit at forskere bruker tekst skrevet av KI?
De etiske normene knytta til bruk av KI-produsert tekst henger etter praksis i forskningsfeltet. Vi forskere bør utvikle felles normer for hva som er innafor.
Denne teksten er et debattinnlegg. Innholdet i teksten uttrykker forfatterens egen mening.
«Vi må snakke mer om KI-bruk i forskningen», skrev tre forskere fra OsloMet tidligere i år. De peker på at det er mye diskusjon om hvordan studentene bruker KI, men mindre debatt om forskernes KI-bruk. Jeg er enig.
Det er spesielt én dimensjon jeg mener vi bør snakker mer om, og det er bruk av KI-generert tekst i forskning. Mitt inntrykk er at det er en stilltiende aksept av slik bruk blant mange forskere. Eller kanskje er det slik at fordi KI-generert tekst brukes uten at det problematiseres i en del sammenhenger, så vokser det fram en antakelse om at de fleste forskere bruker KI til å skrive — og at det derfor må være greit. Ikke minst vil jeg tro at det sprer seg en følelse av at om alle andre gjør det, og ikke jeg, så vil jeg som forsker fort sakke akterut i konkurransen om antall publikasjoner.
La meg gi et eksempel. Jeg deltok på et kurs i et digitalt verktøy som har blitt utviklet for bruk i forskning. I selve programmet kunne man velge mellom ulike funksjoner, for eksempel «AI writes a literature review based on your input», eller «AI writes a conclusions section based on your input». De innebygde funksjonene i programmet signaliserer altså at det er helt vanlig å bruke KI-produsert tekst.
Programvare som skal hjelpe oss med å bruke KI i forskning etablerer med andre ord normene for hva som er innafor, lenge før vi forskere har rukket å diskutere det skikkelig. Kursholderen viste hvordan vi kunne bruke KI til å skrive en innledning til en artikkel om en historisk skikkelse. Det ble presisert at vi som forskere selvsagt må sjekke innholdet i teksten, og gjerne skrive inn egen tekst her og der. Deretter rulla kurset videre, uten ytterligere diskusjon.
I en annen sammenheng, som også innebar opplæring i KI-verktøy, var en av oppgavene vi fikk utdelt å lage et sammendrag til en artikkel vi jobbet med ved hjelp av KI. Jeg la en tekst jeg hadde skrevet, som delvis var usammenhengende, inn i Sikt KI-chat. Ut fikk jeg et nydelig sammendrag, som beskrev formålet med artikkelen bedre enn jeg hadde forstått det selv. Det var både imponerende og skremmende. Og fristende — jeg kunne uten problem ha limt teksten rett inn i et artikkelutkast.
Det var både imponerende og skremmende. Og fristende – jeg kunne uten problem ha limt teksten rett inn i et artikkelutkast.
Tone Liodden
Som regel er det ikke fullt så enkelt. I diskusjoner om bruk av KI-generert tekst, blir det understreket at forskere må gjennomgå teksten nøye og revidere den, gjøre den til sin egen. Men like fullt: Bruke en KI-tekst produsert av KI som utgangspunkt. Og kanskje er det uproblematisk å be KI om å lage et sammendrag av en tekst. Et sammendrag bygger i prinsippet på tekst vi har produsert selv. Men er det gitt at det er greit? Bør vi ikke diskutere det, før det blir vanlig praksis?
Antakelig er det allerede for seint: Ifølge en studie gjennomført av Dmitry Kobak og kollegaer, er det sannsynlig at minst 10 prosent av sammendragene fra 2024 som ligger i PubMed, delvis har blitt produsert ved hjelp av KI.
Men hva med andre deler av teksten? Hvor går grensa? OsloMet har en policy for bruk av kunstig intelligens. Under punktet «transparens» står det at man skal være åpen om bruk av KI-verktøy og at man skal «unngå plagiat ved å sjekke informasjonen og oppgi både bruk av KI og kildene KI-verktøyet oppgir». Det står ikke noe nærmere i retningslinjene om bruk av KI-produsert tekst. Jeg vil tro at en av årsakene er at det ikke finnes noen klar konsensus på dette punktet. Uklarheten i normer gjenspeiles blant annet i at ulike tidsskrifter har forskjellige retningslinjer.
Det ser ut til å være en kontrast mellom praksisen som utvikler seg blant forskere, og den standarden vi setter for studentene som skal lære å bli selvstendige tenkere. Vi er opptatt av at studenter ikke skal plagiere. Vi ønsker ikke at studenter skal bruke KI for å skrive semesteroppgaven sin. Men kan vi forskere være gode forbilder for studentene, om vi selv gjør det vi mener at studentene ikke bør gjøre?
«Det er aldri lov å presentere tekst du ikke selv har skrevet som din egen», står det om fusk på OsloMets nettside. Spørsmålet er hva en slik norm innebærer nå.
Bør det være tillatt å bruke KI-tekst i det hele tatt? I utgangspunktet tenker jeg: Nei. Det er ikke greit å omskrive og redigere en tekst en annen person har skrevet, og fremstille teksten som din egen, selv om du refererer til forfatteren. Det samme ville gjelde en Wikipedia-artikkel. Hvorfor skal det være greit med en KI-generert tekst? Slik diskusjonen står nå, handler den mest om hvordan man skal beskrive bruken av KI i en forskningstekst. Holder det å skrive i metodedelen at man har brukt KI til å skrive deler av teksten? Skal man legge ved en detaljert beskrivelse? Skal KI stå som medforfatter? Det er ikke en prinsipiell diskusjon om hvorvidt det er innafor å bruke slik tekst i utgangspunktet.
Jeg vil våge å påstå at det beste ville være en tydelig norm om at vi som forskere ikke skal bruke KI-generert tekst, selv om vi tilpasser den, ettergår den og gjør den til «vår egen». Som med alt annet i forskning, vil forskeres bruk av KI være tillitsbasert. En (nesten) ferdig tekst er bare et tastetrykk unna. Men på samme måte som vi må ha tillit til at forskere jevnt over ikke fabrikkerer forskningsdata, må vi da ha tillit til at forskere bruker KI på en måte som er i tråd med forskningsetikk. Men der vi har klare og tydelige normer som sier at forskere ikke kan fabrikkere data, mangler vi normer for bruk av KI-generert tekst.
Som mange andre, er jeg redd for at KI-generert tekst vil føre til at vi produserer artikler raskere, men tenker dårligere.
Tone Liodden
Er jeg gammeldags? Går jeg baklengs inn i framtida? Det kan godt være. Kanskje vil det være hundre prosent naturlig om få år at KI produserer tekst som studenter og forskere redigerer, uten at noen synes det er problematisk. Jeg tenker høyt i denne teksten. Og det er i grunnen et poeng i denne sammenhengen: Det er som regel når jeg skriver at jeg tenker best. Det er da jeg forstår hva som fungerer, og motsatt, hvilken kunnskap jeg mangler og hva som ikke henger på greip.
Det er ofte vondt å skrive, men det er da jeg lærer mest, det er da kunnskapen blir en integrert del av meg som menneske og fagperson. Som mange andre, er jeg redd for at KI-generert tekst vil føre til at vi produserer artikler raskere, men tenker dårligere.
Nyeste artikler
Deler ut 46,5 milliarder — krever flere sykepleiere
Forskaren vaks opp i Israel. No veit han ikkje om han vil reisa tilbake
Nordisk Østforum legger ned. Forskere vil ikke lenger skrive skandinavisk
Khronos store julequiz
Fagskoledebattens blindsoner — mer enn ren kvalifisering for arbeidslivet
Mest lest
Dette er Lise Øvreås sitt lag til rektorvalet ved UiB
Tidligere har hun fått drapstrusler for forskningen sin. Men nå har det skjedd noe
ChatGPT fikk A på eksamen. — Skulle nesten bare mangle
Cecilie Hellestveit vurderer å slutte å snakke med media: — Klikkhoreri
Professor ber studentene forplikte seg: Du vil bli sett på som en forræder om du dropper ut