Debatt ● Are bøe Pedersen
Ett år med ChatGPT: Etiske blindsoner, eller lukkede øyne?
KI-eksplosjonen er bygget på tyveri, sløsing med ressurser og utbytting av arbeidere i lavkostnadsland. Er det verdt prisen?
Denne teksten er et debattinnlegg. Innholdet i teksten uttrykker forfatterens egen mening.
Etter et år med ChatGPT-frislipp, hvordan ser verden ut? Jeg skrev i januar i at språkmodeller neppe ville erstatte forskere eller utradere hele sektorer, fordi de først og fremst er laget for å virke sofistikerte i måten de ikke forstår ting på. Noe har likevel endret seg: Jeg har for eksempel begynt å la lærerstudenter selv oppdage at ChatGPT er gjennomgående dårlig til å tolke, forstå og reflektere — i et håp om at denne bevisstgjøringen filtreres ned i skolen.
Vi har ikke gått tilbake til penn og gjennomslagsark på eksamen, men nøyd oss med å revidere reglene for plagiat, og tenkt litt ekstra gjennom hvordan en god oppgave formuleres. Det jeg savner i den pågående årskavalkaden av saker om KI og språkmodeller, midt mellom professorene som ivrig forbereder studentene på at dette er noe de «skal bruke i resten av sitt liv», er et blikk på den etiske siden ved det hele.
Noen slike diskusjoner har blitt løftet frem i norske medier, for eksempel om personvern (som Universitetet i Oslo har løst), opphavsrett og plagiat. Det er lett å se hvordan særlig KI-genererte bilder kun er et knapt steg unna simpelt tyveri, men det er liten prinsipiell forskjell på dette treningsmaterialet, og på romanene til forfatterne som nå saksøker OpenAI. KI-firmaene i Silicon Valley har allerede tilstått: De holder fast på at KI-treningsmaterialet — også de opphavsrettsbeskyttede åndsverkene — må regnes som «fair use», slik at de slipper å betale. Det finnes ikke noe alternativ, de har simpelthen ikke råd til å betale for treningsmaterialet de allerede har brukt.
Det er både en trussel og en bønn om nåde når de sier at hele forretningsmodellen deres vil kollapse dersom treningsmaterialet omfattes av nasjonale og internasjonale åndsverklover. De juridiske hjulene spinner sakte i saker hvor ny teknologi er involvert, men de er til gjengjeld vanskelige å stoppe når de først er i gang. Modellen med å stjele treningsmateriale er ikke bærekraftig i lengden, og har kun fungert på grunn av den midlertidige Vill vest-tilstanden som oppstår fordi lovgivning bruker tid på å innhente teknologiske sprang.
Som en respons på KI-firmaenes klåfingrethet, har Universitetet i Chicago utviklet en gratis vaksine: Glaze er et verktøy for kunstnere, og fungerer som digitalt insektmiddel. Det gjør mikroskopiske endringer i bildet som er usynlig for mennesker, men forpurrer KI-rutinenes lesing av bildet. Nightshade er en mer aggressiv versjon av samme teknologi, som «forgifter» treningsdata, slik at en bilde-KI primært trent på stjålet materiale (f.eks. Midjourney) vil bli gradvis mer ubrukelig. At KI-genererte bilder har oversvømt internett, har også ført til en slags ouroborous-effekt: Ved nye skraperunder har også KI-bilder blitt en del av treningsmaterialet, og disse forgifter også datamaterialet. KI-en spiser seg selv.
En annen, og kanskje mer prekær etisk diskusjon, er den menneskelige og klimamessige kostnaden. Karbonavtrykket til datasentrene — hvor operasjonene som lar ChatGPT generere svar foregår — er notorisk vanskelig å fastslå. Datasentrene oppgir i liten grad slike data selv, og den relative karbonbelastningen avhenger uansett av kraftkilden de til enhver tid bruker. Vi vet derimot at ferskvannsforbruket til kjøling av datasentrene er enormt. I 2014, lenge før ChatGPT, målte amerikanske datasentre sitt årlige behov for vann i milliarder liter. Treningen av GPT-3 alene krevde 700 000 liter vann. Dette er ikke en engangskostnad: Hvert eneste prompt man nå gir ChatGPT krever omtrent en halvliter vann.
Silicon Valley oppfattes naturlig nok som arnestedet for KI-eksplosjonen, men mesteparten av treningsarbeidet med å merke og kategorisere innhold gjøres i lavkostnadsland som India, Øst-Afrika, eller Filippinene — og sågar i enkelte flyktningleirer i Libanon, hvor arbeidskraft er spesielt billig.
Are Bøe Pedersen
De verste overtrampene skjer imidlertid ikke i Silicon Valley. Allerede i januar ble det avslørt at OpenAIs modeller fikk implementert sine innholdsfiltre og moderasjonsrutiner gjennom «håndtrening», et arbeid OpenAI fikk gjort i Kenya og betalte to dollar i timen for. Silicon Valley oppfattes naturlig nok som arnestedet for KI-eksplosjonen, men mesteparten av treningsarbeidet med å merke og kategorisere innhold gjøres i lavkostnadsland som India, Øst-Afrika, eller Filippinene — og sågar i enkelte flyktningleirer i Libanon, hvor arbeidskraft er spesielt billig. Denne tendensen til å outsource det reelle arbeidet bak KI-teknologi — det som faktisk gjør treningsdataene brukbare — til lavkostnadsland, har vært kjent i alle fall siden 2020. Populariteten til ChatGPT og andre språkmodeller har imidlertid gjort denne saken mer aktuell, og de journalistiske undersøkelsene har blitt skalert opp i takt med at behovet for KI-løsarbeidere øker.
Resultatene av undersøkelsene er både lite overraskende og nedslående: KI-løsarbeiderne er «skremte, stressede og underbetalte», enten de jobber for Microsoft, Google, OpenAI eller Scale AI. Amerikanske KI-firmaer er allerede notoriske for å ikke overholde de (få) internasjonale arbeidsreguleringene som finnes. Foruten de lave lønningene, er det ikke uvanlig at de lar være å betale. Det finnes heller ingen jobbsikkerhet når firmaene benytter seg av mellommann-apper, såkalte «Gig-work apps», og slik unngår både ansettelsesforhold og formelt ansvar.
Ingen av disse praksisene er bærekraftige, eller i det hele tatt etisk forsvarlige. Hver gang man stiller et spørsmål i en språkmodell — enten det er ChatGPT, Copilot, Bard eller noe annet — tar man også effektivt stilling til noen andre spørsmål: Hva er den akseptable menneskelige kostnaden for en artikkeloppsummering? Hvor mange liter drikkevann er tilgangen på nye konfirmasjonssanger verdt?
Disse perspektivene har så langt vært ganske fraværende i Norge, men jeg synes ikke årskavalkaden burde gå av stabelen uten dem. Dette — ikke feberfantasier om maskinherredømme og dommedag — er den etiske diskusjonen vi må ha om KI.