This is my original Norwegian draft of an essay published in the Danish foreign policy magazine Udenrigs today as part of a special issue on AI and foreign policy. I argue that AI is influencing the way we tell stories, and more seriously, that there is a risk of this being weaponised in attacks on democracy that target our cultural heritage and the stories we share about our societies.
Kunstig intelligens former våre samfunns fortellinger og kultur. Mitt håp er at alle som arbeider med datasikkerhet også tenker på viktigheten av at beskytte vår kulturarv, biblioteker og arkiver. Det er avgjørende for vårt demokrati, skriver Jill Walker Rettberg.
Fortellinger binder oss sammen. Fortellinger gjør oss til et folk, en nasjon, til en bevegelse, en ideologi, en generasjon.
Hva skjer så når AI begynner å fortelle for oss, eller med oss? Hva skjer når AI bestemmer hvilke fortellinger du får se og hvilke som blir usynlige?
Jeg leder et forskningsprosjekt som skal undersøke hvordan språkmodeller gjenskaper fortellinger som den finner i tekstene de er trent opp på. Hypotesen min er at dette gir en type AI bias – altså en skjevhet, et innebakt sett med fordommer – som er dypere enn den du kanskje allerede har hørt om, den typen AI bias hvor ansiktsgjenkjenningssystemer oftere tar feil av svarte mennesker enn hvite eller generativ AI som alltid framstiller en statsminister som mann og en lærer som kvinne.
Det er ikke så vanskelig å få øye på den typen bias. Det kan være vanskeligere å vite om vi blir subtilt manipulert til å endre fortellingene som binder oss sammen. Hva skjer om amerikanske språkmodeller påvirker dansk politisk retorikk?
Tenk deg at ChatGPT og andre amerikanske språkmodeller blir integrert i alle våre datasystemer: i Microsoft Word, Google Docs, i regneark, sosiale medieplattformer, epostprogrammer, i alt. Når du skriver noe, på dansk eller norsk eller engelsk, så foreslår datamaskinen forsiktig en liten korreksjon, en retorisk forbedring, en litt annen vri enn du først hadde tenkt. Talen eller presentasjonen eller rapporten eller eposten du skrev blir ikke sexistisk eller rasistisk, det er ikke en så tydelig dreining og du står fortsatt inne for det du har skrevet med støtte fra AIen. Men etterhvert merker du kanskje at fortellingene dine blir annerledes. Litt mer amerikanske. Mer som Hollywood enn Kardemomme By, mer Disney enn H.C. Andersen.
OK, rapportene og epostene du skriver har kanskje ikke så mye likheter med verken Hollywood eller Kardemomme By. Men du skriver dem sannsynligvis litt annerledes om du jobber i Danmark og skriver for andre i samme land enn du ville gjort hvis du jobbet i USA og skrev for amerikanere. Vi bruker språk forskjellig i forskjellig kontekst.
Subtile forskjeller
Tenk på Folk og røvere i Kardemomme By, en fortelling de fleste barn som vokser opp i Norden kjenner men som er ganske ukjent ellers i verden. Røverne forstår ikke at de må jobbe, men når de får hjelp av Politimester Bastian til å finne ut av ting så ender de opp med å redde byen fra en storbrann, og blir gode borgere som bidrar til samfunnet. Tenk så på skurkene i amerikanske filmer. I de fleste Disneyfilmer dør skurken tilslutt, eller bannlyses i det minste. I en Westernfilm eller en bank heist så glorifiseres skurkene – men rehabiliteres ikke. Den nordiske modellen hvor vi prøver å rehabilitere kriminelle framfor å stenge dem utenfor samfunnet bygger blant annet på en felles fortelling vi kjenner fra barndommen om røvere som kan bli brannmenn og musikanter om man bare legger tilrette for det.
Nordiske fortellinger er mindre entydige enn populære amerikanske fortellinger. H.C. Andersens lille havfrue lider; Disneys havfrue får prinsen og lykken med. Joda, vi har andre fortellinger her i Nord som kanskje ikke er bare positive, som janteloven, men dette er også en del av vår kultur.
Nå har jo europeere klaget på amerikansk kulturimperialisme i mange tiår: vi ser amerikanske filmer og serier, hører på amerikansk musikk, bryr oss nesten mer om amerikansk politikk enn vår egen. Men når kultur spres gjennom algoritmer kan innflytelsen være vanskeligere å oppdage og enda mer gjennomtrengende. Vi vil jo helst selv bestemme hvordan vi utvikler fortellingene om oss selv.
AI bias: er min kjæreste mann eller kvinne?
La oss begynne med den typen AI bias teknologiutviklerne er klar over og prøver å rette opp. AI bias er altså en slags skjevhet i outputen til AIen som kan virke fordomsfull eller diskriminerende. Prøv for eksempel å åpne Google Translate og skriv inn ordet «kæreste». Hva er den engelske oversettelsen du får opp? Når jeg gjør dette i januar 2025 oversetter Google «kæreste» til «boyfriend» når det er det eneste ordet jeg skriver, men oversettelsen endrer seg for hvert ord jeg legger til. Hvis jeg skriver «Min kæreste» endrer kjønnet seg og oversettelsen er «my girlfriend».
Hvorfor endret kjønnet seg? Fordi ordene «min kæreste» statistisk sett peker på en kvinne. I alle fall er det slik i treningsdatasettet til Google Translate: altså alle tekstene maskinlæringsalgoritmene har prosessert for å finne mønstre og sammenhenger mellom ord og tegn og derav lage en modell for hvordan språk fungerer. Språkmodellen, den kunstige intelligensen Google Translate bruker, er trent opp på store mengder med tekster som inneholder den type fordommer vi ofte ser i samfunnet. Hvis jeg skriver at min kæreste er sterk eller reparerer bilen eller er CEO eller læge så oversetter Google Translate kæreste til boyfriend. Men hvis min kæreste vasker opp, klager eller er lærer så er min kæreste en kvinne i følge Google Translate: «my girlfriend is complaining».
Du har hørt dette før, tenker du kanskje, og det ble vel fikset? Det stemmer: etter en debatt om dette i danske medier i 2022 endret Google søkemotoren slik at «min kæreste» alltid ble oversatt som det kjønnsnøytrale «my partner». De endret det aldri på norsk, og nå har det tydeligvis vært en softwareoppdatering hvor Google har glemt å ta med det som tydeligvis var en midlertidig løsning, et slags plaster på et gapende sår som gjør at vi slipper å se på problemet men som ikke egentlig har løst det.
Fra representasjon til modell
Det grunnleggende problemet er at språk er representasjon. En språkmodell er en modell av språk, men språk er ikke virkelighet, det er en representasjon av virkeligheten som må fortolkes og forstås i kontekst. Språkmodeller behandler språk som rådata for en simulering. Ord tas ut av sin sammenheng og blir til datapunkt i et mangedimensjonalt koordinatsystem, en modell som viser at når ordene kæreste og læge forekommer i nærheten av hverandre så er det statistisk sannsynlig at de begge viser til en mann og ikke en kvinne.
Modellering er en metode som fungerer svært godt i mange domener. Vi har brukbare værmeldinger fordi vi har modeller av hvordan vind og temperatur og havstrømmer påvirker hverandre, og nye medisiner utvikles raskere fordi vi kan modellere hvordan biologiske og kjemiske prosesser fungerer.
Men språk og bilder er ikke virkelighet, det representerer virkeligheten. Et maleri, et teaterstykke, innsettelsestalen til en ny president: alt dette er representasjoner av virkeligheten. Vi vet at ord og bilder må fortolkes, forstås i en kontekst, forstås som kommunikasjon med et budskap og et mål som vi selv ikke nødvendigvis er enige i. En språkmodell er ikke representasjon på denne måten: den er en modell som simulerer virkeligheten. Den framstår som «sann» på en annen måte enn talen til en president eller et bilde postet på Instagram.
Det fins bilder som ikke er representasjoner men som er operative: de gjør noe i stedet for å vise noe. En teknisk tegning som viser hvordan du skal bygge noe eller en datavisualisering eller kartet på telefonen din som veileder deg gjennom gatene – de modellerer virkeligheten og har en helt annen funksjon enn Munchs Skrik eller bildene vennen din sendte deg av babyen sin. Begrepet operativt er mest brukt om bilder (Jussi Parikka har skrevet en bok om den, og jeg skriver også om dem i boken min Machine Vision), men det fins også tekster vi kan kalle operative: bruksansvisninger, telefonkatalogen, oppskrifter. Representasjonen sniker seg likevel fort inn – de beste oppskriftene har forklaringer som små fortellinger, eller bilder som er så vakre at man blir sulten.
Innen humaniora og kvalitativ forskning er fortolkning hovedmetoden vår, og den er utviklet nettopp for representasjoner, altså for å forstå språk og bilder. Innen naturvitenskapene, medisin og økonomi er modeller vanlige metoder som fungerer godt når man har mye data som er pålitelig.
Språk er ikke nøyaktig. Språk er performativt, språk skaper kultur. Vi former oss selv som individer og samfunn ved å snakke med hverandre, fortelle hverandre om oss selv og om hverandre, om våre mål og ønsker og redsler.
Filosofer og matematikere har ettersøkt et universelt språk i århundrer, og i fysikken og matematikken har man lykkes i dette, i hvert fall tildels: vi kan uttrykke mange årsakssammenhenger som algebraiske formler. E=mc2. Men det betyr ikke at det er mulig å uttrykke alt gjennom kvantitative modeller.
Mange filosofer mener at språk ikke bare er et middel for å kommunisere kunnskap om verden, språk er nødvendig for å kunne tenke. Vi utvikler oss med språket, vi er språk tvers gjennom. En ekstrem variant av dette framføres often som en parodi som prøver å så tvil om hele idéen: «det er ingen virkelighet, kun språket». Nå har filosofer i alle tider undret seg over hvordan vi egentlig kan vite at virkeligheten finnes. Platon stilte spørsmålet i hulelignelsen – hvordan kan vi være sikre på at våre sanser ikke lurer oss? Kanskje vi er som mennesker i en hule som ser et skyggespill fra det som er utenfor hulen og tror at det er alt som finnes, hele virkeligheten? Descartes spurte hvordan vi kan være sikre på at det vi erfarer gjennom sansene våre ikke er lureri satt i spill av en ond demon. Hans svar var at det eneste vi kan være sikre på er at vi tenker: Cogito, ergo sum. Og i dag foreslår tech bros i Silicon Valley at vi lever i en simulasjon, vi er ikke mer en figurer i et dataspill, som i filmen The Matrix.
Så kanskje språkmodellen er hele virkeligheten? Hvorfor ikke bare stole på ChatGPT?
Det åpenbare svaret er at dagens språkmodeller ikke er trent opp på hele vår virkelighet. Hvis du trener en modell på data som ikke er representativt så får du en dårlig modell. Et ansiktsgjenkjenningssystem trent opp bare på bilder av hvite menn vil ikke kunne gjenkjenne afrikansk amerikanske Joy Buolamwini sitt ansikt når hun vil spille et spill på Xboxen sin.
Representative treningsdata kan løse bias
Forskeren Joy Buolamwini fra MIT Media Lab var en av de første til å påpeke problemene med AI bias. Hun oppdaget at ansiktsgjenkjenning var rasistisk da hun ville spille et spill på en Xbox Kinnect som bruker et kamera som interface. Når et menneske står foran spillkonsollen skal AIen identifisere ansikt og bevegelser slik at du kan styre spillet ved å bevege deg. Men xboxen gjenkjente ikke svarte ansikter, så Buolomwini kunne ikke delta i spillene – inntil hun kom på å ta på seg en hvit ansiktsmaske med utskårne hull til øyne og munn. Da gjenkjente spillkonsollen henne som et menneske.
Du finner en rekke videoer på YouTube hvor Buolamwini forteller om dette, men hun gjorde mer enn bare å fortelle folk om problemet. Hun satte i gang med en audit eller en revisjon av ansiktsgjenkjenningssystemer for å teste om de faktisk hadde en bias som gjorde at de gjenkjente hvite ansikter bedre enn svarte – og Hun publiserte resultatene på nettstedet Gender Shades (http://gendershades.org) og fikk stor medieomtale.
Selv om Microsoft, Face++ og IBM hadde ganske gøy nøyaktighet på å gjenkjenne ansikter i snitt (fra 87-93%) så er resultatene ganske annerledes når man bryter dem ned på kjønn og hudfarge. IBM hadde for eksempel 99,7% nøyaktighet for hvite menn, men bare 65,3% nøyaktighet for svarte kvinner. Dette kan har alvorlige konsekvenser når ansiktsgjenkjenning tas i bruk av politiet eller i militæret, og vi har allerede sett en rekke eksempler på at uskyldige svarte mennesker i USA har blitt arrestert basert på feilaktig ansiktsgjenkjenning. Hvis en militær drone bruker ansiktsgjenkjenning for å finne et mål som skal drepes så kan det bety at mørkhudede kvinner har langt høyere sjanse for å bli feilaktig drept enn hvite menn.
AI-modellene for ansiktsgjenkjenning er trent opp på mer strukturerte datasett enn generative språkmodeller som ChatGPT. For å lage et ansiktsgjenkjenningssystem så trenger du først et datasett med fotografier av ansikter som er annotert. CelebA er et eksempel på et slikt datasett. Det består av over 200,000 bilder av kjendis-ansikter, og hvert bilde er annotert med 40 binære attributter. Et av bildene viser en kvinne med lukkede øyne og perfekt sminke som lager en trutemunn som om hun venter på at noen skal kysse henne. Her er noen av attributtene bildet er tagget med:
5_o_clock_shadow = FALSE
Big_lips = TRUE
Attractive = TRUE
Male = FALSE
Pointy Nose = FALSE
Wearing Hat = FALSE
Mustache = FALSE
Når datasettet er på plass bruker du maskinlæring til å finne mønstre i datasettet. Hvilken pikselsammensetning er statistisk mest sannsynlig i bilder hvor hvor Attractive = TRUE?
Språkmodeller forenkler data
To vanlige årsaker til AI bias er at det er for lite mangfold i treningsdatasettet og at annotasjonene av dataene er problematiske. CelebA har begge problemer. Det er stor overvekt av hvite mennesker, og de fleste er unge – det betyr at ansiktsgjenkjenningssystemet du trener opp på CelebA kan være god til å gjenkjenne vakre unge hvite mennesker, men trolig gjør mange feil om du viser den bilder av eldre mennesker som ikke er hvite. Annotasjonene er også problematiske – det er kun TRUE og FALSE som er mulige svar. Hvem bestemmer om et menneske er Attractive? True or false? Simone de Beauvoir, som skrev Det annet køn, ville nok ha påpekt at en kjønnsmarkør hvor kvinner kun eksisterer som Male = FALSE har et problem. Judith Butler, som skrev Gender Trouble, ville påpekt at mennesker som hen selv som ikke identifiserer seg som mann eller kvinne ikke passer inn i et slikt binært system.
Det går an å forbedre AI bias som skyldes dårlig mangfold i treningsdatasettet. Etter Joy Buolamwini demonstrerte hvor dårlig ansiktsgjenkjenning var til å gjenkjenne svarte, og særlig svarte kvinner, så har selskapene klart å forbedre treffsikkerheten betydelig ved å bruke flere bilder av kvinner og av mennesker med forskjellig etnisk bakgrunn i treningsdatasettene.
Like etter ChatGPT tok verden med storm satt jeg i et ekspertutvalg det norske Forskningsrådet hadde satt ned for å gi råd om hvordan best bruke «AI-milliarden» regjeringen hadde bestemt Norge skulle satse på AI-forskning. Informatikerne, som jo er eksperter på hvordan AI fungerer, mente at målet måtte være raske og nøyaktige modeller. Det høres jo bra ut.
Problemet er at nøyaktighet ikke alltid er det vi ønsker når vi snakker om mennesker og kultur. Systemet som ikke gjenkjente Joy Buolamwini som menneske var nøyaktig i forhold til modellen den hadde av «hvordan et menneske ser ut» basert på bildene av hvite menn den var trent opp på. Google Translate sine kjønnskonservative tolkninger av min kæreste munner ut fra en nøyaktig statistisk analyse av hvordan menn og kvinner omtales i tekstene den er trent på.
Når språkmodeller finner mønstre i datasett for å lage en modell så forenkler de dataene. Som enhver statistisk modell må de se bort i fra unntakene, detaljene, outliers, for hvis du tar for mye hensyn til slike anomalier så er det umulig å komme med brukbare prediksjoner. Men vi mennesker er alle outliers på hver vår måte. Det finnes ikke et gjennomsnittsmenneske. Ikke egentlig.
Hva er modellene trent opp på?
Så hva er modellene trent opp på? De kommersielle selskapene som OpenAI og Google vil ikke ut med detaljene, men vi vet ganske mye om hva de grunnleggende modellene var trent opp på. I 2020 publiserte skaperne av GPT-3 en oversikt over treningsdataene.
Et viktig datasett er det engelskspråklige Wikipedia. Dette er vektet høyere enn de andre fordi man regner det som kvalitetssikret materiale. Men det fins en rekke studier som har funnet bias i Wikipedia. Det er for eksempel mange flere artikler om menn enn kvinner, også når man korrigerer for personenes karrierer – som antall utgivelser og anmeldelser for forfattere eller verv for politikere. Dette skyldes ikke bare at flere artikler om menn i utgangspunktet blir laget, men også, som forskeren Francesca Tripodi har vist, at langt flere artikler om kvinner enn om menn blir slettet fordi de ikke blir ansett som å ha tilstrekkelig notablitet. En annen forskningsartikkel sammenlignet Wikipediaartikler om sosiologiprofessorer med andre datasett om professorer i fagfeltet, som hvilken akademisk rang de har og hvor mye de er sitert, og fant at professorer som var kvinner eller som ikke var hvite hadde langt mindre sjanse for å ha en Wikipediaartikkel om seg enn hvite menn, gitt samme karrierestadium og siteringsfrekvens. Man har også funnet at artikler om kvinner oftest er skrevet på en annen måte enn artikler om menn: det er mer vekt på familie og relasjoner i biografiene om kvinner enn om menn.
En vitenskapelig artikkel om bias på Wikipedia har en tittel som oppsummerer problemet godt: «Men are elected, women are married.» Jeg vender tilbake til Google Translate. Min kæreste er folkevalgt. Google sin språkmodell, som nok også er trent opp på Wikipedia, svarer raskt: My boyfriend is an elected official.
Men selv om Wikipedia er vektet tyngst så er det andre datasett som har mer tekst. En filtrert versjon av Common Crawl er den største komponenten. Common Crawl er et åpent tilgjengelig datasett som er skrapt fra vanlige websider. Over halvparten av websidene er fra USA. Noe som kanskje overrasker deg er at mye av materialet kommer fra patentdatabaser, og det er også her mye av materialet som ikke er på engelsk ligger, fordi mange land krever at patenter skal oversettes til flere språk. Men det meste av dette er maskinoversatt. Et annet særtrekk ved den filtrerte versjonen av Common Crawl er at den er sensurert. Sensuren er ganske enkelt gjennomført: man har fjernet websider som inneholder ord på en svarteliste som faktisk ligger åpent tilgjengelig på GitHub men den artige tittelen List of Dirty, Naughty, Obscene, and Otherwise Bad Words. Hvis du tar en titt på listen ser du at de fleste ordene nok er ment å gjøre det mulig å filtrere ut pornografi: i tillegg til opplagte synonymer for sex er det ord som «barely legal» og «blonde on blonde action» i tillegg til ord som også har ikke-pornografiske betydninger, som «domination», «escort», «voyeur». Revisjoner av Common Crawl viser at filtreringen også har fjernet mange legitime websider, bl.a. informasjonssider om trygg sex for homofile («gay sex» er på svartelisten) men også sider som er skrevet i afrikansk amerikansk dialekt.
Et annet datasett som er brukt er WebText2. Dette er et sett med websider som folk på Reddit har lenket til, og hvor lenken fra Reddit har fått minst tre oppvoteringer («upvotes»). Tanken er at dette gir et lag av kvalitetssikring – minst tre mennesker har ment at disse websidene var verdt å dele. Så er det Books1 og Books2. Jeg ville jo antatt at en språkmodell ville vært trent opp på Gutenbergbiblioteket som består av digitaliserte bøker som er utenfor copyright. Men utviklerne sier aldri hva Books1 og Books2 faktisk er, og jeg må anta det er fordi de har brutt copyrightreglene ved å bruke datasettene. Mange har foreslått at ett av datasettene er BookCorpus, som er åpent tilgjengelig og består av 11038 selvpubliserte romaner fra nettstedet Smashwords. Her er det mye romantikk og klisjéer, og revisjoner av datasettet finner også at det er en overvekt av kristenkonservative romaner.
Google Translate er nøyaktig og presis i sin gjengivelse av datasettene den er trent opp på. Men treningsdatasettene er ikke nøyaktige og presise i sin gjengivelse av verden. Ja, språkmodellene speiler en versjon av virkeligheten vi er blitt vant til, hvor professorer stort sett er hvite menn mens kvinner helst hører til i familiesfæren, men det er en fordreid versjon av virkeligheten. Den stemmer faktisk ikke lenger.
The feed: intendert og ikke-intendert AI bias
Jeg kommer tilbake til fortellingene, og hvordan språkmodellene vi bruker kan vri på det vi skriver, men først vil jeg si noe om en annen type AI, anbefalingsalgoritmene som former feeden din, nyhetsstrømmen du ser på sosiale medier og aviser, som fremhever visse tekster og skjuler andre.
Som oftest er AI bias ikke intendert. Man definerer et mål og bruker maskinlæring for å finne ut hvordan oppnå målet. Målet kan være rimelig nok. Et medienettsteder som YouTube ønsker f.eks. å få flest mulig lesere eller seere til å bruke mest mulig tid på plattformen. YouTube bruker maskinlæring på data om hvilke videoer seere bruker mest tid på og øker seertallene ved å legge flere av disse videoene i feeden din. Det var sannsynligvis ingen i ledelsen hos YouTube som tenkte på at det er når du blir opprørt, sint eller redd av en video at du mest sannsynlig blir sittende og se på den. Dermed ender anbefalelsesalgoritmen opp med å mate oss med videoer som gjør oss sinte eller redde.
Kanskje jeg er naiv. Det finnes jo grupper som ønsker å så usikkerhet og angst, å så tvil om demokratiet og om samfunnsmodellen vår. Det finnes aktører som ønsker mer polarisering, mer redsel, fordi det hjelper dem å oppnå sine mål. Jeg kommer tilbake til det.
Kanskje styret i YouTube også er mer kyniske enn jeg håper. Kanskje de ser på tiår av medieforskning som viser at frykt selger aviser. Når vi blir redde søker vi informasjon, og sosiale medier er et perfekt ekkokammer for å gjøre oss reddere og reddere, og dermed bruker vi mer og mer tid på plattformene som tjener mer og mer annonsekroner på oss. Du prøver sikkert også å unngå doomscrolling. Mediene tjener mer penger om du ikke klarer å unngå det.
Maria Mäkelä er en finsk narratolog, altså en som forsker på narrativer, som har undersøkt hvilke fortellinger som går viralt i finske sosiale medier. Det er stort sett fortellinger om vanlige mennesker som gjør noe moralsk forbilledlig – faktisk ligner fortellingene mest på middelalderens moralitetsfortellinger. Det er for eksempel et vanlig menneske som står bak en fattig alenemor på butikken og betaler for henne når hun ikke har råd til melk og brød. Eller en webdesigner eller forretningskvinne blir syk og får en omvending så hun endrer livsstil og blir nettkonsulent for å hjelpe andre med rydding eller coaching eller egenutvikling. Mens 1800-tallsromanen fortalte komplekse samfunnskritiske fortellinger så er dette fortellinger hvor felleskapet ikke har noen rolle og man kun har handlingskraft som enkeltperson, ikke i en gruppe. En fortelling om at vi alle betalte skatt og dermed hadde alenemoren nok penger til å betale for matvarene sine selv, ja en slik fortelling går ikke viralt.
Det er ikke rom for fortellinger om velferdsstaten i anbefalingsalgoritmene på sosiale medier. Sannsynligvis har ingen planlagt at det skal være sånn. Det bare ble sånn da man optimaliserte algoritmene for at folk skulle dele mest mulig, se mest mulig reklame, se på skjermene sine så lenge som overhodet mulig.
Andre ganger er bias i høyeste grad intendert. En analyse av tweets på X før og etter Elon Musk erklærte sin støtte for Trump 13. juli 2024 viser at poster fra Elon Musk selv og fra republikanere ble sett (view counts) av mange flere etter støtteerklæringen enn før, og at denne endringen ikke skjedde for demokratiske poster. Musk sine egne poster ble også signifikant mer retweetet enn før 13. juli. Forskerne som gjennomførte studien, Mark Andrejevic og Timothy Graham, skriver at dette tyder på en endring av algoritmen for å promotere Musk i sær men også andre som støttet Trump.
Mark Zuckerberg var på sin side helt eksplisitt da han endret Metas politikk om faktasjekking: det var fordi det var et regimeskifte i USA. Biden advarte om at USA har blitt et oligarki som styres av rike teknologifolk. Oligarkiet styrer ikke bare mediene men også algoritmene våre.
«Data sovereignty» – trenger vi egne modeller trent på vår egen data?
Språk skaper samfunn. Vi tenker med språk. Men språkmodellene tar et språkkorpus som viser en forvrengt versjon av virkeligheten og bygger så sin forståelse av verden på dette vrangbildet. Det er ikke sikkert at det finnes noen teknologisk løsning på dette. Nøyaktighet er ikke et tilstrekkelig mål for god kommunikasjon, god samfunnsanalyse, god litteratur, god politikk.
Europa har gått foran med sterk regulering av teknologibransjen, og det er det helt nødvendig å fortsette med. Vi har lært oss til å beskytte persondataene våre, og EUs AI Act gir mange gode beskyttelser fra den mest manipulerende AIen. For eksempel må utviklere oppgi hvilke treningsdata modeller er trent opp på, og det gis klare regler for høyrisikosituasjoner hvor AI ikke kan brukes. Tilfeller som i USA hvor feilaktig ansiktsgjenkjenning fører til at uskyldige blir arrestert for en forbrytelse vil for eksempel ikke være mulige med vårt lovverk. Det er bra.
Nasjonalbiblioteket i Norge har gjort et forsøk på å trene opp språkmodeller på norske tekster. Norge har vært langt foran de fleste land med digitalisering, og alle bøker utgitt i Norge er nå digitaliserte. Alle bøker utgitt før 2000 er tilgjengelige for alle med norsk IP-adresse gjennom bokhylla.no gjennom en rettighetsavtale med Kopinor, men de har ikke vært tilgjengelige som treningsdata for OpenAI og andres språkmodeller.
I 2024 ba den norske regjeringen Nasjonalbiblioteket om å trene opp språkmodeller på norske bøker, aviser, tidsskrifter og annet digitalisert materiale. Hvis disse språkmodellene fungerte bedre i norsk kontekst skulle man så utvikle løsninger for kollektiv rettighetsklarering.
Prosjektet ble kalt Mimir-prosjektet, og resultatene var klare: å trene språkmodeller på norske opphavsrettsbeskyttede tekster ga bedre resultater når man testet modellene for god grammatikk, evne til å gjøre logiske slutninger, evne til å svare på spørsmål om en tekst eller oppsummere innhold, osv.
Men det var ett unntak: Jon Fosse-paradokset som Nasjonalbiblioteket kalte det i sin rapport. Resultatene ble nemlig bare bedre hvis de utelot skjønnlitteratur og bare inkluderte sakprosa og aviser. Hvis du trener opp en språkmodell på romaner – i hvert fall på norske romaner – så blir den dårligere. Eller så enkelt er det kanskje ikke. Språkmodellen som har fått skjønnlitteratur som del av treningsdataene genererer mer mangfoldige tekster, men den er dårligere til tegnsetting og grammatikk.
Hvordan sørge for at fortellingene våre forblir våre egne
I fjor ble British Library hacket slik at de ikke lenger hadde tilgang til sin digitale katalog eller til HR-data. Hackerne ville ha løsepenger; såvidt jeg vet endret de ikke noe, de bare holdt dataene «hostage». Jeg besøkte dem i den ikke-digitale perioden. Alt måtte skje på gamlemåten. Jeg fikk hjelp til å bruke støvete gamle kortkataloger som viste til microfilmkopier av 1800-tallsbrevene jeg var ute etter. Takk og pris for at de hadde tatt vare på disse førdigitale verktøyene. De originale brevene på papir ville det vært umulig å finne, for det var kun den digitale katalogen (som hackerne kontrollerte) som hadde oversikt over hvor de var lagret. Digitaliserte brev var like utilgjengelige.
Tenk om hackere ikke ville ha løsepenger men heller ville destablisere en nasjon. Da ville de kanskje hacke seg inn i nasjonalbiblioteket og statsarkivet og Danmarks statistik og endre bare litt på dataene. Orwells skrekkvisjoner fra romanen 1984 er teknologisk mulige i dag: tenk om hackerne gjorde små endringer, uten at vi merket det, i digitale medier, rapporter og referat i statens arkiv, kanskje i digitale lærebøker og aviser og barnebøker. Med språkmodeller er det enkelt å endre på språk. «Skriv statsministerens nyttårstale om i stilen til Trump.» Kanskje det ville vært en for brå endring, men tenk om de endrer seg sakte, skritt for skritt.
Tenk om vi ikke oppdager at dataene er endret. Kanskje vi ikke burde ha kastet de gamle leksikonene våre men beholdt dem i bokhyllene. Hva bør du laste ned nå og lagre på en minnepinne så du har et sammenligningsgrunnlag om du en dag i framtiden lurer på om det virkelig var det Søren Kierkegaard skrev, om det virkelig var det Mette Fredriksen sa?
Jeg håper at alle som jobber med datasikkerhet også tenker på viktigheten av å beskytte kulturarv, bibliotek og arkiver, og ikke bare på mer opplagte militære mål.
Digitalisering har ført mye godt med seg. Men det har også åpnet opp for manipulering og skjevheter som både skyldes teknologien i seg selv og aktører som bruker teknologien mot oss.
AI handler om mye mer enn bare teknologi. AI handler også om språk, om kultur, om medier, om overtaling og om mennesker. La oss sørge for at vi fortsetter å kunne fortelle våre egne fortellinger.
Jill Walker Rettberg, Professor og nestleder ved Senter for digitale fortellinger, Universitetet i Bergen
Artikkelen i Udenrigs:
Rettberg, Jill Walker. 2025. “Fra demokrati til algoritmokrati”, Udenrigs. https://udenrigs.dk/fra-demokrati-til-algoritmokrati/