Tromsø kommune får hard medfart for å bruke KI i arbeidet med barnehagekutt. Men kanskje peker feilene på noe viktig: at vi trenger mer, ikke mindre, offentlig mot til å prøve – og til å lære.
Av Silvija Seres, teknolog og investor, Technorocks
En liten feil – og et stort ras
Tromsø kommune brukte kunstig intelligens i arbeidet med en rapport om barnehagestruktur. Det ble raskt omtalt som en digital skandale: AI-en hadde laget falske referanser, og navngitt forskere som aldri hadde skrevet det den påsto. Reaksjonene kom umiddelbart – fra forskningsmiljøene, mediene og til slutt politikerne, som nå har bestilt en egen gransking av hele prosessen.
Men bak de opphetede reaksjonene ligger en mer interessant historie. Dette handler ikke bare om feil – det handler om hvordan vi forstår teknologi. Og om hvordan vi håndterer feil når de skjer i møte med det nye.
Hvorfor KI halusinerer – og hvorfor det ikke er poenget
Når en språkmodell som ChatGPT ikke finner konkret dokumentasjon, prøver den å fylle inn tomrommet med det den tror passer. Den “halusinerer” – men ikke tilfeldig. Den bygger videre på mønstre den har lært fra store mengder tekst, og forsøker å skape plausible sammenhenger. Det betyr at den iblant finner opp en kilde, men ikke nødvendigvis en dårlig idé.
Kanskje er det nettopp dette vi burde lytte til. Når KI viser oss sammenhenger vi ikke visste var skrevet ned, sier den i praksis: “Basert på alt jeg har sett, burde noen ha sagt dette.” Den peker på et rom for kunnskap, ikke nødvendigvis en feil. Flere forskere ble opprørt over å bli tillagt meninger de ikke hadde formulert. Det er forståelig. Men det er også mulig å se det som inspirasjon – som invitasjoner til nettopp de rapportene vi faktisk trenger.
Å teste nytt er ikke en tabbe
Tromsø kommune forsøkte ikke å erstatte mennesker med maskiner. De brukte et verktøy som millioner av organisasjoner nå tester, i håp om å få bedre innsikt i en krevende beslutning. Var det naivt å bruke generativ KI uten etterkontroll? Ja. Men det er også naivt å tro at vi kan lære å bruke ny teknologi uten å feile.
Hvis vi i møte med ethvert forsøk på fornyelse reagerer med refs og granskningsutvalg, får vi en offentlig sektor som ikke tør å eksperimentere. Det har vi rett og slett ikke råd til. Vi trenger flere – ikke færre – kommuner som prøver. Og vi trenger en offentlig samtale som skiller mellom dårlig dømmekraft og nødvendig nyskaping.
Vi tilgir mennesker, men ikke maskiner
Noe av det mest absurde med denne debatten er hvordan vi reagerer på feil fra teknologi – som om mennesker aldri gjør feil. Jeg fikk nylig et kontraktsforslag fra en offentlig aktør vi har ventet på i tre måneder. Dokumentet inneholdt store inkonsistenser og åpenbare slurvefeil. Likevel er det ingen som reagerer – for det er jo “menneskelig”.
Kanskje hadde det vært bedre om byråkraten brukte ChatGPT til å skrive et førsteutkast, og så brukte sin erfaring og dømmekraft til å redigere og forbedre. Det ville spart tid, gitt bedre kvalitet og frigjort kapasitet. Å være stolt av menneskelig utilstrekkelighet på bekostning av fellesskapets velferd, er neppe noe vi bør dyrke videre.
Det vi egentlig trenger
Kunstig intelligens alene gir oss ikke bedre styring. Den kan ikke overta vurderingene, men den kan hjelpe oss med å se mer, forstå raskere og formulere bedre spørsmål. Da må vi bruke den riktig – og ikke gi opp ved første feil.
For at det skal skje, må vi skape et felles språk og en felles forståelse, både blant ledere, fagpersoner og innbyggere. Vi må tørre å diskutere hva KI faktisk kan gjøre, hva den ikke kan – og hvordan vi bygger strukturer rundt den som sikrer ansvarlighet og læring.
Derfor vil jeg feire de i Tromsø kommune som var fremoverlente nok til å teste noe nytt, og som våget å lære høyt. Det er akkurat slike initiativer vi trenger mer av – ikke færre. For fremtiden bygges ikke av dem som venter, men av dem som prøver.
PUBLISERT I ND NORDNORSK DEBATT 22 april 2025 https://www.nordnorskdebatt.no/tromso-feilet-litt-og-gjorde-alt-riktig/o/5-124-361531