Har ChatGPT blitt verre? Dette er følelsen mange brukere opplevde etter lanseringen av GPT-5-modellen i august i fjor. Kortere svar, ulike unøyaktigheter, oppsiktsvekkende forglemmelser… signaler som ikke gikk upåaktet hen av brukerne, som uttrykte sin skuffelse på sosiale medier ved å publisere negative kommentarer og tilbakemeldinger på det tilsynelatende nedgradere av den berømte OpenAI chatboten. Men hvorfor føler vi at ChatGPT er mindre intelligent enn før? En del av problemet oppstår fra selve strukturen til det nye systemet, som ikke er en enkelt modell, men en helhet koordinert av en mekanisme som bestemmer hvilken «kunstig hjerne» som skal brukes avhengig av spørsmålet brukeren stiller. Hvis denne automatiske velgeren – kalt ruter – gjør sine beregninger ufullkommen, brukeren kan få svar av lav kvalitet, selv under samme samtale.

I tillegg til det tekniske problemet er også delikate spørsmål om sikkerhet: et søk etter CCDH (Senter for å motvirke digitalt hat) indikerer at GPT-5, i tester om sensitive emner som selvmord og selvskading, ville ha gitt farlige indikasjoner oftere enn GPT-4o-modellen. Dette kommer ettersom millioner av brukere bruker ChatGPT hver dag til en rekke formål, inkludert følelsesmessig sensitive, noe som øker risikoen for interaksjoner som forsterker forvrengt tro eller skadelig atferd. Og så er det spørsmålet om forventninger drevet av OpenAI: etter måneder med kunngjøringer om ankomsten av stadig mer høyytelses kunstig intelligens, fremstår det som mange ser i dag mer som et mellomtrinn enn en reell revolusjon.

Hovedårsaken er ruteren: hva betyr det

Et av hovedpunktene i følelsen av at ChatGPT har forverret seg siden GPT-5 kom, gjelder bruken av den s.k. ruter. I stedet for alltid å bruke den kraftigste modellen for å gi svar på brukerspørsmål, GPT-5 prøver å forstå hvor kompleks forespørselen din er og velger en lettere modell når spørsmålet er enkelt. I teorien skulle dette gi svar raskere, med lave kostnader og gi universell tilgang til den mest avanserte versjonen av modellen bare når det virkelig er nødvendig. I praksis, men hvis ruteren gjør en feil i vurderingen og en modell svarer som er mindre forberedt på den typen problem du har stilt, vil du ha følelsen av at ChatGPT er mindre «intelligent» enn før. Ifølge noen forskere, hvordan Jiaxuan Du ved University of Illinois, noen ganger blir deler av den samme forespørselen overlatt til forskjellige modeller og deretter rekombinert, noe som genererer motsetninger. Til bladet Formuerforklarte du.

Modellruteren sender noen ganger deler av den samme spørringen til forskjellige modeller. En billigere, raskere modell kan gi ett svar, mens en langsommere, resonnementfokusert modell vil gi en annen, og når systemet kombinerer disse svarene, oppstår subtile motsetninger. Ideen om malruting er intuitiv, men det er veldig komplisert å få det til å fungere.

Grunnen til at du bruker det betingede er at han ikke kunne bevise teorien sin. I tillegg til det tekniske spørsmålet om modellruting, er det også problemstillinger knyttet til innholdssikkerhet. I følge testene til CCDH (Senter for å motvirke digitalt hat), vil GPT-5 reagere problematisk på emner som selvmord eller spiseforstyrrelser oftere enn GPT-4o. I dette tilfellet GPT-5 ville ha produsert skadelig innhold i 63 av 120 svareller i 53 % av tilfellene, sammenlignet med 52 av 120 for GPT-4o, eller 43 % av tilfellene. Mens den forrige modellen hadde en tendens til å avvise ondsinnede forespørsler, ga den nye i noen tilfeller detaljert og potensielt risikabel informasjon. OpenAI svarte med å argumentere for at studien ikke ville vurdere oppdateringer utgitt i oktober, inkludert ytterligere sikkerhetstiltak som foreldrekontroll og forbedret deteksjon av psykiske plager. Det er imidlertid klart at beskyttelsessystemer lett kan omgås av ekspertbrukere, og sektoren leter fortsatt etter effektive og stabile løsninger.

Uoppfylte forventninger til AGI

Som også påvirker følelsen av at ChatGPT er mindre intelligent enn før uoppfylte forventninger til AGIgenerell kunstig intelligens som ville være i stand til å overgå menneskelig intelligens i flere sammenhenger. GPT-5 ble omtalt som et gigantisk skritt i denne retningen, men resultatet viste seg å være mer beskjedent enn forventet. Sannheten, i det minste for øyeblikket, er at det ikke er noen definitiv AI: GPT-5 er et system i overgang (og korreksjonene som er gjort til modellen, utgitt med GPT-5.1 de siste dagene, er bekreftelse på dette). Av alle disse grunnene, hvis ChatGPT virker mindre intelligent enn før, er det fordi du samhandler med en AI som utvikler seg og endrer strukturen. Og inntil denne endringen er fullført, kan inntrykket av en nedgang forbli en del av opplevelsen.