AI-hallusinasjoner forverres til tross for fremskritt innen resonneringsmodeller - Bransjeutfordringer forklart

Kunstig intelligens-modeller har lenge stått overfor utfordringen med hallusinasjoner, en bransje-eufemisme for feilaktig informasjon som store språkmodeller ofte presenterer som fakta. Ifølge retningen de nyeste "resonnerings"modellene—utviklet av selskaper som Google og OpenAI for å "tenke" gjennom problemer før de svarer—tar, ser det ut til at problemet forverres i stedet for å bli bedre. Som rapportert av The New York Times, øker AI-modellenes kraft og deres tendens til å hallusinerer, ikke reduseres. Dette er en ubeleilig realitet ettersom flere brukere strømmer til AI-chatboter som OpenAI sin ChatGPT og bruker dem til en økende rekke oppgaver. Når chatboter genererer tvilsomme eller feilaktige utsagn, risikerer brukere å bli pinlig berørt eller få enda verre konsekvenser. Enda mer bekymringsfullt er det at AI-selskaper sliter med å finne ut hvorfor chatboter produserer flere feil nå enn tidligere—en forvirrende situasjon som understreker at selv AI-skaperne ikke fullt ut forstår hvordan teknologien fungerer. Dette alarmerende mønsteret utfordrer den utbredte troen i bransjen om at skalering av AI-modeller i seg selv vil gjøre dem mer pålitelige og kapable. Risikoen er ekstremt høy, ettersom selskaper fortsetter å investere titalls milliarder dollar i å bygge AI-infrastruktur for stadig større og kraftigere "resonnerings" modeller. Noen eksperter mener at hallusinasjoner kan være iboende i teknologien, noe som gjør det nesten umulig å eliminere problemet fullstendig. “Til tross for våre beste anstrengelser vil de alltid hallusinerer, ” sa Amr Awadallah, administrerende direktør i AI-startupen Vectara, til The New York Times.
“Det vil aldri forsvinne. ” Problemet er så utbredt at hele selskaper nå spesialiserer seg på å hjelpe bedrifter med å håndtere og redusere hallusinasjoner. “Å ikke håndtere disse feilene ordentlig gjør i praksis AI-systemenes verdi fullstendig ugyldig, ” sa Pratik Verma, medstifter av Okahu, et konsulentselskap som bistår bedrifter med å utnytte AI mer effektivt, til NYT. Dette kommer etter at OpenAI sine nyeste resonansmodeller, o3 og o4-mini, som ble lansert mot slutten av forrige måned, viste seg å hallusinnere oftere enn tidligere versjoner. På OpenAI sitt interne nøyaktighetsmål, hallusinerte o4-mini-modellen 48 prosent av gangene, noe som viser dårlig sannhetsnivå. O3-modellen hadde en hallusinasjonsrate på 33 prosent, omtrent dobbelt så høyt som selskapets tidligere resonansmodeller. På samme måte som New York Times påpeker, står også konkurrenter som Google og DeepSeek overfor de samme problemene, noe som tyder på at dette er en industriomfattende utfordring. Eksperter advarer om at etter hvert som AI-modeller blir større, avtagende forbedringer fra den ene modellen til den neste gjør at fremgangen minker. Med selskaper som raskt utmatter tilgjengelig treningsdata, tyr mange til syntetisk—eller AI-generert—data for å trene modeller, noe som kan få potensielt katastrofale konsekvenser. Oppsummert, til tross for kontinuerlige innsats, er hallusinasjoner mer utbredt enn noensinne, og foreløpig tyder ingenting på at teknologien viser tegn til forbedring. For mer om AI-hallusinasjoner, se: “You Can’t Lick a Badger Twice”: Googles AI lager opp forklaringer på ikke-eksisterende folksomme uttrykk.
Brief news summary
Kunstige intelligens-modeller genererer stadig flere falske opplysninger kjent som «hallusinasjoner», hvor de presenterer ukorrekte fakta til tross for forbedringer i resonneringsevnen. Dette problemet påvirker allment brukte AI-verktøy som OpenAI’s ChatGPT og bidrar til spredning av feilinformasjon. Overraskende nok har større og mer avanserte modeller en tendens til å hallusinerere mer, noe som utfordrer troen på at større modeller alltid er mer pålitelige. Eksperter anser hallusinasjoner som en iboende begrensning i dagens AI-teknologi, selv når investeringene i AI øker. For å bekjempe dette lanserer selskaper tjenester for å oppdage og håndtere hallusinasjoner, og erkjenner at å ignorere dem reduserer AI-verdien. Studier viser at OpenAI sine nyeste modeller hallusinerer nesten 48 % av tiden, med lignende problemer i Googles modeller, noe som viser en industriomfattende utfordring. Faktorer som syntetiske treningsdata og økende modellstørrelse kan forverre hallusinasjonsratene. Oppsummert forblir AI-hallusinasjoner et betydelig og økende problem uten klare løsninger ennå.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Blockchain-regjeringen presenterer en markedsmuli…
Det globale markedet for Blockchain Government ekspanderer raskt, verdsatt til 22,5 milliarder dollar i 2024 og forventes å øke til 791,5 milliarder dollar innen 2030, med en robust årlig vekstrate (CAGR) på 81 % fra 2024 til 2030.

Mann drept i 2021 "taler" under domsavhør for mor…
I et banebrytende trekk i amerikanske domstoler brukte familien til Chris Pelkey, en mann som ble drept i en raserikhtsulykke i Arizona i 2021, kunstig intelligens (AI) til å lage en video av ham som leverte en offererklæring under domenes seanse.

Jeg prøvde å se hvordan jeg vil eldes ved hjelp a…
Det finnes ingenting mer tiltrekkende enn noen som omfavner sin alder med nåde.

Crypto-markedsoppsummering for 5. mai 2025
Den 5.

OpenAI-sjef Sam Altman og andre teknologiledere i…
Den 8.

Hvorfor Sei Vil Kutte Kosmos-kompatibilitet og Sa…
En Sei Network-utvikler foreslo på onsdag å avvikle blockchainens Cosmos-støtte i et forsøk på å eliminere «unødvendig» kompleksitet for brukerne.

Forskere bruker AI-basert ansiktsanalyse for å fo…
Forskere har utviklet et innovativt verktøy drevet av kunstig intelligens kalt FaceAge, som analyserer ansiktstrekk for å forutsi overlevelsesutfall hos kreftpasienter, og som ofte overgår klinikere i nøyaktighet.