Tidligere forskning på store språkmodeller (LLMs) har vist betydelige fremskritt innen flyt og nøyaktighet på tvers av ulike oppgaver, og har påvirket sektorer som helsevesen og utdanning. Denne utviklingen har ført til undersøkelser av LLMs språkforståelseskapasiteter og tilhørende risikoer. En sentral bekymring har vært “hallusinasjoner,” som defineres som plausibel, men feilaktig informasjon generert av modellene. Studier har undersøkt om disse feilene kan elimineres eller om de krever håndtering, og anerkjenner dem som en iboende utfordring ved LLMs. MarkTechPost
Nyere fremskritt innen store språkmodeller har revolusjonert naturlig språkbehandling, men den vedvarende utfordringen med hallusinasjoner krever en dypere undersøkelse av deres grunnleggende natur og implikasjoner. Med utgangspunkt i datateori og Gödels første ufullstendighetsteorem, introduserer forskningen konseptet “strukturelle hallusinasjoner.” Dette nye perspektivet hevder at hvert trinn i LLM-prosessen har en ikke-null sannsynlighet for å produsere hallusinasjoner, og understreker behovet for en ny tilnærming til å håndtere disse iboende feilene i språkmodeller.
Hallusinasjoner som En Iboende Utfordring
Denne studien utfordrer det konvensjonelle synet på hallusinasjoner i LLMs, og presenterer dem som uunngåelige trekk snarere enn sporadiske feil. Den hevder at disse unøyaktighetene stammer fra de grunnleggende matematiske og logiske underliggende prinsippene for LLMs. Ved å demonstrere den ikke-nulle sannsynligheten for feil i hvert trinn av LLM-prosessen, etterlyser forskningen et paradigmeskifte i tilnærmingen til språkmodellens begrensninger.
En Omfattende Tilnærming for å Håndtere Hallusinasjoner
Forskere i United We Care foreslår en omfattende metodologi for å takle hallusinasjoner i LLMs. Tilnærmingen begynner med forbedrede informasjonshenteteknikker, som Chain-of-Thought-prompting og Retrieval-Augmented Generation, for å hente relevant data fra modellens database. Denne prosessen følges av input-augmentering, som kombinerer hentede dokumenter med den opprinnelige forespørselen for å gi en forankret kontekst. Metodologien anvender deretter selvkonsistensmetoder under output-generering, som tillater modellen å produsere og velge den mest passende responsen fra flere alternativer.
Post-Genereringsteknikker som en Kritisk Del av Strategien
Post-genereringsteknikker utgjør en viktig del av strategien, inkludert kvantifisering av usikkerhet og generering av troverdighetsforklaringer. Disse metodene hjelper til med å evaluere riktigheten av genererte svar og identifisere potensielle hallusinasjoner. Bruken av Shapley-verdier for å måle troverdigheten til forklaringer øker gjennomsiktigheten og påliteligheten av outputene. Til tross for disse omfattende tiltakene, erkjenner forskerne at hallusinasjoner fortsatt er en iboende del av LLMs, og understreker behovet for fortsatt utvikling i håndteringen av disse iboende begrensningene.
Matematisk Sikkerhet for Hallusinasjoner
Studien hevder at hallusinasjoner i LLMs er iboende og matematisk sikre, snarere enn bare sporadiske feil. Hvert trinn av LLM-prosessen har en ikke-null sannsynlighet for å produsere hallusinasjoner, noe som gjør deres fullstendige eliminering umulig gjennom arkitektoniske eller datasettforbedringer. Arkitektoniske fremskritt, som transformatorer og alternative modeller som KAN, Mamba og Jamba, kan forbedre treningen, men adresserer ikke det grunnleggende problemet med hallusinasjoner. Papiret argumenterer for at ytelsen til LLMs, inkludert deres evne til å hente og generere informasjon nøyaktig, er iboende begrenset av deres strukturelle design. Selv om spesifikke numeriske resultater ikke er gitt, understreker studien at forbedringer i arkitektur eller treningsdata ikke kan endre hallusinasjonenes sannsynlige natur.
En Realistisk Forståelse av LLMs Kapasiteter og Begrensninger
Til slutt hevder studien at hallusinasjoner i LLMs er iboende og uunngåelige, og vedvarer til tross for fremskritt innen trening, arkitektur eller faktasjekkingsmekanismer. Hvert trinn av LLM-outputgenerering er utsatt for hallusinasjoner, og understreker den systematiske naturen til dette problemet. Med utgangspunkt i datateorikonsepter argumenterer papiret for at visse LLM-relaterte problemer er uavgjorte, noe som forsterker umuligheten av fullstendig nøyaktighet. Forfatterne utfordrer gjeldende oppfatninger om å redusere hallusinasjoner, og etterlyser realistiske forventninger og et skifte mot å håndtere, snarere enn å eliminere, disse iboende begrensningene i LLMs.