Noen gang blitt stilt et spørsmål du bare visste deler av svaret til? For å gi et mer informert svar, ville det beste å gjøre være å ringe en venn med mer kunnskap om emnet.
Denne samarbeidende prosessen kan også hjelpe store språkmodeller (LLM) med å forbedre sine nøyaktighet. Det har imidlertid vært vanskelig å lære LLM-er å gjenkjenne når de burde samarbeide med en annen modell for et svar. I stedet for å bruke komplekse formler eller store mengder merket data for å angi hvor modellene skal samarbeide, har forskere ved MITs Computer Science and Artificial Intelligence Laboratory (CSAIL) forestilt seg en mer organisk tilnærming.
En ny algoritme: Co-LLM
Deres nye algoritme, kalt “Co-LLM”, kan parre en generell base-LLM med en mer spesialisert modell og hjelpe dem med å arbeide sammen. Når den første lager et svar, vurderer Co-LLM hvert ord (eller token) i svaret for å se hvor det kan innkalle et mer nøyaktig svar fra ekspertmodellen. Denne prosessen fører til mer nøyaktige svar på ting som medisinske spørsmål og matematikk- og resonnementsproblemer. Siden ekspertmodellen ikke trengs ved hver iterasjon, fører dette også til mer effektiv responsgenerering.
For å avgjøre når en basismodell trenger hjelp fra en ekspertmodell, bruker rammeverket maskinlæring for å trene en “switch variable”, eller et verktøy som kan indikere kompetansen for hvert ord i de to LLM-ene sine svar. Bryteren er som en prosjektleder, som finner områder hvor det bør innkalles en spesialist.
Fleksibilitet og faktualitet
For å vise Co-LLMs fleksibilitet, brukte forskerne data som BioASQ medisinske sett for å sammenkoble en basismodell med eksperter i forskjellige domener, som Meditron-modellen, som er forhåndstrent på umerkede medisinske data. Dette gjorde det mulig for algoritmen å hjelpe med å besvare spørsmål en biomedisinsk ekspert vanligvis ville få, som å navngi mekanismene som forårsaker en bestemt sykdom.
Et annet eksempel på Co-LLMs ytelsesøkning: Når den ble bedt om å løse et matematikkproblem som “a3 · a2 hvis a=5”, beregnet basismodellen feil svaret til å være 125. Etter hvert som Co-LLM trente modellen til å samarbeide mer med en stor matematikk-LLM kalt Llemma, fastslo de sammen at den korrekte løsningen var 3,125.
Når bør man spørre eksperten
MIT-forskernes algoritme understreker at det å etterligne menneskelig teamarbeid tettere kan øke nøyaktigheten i multi-LLM-samarbeid. For ytterligere å heve sin faktuelle presisjon, vurderer teamet en mer robust avsperringsmetode som kan spore tilbake når ekspertmodellen ikke gir et riktig svar. Denne oppgraderingen vil tillate Co-LLM å korrigere kurset slik at algoritmen fortsatt kan gi et tilfredsstillende svar.
Teamet ønsker også å oppdatere ekspertmodellen (via bare å trene basismodellen) når ny informasjon er tilgjengelig, slik at svarene holdes så oppdaterte som mulig. Dette vil tillate Co-LLM å parre den mest oppdaterte informasjonen med sterk resonnanseringskraft. Til slutt kan modellen bistå med bedriftens dokumenter, ved å bruke den siste informasjonen den har til å oppdatere dem deretter. Co-LLM kan også trene små, private modeller til å arbeide med en kraftigere LLM for å forbedre dokumenter som må forbli innenfor serveren.
Referanse: MIT News