in

Vanguard IMFS’ nye AI-rammeverk slår GPT-4 på nøyaktighet

Kunstig intelligens (KI) og dens anvendelse i finansverdenen har hatt en rask utvikling, spesielt gjennom forskningen på språkmodeller. Store språkmodeller (LLMs) har gått fra enkle klassifiseringsoppgaver til å bli kraftige verktøy som kan hente og generere komplekse kunnskaper. Disse modellene benytter seg av store datasett og avanserte algoritmer for å gi innsikt og prognoser. I finanssektoren, hvor datamengdene er enorme og krever presis tolkning, er LLMs avgjørende for å analysere markedstrender, forutsi resultater og støtte beslutningstaking.

En stor utfordring forskere står overfor innen LLM-feltet er å balansere kostnadseffektivitet med ytelse. LLMs er datakrevende, og etter hvert som de prosesserer større datasett, øker risikoen for å produsere unøyaktig eller misvisende informasjon. Dette er spesielt kritisk i finanssektoren, hvor feilaktige prognoser kan føre til betydelige tap. Tradisjonelle tilnærminger har i stor grad benyttet seg av en enkelt, tettfokusert transformer-modell. Til tross for sin kraft, sliter disse modellene ofte med fenomener som “hallusinasjoner”, der modellen genererer feilaktig eller irrelevant informasjon. Slike utfordringer forsterkes i store finansapplikasjoner som krever raske, nøyaktige og kostnadseffektive modeller.

Forskere har utforsket flere metoder for å forbedre disse utfordringene, inkludert ensemblemodeller, hvor flere LLMs jobber sammen for å forbedre nøyaktigheten til outputen. Ensemblemodeller har vist seg å redusere feil og forbedre generaliseringen, spesielt når de håndterer ny informasjon som ikke er inkludert i treningsdataene. Ulempen med disse systemene er imidlertid kostnaden og langsom behandlingshastighet, ettersom kjøring av flere modeller parallelt eller i sekvens krever betydelig datakraft. Finanssektoren, som håndterer gigantiske datamengder, finner ofte disse løsningene upraktiske på grunn av høye driftskostnader og tidsbegrensninger.

Forskere fra Vanguard IMFS (Investment Management FinTech Strategies) har introdusert en ny ramme kalt Mixture of Agents (MoA) for å overkomme begrensningene ved tradisjonelle ensemblemetoder. MoA er et avansert multi-agent system designet spesielt for oppgaver med Retrieval-Augmented Generation (RAG). I motsetning til tidligere modeller, benytter MoA seg av en samling små, spesialiserte modeller som jobber sammen på en svært koordinert måte for å svare på komplekse spørsmål med større nøyaktighet og lavere kostnader. Dette samarbeidende nettverket av agenter speiler strukturen til et forskningsteam, der hver agent har sin egen ekspertise og kunnskapsbase, og dermed gir systemet bedre ytelse på tvers av ulike finansområder.

MoA-systemet består av flere spesialiserte agenter, hver med en spesifikk fokus, som for eksempel sentimentanalyse, finansielle mål eller matematiske beregninger. For eksempel inkluderer systemet agenter som “10-K/Q Math Agent”, en finjustert GPT-4-modell designet for å håndtere regnskap og finansielle tall, og “10-K/Q Sentiment Agent”, en Llama-2-modell trent til å analysere sentiment i aksjemarkedene. Hver agent har tilgang til ulike datakilder, inkludert databaser, APIer og eksterne dokumenter, noe som lar dem behandle høyt spesifikk informasjon raskt og effektivt. Denne spesialiseringen gjør at MoA-rammeverket overgår tradisjonelle enkelt-modellsystemer i både hastighet og nøyaktighet, samtidig som det holder driftskostnadene lave.

I forhold til ytelse, har MoA-systemet vist betydelige forbedringer i responskvalitet og effektivitet sammenlignet med tradisjonelle enkelt-modellsystemer. Under tester kunne MoA-systemet analysere titusenvis av finansielle dokumenter på under 60 sekunder ved bruk av to lag med agenter. Sammenlignet med et enkelt-modellsystem, opererer disse agentene med en latenspådrag på bare 4,07x i serieinntilfelle eller 2,24x når de kjører parallelt. Et grunnleggende MoA-system med to Mistral-7B-agenter ble testet i et eksperiment side om side med enkelt-modellsystemer som GPT-4 og Claude 3 Opus. MoA-systemet leverte konsekvent mer nøyaktige og omfattende svar. For eksempel, da det ble spurt om inntektsvekst i Apples Q1 2023 resultatsrapport, fanget MoA-agentene opp 5 av 7 viktige punkter, sammenlignet med 4 fra Claude og bare to fra GPT-4. Dette viser systemets evne til å fremheve kritisk informasjon med høyere presisjon og hastighet.

Kostnadseffektiviteten til MoA gjør det svært egnet for storskala finansielle applikasjoner. IMFS-teamet hos Vanguard rapporterte at deres MoA-system opererer til en total månedlig kostnad på under $8,000 mens de prosesserer forespørsler fra et team med forskere. Dette er sammenlignbart med enkelt-modellsystemer, som koster mellom $5,000 og $8,000 per måned, men gir betydelig lavere ytelse. MoA-rammeverkets modulære design gjør det mulig for selskaper å skalere sine operasjoner basert på budsjett og behov, med muligheten til å legge til eller fjerne agenter etter behov. Etter hvert som systemet skalerer, blir det stadig mer effektivt, noe som sparer tid og datakraft.

Avslutningsvis tilbyr Mixture of Agents-rammeverket en kraftig løsning for å forbedre ytelsen til store språkmodeller i finans. Forskerne har gjennom å utnytte et samarbeidende agent-basert system, lykkes med å adressere kritiske spørsmål som skalerbarhet, kostnad og responsnøyaktighet. MoA-rammeverket forbedrer hastigheten og kvaliteten på informasjonsinnhenting og tilbyr betydelige kostnadsbesparelser sammenlignet med tradisjonelle metoder. Med sin evne til å behandle enorme mengder data på en brøkdel av tiden og samtidig opprettholde høy nøyaktighet, er MoA satt til å bli en standard for bedriftsapplikasjoner i finans og utover. Dette systemet representerer en betydelig fremgang innen LLM-teknologi, og tilbyr en skalerbar, kostnadseffektiv og svært effektiv metode for å håndtere komplekse finansdata.