Det siste året har vært dominert av store språkmodeller (Large Language Models, LLM) med ChatGPT i førersetet. På få sekunder kan brukere nå få generert gode tekstforslag på bare sekunder. Denne teknologien har åpnet dørene for effektiv kommunikasjon og kreativitet på vidt gap. Mulighetene er uendelige, brukt riktig.
Dessverre kan disse store språkmodellene også skape uriktige eller mangelfulle opplysninger. Dette skyldes at en LLM ikke har innebygd evne til å verifisere eller validere informasjon som den selv skaper. Denne mangelen på nøyaktighet kan være en svakhet i situasjoner der presisjon og fakta er viktig.
Compendias svar på dette er en hybridbasert AI-assistent som kombinerer LLM med intensjonsbasert prediksjonsteknologi. Med dette mener vi at teknologien vurderer intensjonen bak spørsmålet for å gi et best mulig svar.
Ved å kombinere den omfattende språkforståelsen til en LLM med den målrettede kapasiteten til intensjonsbaserte modeller som Compendias egne chatbotter, HR-Henry og Medlems-Morten, reduserer vi behovet for vedlikehold betraktelig.
Resultatet er en kraftig og fleksibel løsning som kombinerer det beste fra begge verdener. Målet er å tilby denne løsningen til kundene i løpet av 2024.
Men hva betyr dette egentlig?
En hybridmodell representerer en optimal balanse mellom hastighet, kostnadseffektivitet, presisjon og kontroll.
Ved å kombinere LLM-ens evne til å generere svar samtidig som vi beholder spesialiseringen som internmodeller som HR-Henry og Medlems-Morten tilbyr, kan vi både gi høy kvalitet samtidig som utviklingstiden drastisk reduseres.
Språkmodellen (LLM) som blir brukt i denne hybridmodellen vil ikke hente svaret fra ChatGPT, men forholde seg til forhåndsbestemte kilder. Slike kilder kan være en personalhåndbok eller en nettside. Vi definerer LLM-kildene sammen med kundene.
1. Full kontroll
Du kan selv tilpasse og velge hvilke områder du ønsker å ha kontroll over i svarene til brukerne. Dette er viktig da flere svar kan ha både økonomiske, etiske og lovmessige konsekvenser.
Du kan også selv velge hvilke problemstillinger som skal delegeres til LLM og hvilke som krever forhåndsdefinerte svar. Dette gjør det mulig å forene disse to modellene sømløst og skape en forbedret brukeropplevelse.
Når LLM brukes til å generere svar, vises det alltid til kilden. Da ser leseren opprinnelsen til svarene.
2. Forbedret nøyaktighet
Våre tester viser at det å kombinere disse to modellene forbedrer resultatene betydelig. Når vi bruker hybridmodellen, klarer vi å identifisere spørsmålene korrekt i 95% av tilfellene. Ved å kjøre en LLM alene, reduseres nøyaktigheten til 87%. Kombinasjonen er altså ikke bare mer nøyaktig, den gjør også at vi klarer å begrense feil svar til et minimum.
3. Personlig tilpasning
Mens LLM gir generelle svar basert på enorme datamengder, kan en intensjonsbasert modell tilpasses mer til bransje og bruker.
Du kan innlemme egne datakilder eller verktøy som er relevante. For eksempel, ved å koble til Microsoft 365, CRM eller HRM-systemer kan man gi mer spesifikke og personlige svar.
4. Spar tid og kostnader
Ved å innlemme teknologier som LLM kan vi dramatisk redusere tiden brukt på vedlikehold. Dette betyr at vi kan få en løsning raskere opp og i drift. Hva med å erstatte tradisjonelle menyer og søkefunksjoner med en interaksjonsbasert chatbot?
5. Raskere og mer bærekraftig
En hybridmodell vil gi raskere respons ettersom en intensjonsbasert løsning er designet for å gi mer direkte svar. Dette betyr langt lavere krav til beregningsressurser. I tillegg til å være hurtigere, er dette også en mer energieffektiv løsning.
En hybridmodell bidrar derfor til en mer bærekraftig teknologi enn en LLM alene.
6. Forståelse og åpenhet
Hvis modellen ikke fungerer som forventet så kan en analysere og forstå hvorfor det gikk feil. En stor del av en AI-treners jobb hos Compendia er å forstå og forbedre modellen til å svare bedre. Hybrid-tilnærmingen er mer transparent. Dette er avgjørende for å bygge tillitt hos brukerne.
7. Personvern / Datasikkerhet
En hybridmodell kan effektivt kontrollere all input- og output data. Dette inkluderer avansert maskering av sensitive personopplysninger som telefonnumre, fødselsdato og medisinske opplysninger.
Dette sikrer at slike konfidensielle opplysninger ikke blir sendt til eksterne språkmodeller, noe som er essensielt i en verden hvor misbruk av personlig informasjon er en stadig bekymring.
8. Innsikt er gull
Detaljert analyse av logger er en uvurderlig kilde til innsikt. Loggen identifiserer spørsmål og behov brukerene har. Innsikt fra logger vil avdekke eventuelle svakheter som finnes.
Ved å bruke denne innsikten kan en forbedre egne kilder, men også AI-assistentens evne til å svare brukeren. Kort sagt, loggene gir ikke bare informasjon om hva som skjer, men også verdifulle data for fremtidige forbedringer.
Store språkmodeller (LLM) er kraftige KI-verktøy som jobber med tonnevis av data og smarte algoritmer for å forstå og lage menneskelig språk. En LLM bruker dyp læring.
Børge er en teknologioptimist. Han elsker å utforske ny teknologi som kan møte fremtidens krav til god brukerdialog. Dette har resultert i HR-Henry, en intelligent, virtuell assistent som bruker AI til å svare på spørsmål fra brukerne.
Børge er en teknologioptimist. Han elsker å utforske ny teknologi som kan møte fremtidens krav til god brukerdialog. Dette har resultert i HR-Henry, en intelligent, virtuell assistent som bruker AI til å svare på spørsmål fra brukerne.