Leren & Evaluatie
Het Leren & Evaluatie dashboard geeft je inzicht in hoe je AI-agent presteert en helpt je om de kwaliteit continu te verbeteren.
Het Leren & Evaluatie dashboard (te vinden onder Agent → Leren & Evaluatie) is het hart van je continue verbeterproces. Hier zie je precies hoe je AI-agent presteert, waar het misgaat en hoe je de kwaliteit verbetert — zonder dat je zelf alle gesprekken hoeft door te lezen.
Overzicht van de metrics
Bovenaan het dashboard vind je een reeks kernmetrics die de gezondheid van je agent samenvatten:
Kwaliteitsscore
Gemiddelde score over alle geanalyseerde gesprekken (0–100%)
Beleidsnaleving
Hoe vaak de agent zich aan je bedrijfsbeleid houdt
CSAT Proxy
Klanttevredenheid op basis van positieve/negatieve feedback
Drift Risico
Of de agent langzaam afwijkt van je gewenste gedrag
Trainingsdekking
Hoeveel gesprekken al zijn beoordeeld
Antwoordnauwkeurigheid
Hoe accuraat de antwoorden feitelijk zijn
Herhaalfrequentie
Hoe vaak dezelfde beleidsconflicten terugkomen
Je kunt de datumreeks bovenaan aanpassen om een specifieke periode te bekijken (standaard: laatste 7 dagen).
Tip: Testgesprekken worden automatisch uitgesloten van alle metrics, dus je ziet alleen echte klantinteracties.
Tabs: Improve, Rules en Proof
Het dashboard is opgedeeld in drie tabbladen:
Improve
Hier vind je gesprekken die aandacht nodig hebben. Elk gesprek toont:
Kwaliteitsscore — een 0–100% beoordeling
Probleemtype — bijv. beleidsschending, kwaliteitsprobleem
Ernst — laag, gemiddeld, hoog of kritiek
Review status — nog te beoordelen, goedgekeurd, of verbeterd
Klik op een gesprek om het volledig te analyseren in de analysedrawer. Hier zie je precies welke berichten problematisch waren en waarom. Vanuit hier kun je ook:
Een correctie doorvoeren, waardoor de agent leert van je feedback
Het gesprek goedkeuren als het toch correct was
Een escalatieregel aanmaken als dit type vraag beter door een mens kan worden behandeld
Rules
Het Rules tabblad toont beleidsconflicten en kennisconflicten:
Beleidsconflicten ontstaan wanneer de agent iets zegt dat in strijd is met je bedrijfsbeleid. Bijvoorbeeld: de agent belooft gratis retourzending terwijl je beleid anders is. Elk conflict toont:
Wat de agent zei (de feitelijke uitspraak)
Wat er verwacht werd (het juiste beleid)
De ernst van het conflict
Of het al is erkend/opgelost
Kennisconflicten (drift signalen) ontstaan wanneer er tegenstrijdigheden worden gedetecteerd tussen je kennisbank en de antwoorden van de agent. Dit helpt je om verouderde artikelen op te sporen.
Proof
Het Proof tabblad bevat trainingssamples — voorbeelden van goede en slechte antwoorden die de agent gebruikt om te leren. Elk sample toont:
Het type correctie (kennis, beleid, richtlijn)
De verificatiestatus
Het doel (welk gedrag het beïnvloedt)
Hoe de kwaliteitsscore wordt berekend
Elke geanalyseerde conversatie krijgt een score op basis van vijf dimensies:
Correctheid — Zijn de feiten in het antwoord juist? (automatisch geverifieerd tegen je kennisbank)
Vriendelijkheid — Past de toon bij je brand voice?
Toonconsistentie — Blijft de agent consistent in stijl?
Volledigheid — Geeft het antwoord voldoende informatie?
Veiligheid — Bevat het antwoord geen schadelijke content?
De overall score is een gewogen combinatie van deze vijf factoren.
Escalatiesuggesties
Aan de rechterkant van het dashboard verschijnen escalatiesuggesties — automatisch gedetecteerde patronen van gesprekken die beter door een mens kunnen worden afgehandeld. Met één klik kun je hiervan een escalatieregel maken.
Gedragsrichtlijnen
Wanneer je feedback geeft op gesprekken (correcties, goedkeuringen), worden hier automatisch gedragsrichtlijnen uit afgeleid. Deze richtlijnen worden bij elk nieuw gesprek in de achtergrond meegegeven aan de agent, zodat hij zich continu aanpast aan jouw feedback.
Richtlijnen kunnen betrekking hebben op:
Toon — hoe de agent spreekt
Lengte — hoe uitgebreid antwoorden moeten zijn
Escalatie — wanneer naar een mens doorverwijzen
Tool-gebruik — wanneer bepaalde tools wel/niet inzetten
Kennis — hoe omgaan met specifieke onderwerpen
Best Practice: Beoordeel regelmatig (bijv. wekelijks) 5–10 gesprekken in het Leren & Evaluatie dashboard. Kleine consistent aangebrachte correcties hebben een groot cumulatief effect op de kwaliteit van je agent.
Laatst bijgewerkt