Was ist der Internal Quality Score?
Der Internal Quality Score (IQS) ist der Durchschnittswert aller internen Qualitätsbewertungen von Agent-Interaktionen. QA-Teams (oder KI-gestützte QA-Tools) bewerten Kundeninteraktionen anhand einer standardisierten Scorecard und vergeben Punkte für Kriterien wie Kommunikationsqualität, fachliche Genauigkeit, Empathie, Prozesstreue und Compliance.
Der IQS ergänzt kundenbasierte Metriken wie CSAT um eine interne Perspektive. Während CSAT misst, wie zufrieden Kunden sind, zeigt der IQS, ob Agents die internen Qualitätsstandards einhalten. Ein Agent kann einen hohen CSAT haben, aber niedrigen IQS, wenn er Compliance-Regeln missachtet. Umgekehrt kann ein Agent alle Prozesse perfekt einhalten, aber trotzdem niedrigen CSAT erzielen, weil er nicht empathisch genug kommuniziert.
Laut dem Customer Service Quality Benchmark Report tracken nur ein Drittel aller Support-Teams den IQS, obwohl er einer der aussagekräftigsten Indikatoren für Servicequalität ist. Quelle: Zendesk
Typische Scorecard-Kategorien
Eine QA-Scorecard bewertet Interaktionen anhand gewichteter Kategorien. Die genaue Gewichtung variiert je nach Unternehmen und Branche:
| Kategorie | Typische Gewichtung | Beispielkriterien |
|---|---|---|
| Kommunikation | 25–30 % | Tonalität, Verständlichkeit, Grammatik |
| Fachliche Genauigkeit | 25–30 % | Korrekte Informationen, vollständige Lösung |
| Empathie | 15–20 % | Aktives Zuhören, Verständnis zeigen |
| Prozesstreue | 15–20 % | Dokumentation, CRM-Updates, Eskalationsregeln |
| Compliance | 10–15 % | Datenschutz, Verifizierung, Pflichthinweise |
Manche Organisationen verwenden zusätzlich „Auto-Fail"-Kriterien: Wenn ein Agent z. B. personenbezogene Daten nicht verifiziert, fällt die gesamte Bewertung unabhängig von den restlichen Punkten auf 0 %.
Wie berechnet man den IQS?
Rechenbeispiel
Ein QA-Reviewer bewertet eine Interaktion anhand einer Scorecard mit 100 Maximalpunkten und vergibt 85 Punkte.
Für den Team-IQS werden alle einzelnen Bewertungen gemittelt: Hat ein Team 50 bewertete Interaktionen mit einem Durchschnitt von 85 Punkten, beträgt der Team-IQS 85 %.
IQS auf Teamebene
Was ist ein guter IQS?
| Bewertung | Bereich | Interpretation |
|---|---|---|
| Exzellent | ≥ 90 % | Top-Performer, konsistente Qualität |
| Gut | 85–89 % | Über dem Branchendurchschnitt |
| Akzeptabel | 80–84 % | Auf Branchenniveau, Verbesserungspotenzial |
| Verbesserungswürdig | 75–79 % | Gezieltes Coaching erforderlich |
| Kritisch | < 75 % | Sofortiger Handlungsbedarf |
Der Branchendurchschnitt für den IQS liegt bei 85 %. Viele Contact Center setzen ein Ziel von 80 % als Mindeststandard. Scores über 90 % erreichen typischerweise nur 15-20 % der Agents. Quellen: Zendesk, Kaizo
Im Durchschnitt werden nur 2 % aller Support-Interaktionen manuell durch QA-Teams bewertet. KI-gestützte QA-Tools können diesen Anteil auf bis zu 100 % erhöhen. Quelle: Zendesk
IQS verbessern
Scorecard-Kalibrierung: Regelmäßige Kalibrierungssitzungen, bei denen mehrere Reviewer dieselbe Interaktion bewerten, stellen sicher, dass alle Bewertenden einheitliche Maßstäbe anlegen. Abweichungen über 5 Prozentpunkte deuten auf Interpretationsunterschiede hin.
Gezieltes Coaching statt Schulungen: Individuelle Coaching-Sessions basierend auf den schwächsten Scorecard-Kategorien eines Agents sind effektiver als generische Trainings. Ein Agent mit niedrigem Empathie-Score braucht anderes Coaching als einer mit Compliance-Lücken.
QA-Stichprobe erhöhen: Bei nur 2 % bewerteten Interaktionen können Ausreißer den IQS stark verzerren. KI-gestützte QA-Tools wie Quality Assurance ermöglichen eine deutlich höhere Abdeckung.
Feedback-Loop etablieren: Agents sollten ihre Bewertungen zeitnah sehen und die Möglichkeit haben, Einspruch einzulegen. Transparenz und Fairness im QA-Prozess steigern die Akzeptanz und Wirkung.
Scorecard regelmäßig überprüfen: Wenn sich Produkte, Prozesse oder Kundenerwartungen ändern, muss die Scorecard angepasst werden. Veraltete Kriterien führen zu Frustration und irrelevanten Bewertungen.
IQS vs. CSAT vs. Average Evaluation Score
| Merkmal | IQS | CSAT | Average Evaluation Score |
|---|---|---|---|
| Perspektive | Intern (QA-Team) | Extern (Kunde) | Intern (QA-Team) |
| Messmethode | Scorecard-Bewertung | Kundenbefragung | Durchschnitt aller Bewertungen |
| Fokus | Einzelne Interaktion | Einzelne Interaktion | Team-/Zeitraum-Durchschnitt |
| Benchmark | ≥ 85 % | ≥ 80 % | ≥ 85 % |
| Einfluss durch Agent | Direkt | Teils (auch Produkt/Prozess) | Direkt |
Der IQS bewertet eine einzelne Interaktion, der Average Evaluation Score ist der Mittelwert aller IQS-Bewertungen über einen Zeitraum oder ein Team. Der CSAT spiegelt die Kundensicht wider und kann vom IQS abweichen, weil Kunden andere Prioritäten setzen als QA-Teams.
Pro und Kontra
Pro
- +Objektive, standardisierte Qualitätsmessung unabhängig vom Kunden
- +Identifiziert konkrete Verbesserungsbereiche pro Agent und Kategorie
- +Ergänzt kundenbasierte Metriken (CSAT, CES) um die interne Perspektive
Kontra
- –Manuelle Bewertung ist zeitaufwändig und deckt typischerweise nur 2 % der Interaktionen ab
- –Bewertungsunterschiede zwischen Reviewern können den Score verzerren
- –Scorecard-Design beeinflusst den Score erheblich, was Branchenvergleiche erschwert
Einfluss von KI auf den IQS
KI revolutioniert den QA-Prozess auf zwei Ebenen. Erstens können KI-gestützte QA-Tools 100 % aller Interaktionen automatisch bewerten statt nur 2 %. Das liefert ein vollständigeres Bild der Servicequalität und eliminiert Stichprobenverzerrungen. Zweitens unterstützen Echtzeit-KI-Assistenten die Agents während der Interaktion mit Compliance-Hinweisen, Formulierungsvorschlägen und Prozess-Erinnerungen, was den IQS proaktiv verbessert, statt Fehler erst im Nachhinein zu erkennen.