Nach dem Rollenspiel kommt die Frage: „Wie war's?" Und dann passiert meistens eins von zwei Dingen. Entweder sagt jemand „Klingt gut!", was nichts verbessert. Oder es folgt ein vages „Du müsstest mehr Fragen stellen", was zwar stimmen mag, aber keine klare Richtung gibt.
Das eigentliche Problem ist nicht fehlendes Feedback. Es ist fehlendes strukturiertes Feedback. Solange Coaching auf Bauchgefühl basiert, bleibt es subjektiv, nicht wiederholbar und kaum skalierbar. Wer Vertriebstraining ernst nimmt — ob mit KI-Simulation oder klassischem Coaching — braucht eine Rubric: ein Set aus beobachtbaren Kriterien, die zeigen, wo ein Rep steht und was als Nächstes geübt werden sollte.
Eine Feedback-Rubric macht Coaching objektiv, wiederholbar und skalierbar. Der entscheidende Punkt: Sie beschreibt beobachtbares Verhalten, nicht Persönlichkeitseigenschaften. Nicht „Sei empathischer", sondern „Stelle mindestens eine Frage zum Business Impact, bevor du die Lösung präsentierst."
Warum Bauchgefühl-Feedback nicht skaliert
In kleinen Teams funktioniert informelles Coaching oft erstaunlich gut. Der erfahrene Sales-Leader hört ein Gespräch, gibt einen konkreten Hinweis, der Rep setzt ihn um. Das Problem beginnt, wenn das Team wächst oder wenn Coaching nicht nur von einer einzelnen Person geleistet werden soll.
Ohne Rubric passiert Folgendes: Jeder Coach bewertet nach eigenen Maßstäben. Was für den einen „gute Discovery" ist, ist für die andere „zu oberflächlich". Feedback wird unberechenbar — und Reps lernen schnell, dass die Bewertung mehr vom Bewerter abhängt als von ihrer Leistung. Das zerstört Vertrauen ins System schneller als jeder andere Fehler.
Mit KI-gestütztem Training verschärft sich das Problem. Wenn ein KI-Simulator Feedback gibt, muss es auf transparenten Kriterien basieren — sonst wird es als Black Box wahrgenommen, der niemand vertraut. Die Rubric ist also nicht nur ein nettes Framework, sondern die Voraussetzung dafür, dass das gesamte Trainingssystem akzeptiert wird.
Die drei Ebenen einer Sales-Rubric
Eine gute Rubric bewertet nicht alles auf einmal, sondern trennt drei Ebenen, die aufeinander aufbauen:
Ebene 1: Gesprächsstruktur. Hat das Gespräch einen erkennbaren Aufbau? Gibt es ein klares Ziel, eine Agenda, und endet es mit einem konkreten nächsten Schritt? Struktur ist die Grundlage — ohne sie wird selbst brillanter Inhalt wirkungslos, weil der Kunde dem roten Faden nicht folgen kann.
Ebene 2: Inhaltliche Qualität. Wurde der Bedarf tatsächlich verstanden? Wurde der Nutzen aus Kundenperspektive formuliert — nicht als Feature-Liste, sondern als Antwort auf ein reales Problem? Wurden Einwände erkannt und aufgegriffen, statt ignoriert oder wegargumentiert?
Ebene 3: Kommunikationsqualität. Wie wurde gefragt? Offene Fragen oder geschlossene? Wurde aktiv zugehört — erkennbar daran, dass Aussagen des Kunden aufgegriffen werden? War der Ton angemessen — weder zu passiv noch zu aggressiv?
Die Trennung in drei Ebenen hat einen praktischen Grund: Ein Rep kann strukturell gut sein, aber inhaltlich schwach. Ein anderer stellt brillante Fragen, verliert aber den roten Faden. Nur wenn die Rubric diese Dimensionen trennt, kann das Feedback gezielt sein.
Beispiel-Rubric: Discovery-Gespräch
Statt einer abstrakten Beschreibung hier eine konkrete Rubric für einen Discovery-Call. Jedes Kriterium ist auf einer Skala von 0 bis 3 bewertbar:
Problemverständnis. 0 = Kein Versuch, das Problem des Kunden zu verstehen. 1 = Oberflächliche Frage nach dem Problem, ohne Vertiefung. 2 = Fragt nach Kontext und Auswirkung des Problems. 3 = Versteht Problem, Kontext, Impact und hat den Kunden dazu gebracht, die Dringlichkeit selbst zu formulieren.
Stakeholder-Mapping. 0 = Keine Frage nach Entscheidungsprozess oder weiteren Beteiligten. 1 = Fragt, wer noch beteiligt ist. 2 = Fragt nach Rollen, Entscheidungskriterien und Zeitplan. 3 = Hat ein klares Bild vom Buying Committee und weiß, wer blockieren könnte.
Erfolgskriterien. 0 = Nicht angesprochen. 1 = Fragt allgemein, was wichtig ist. 2 = Definiert gemeinsam mit dem Kunden, wie Erfolg aussieht. 3 = Hat messbare Erfolgskriterien und potenzielle No-Go-Kriterien identifiziert.
Nächster Schritt. 0 = Kein nächster Schritt vereinbart. 1 = Vager Verweis auf „Wir melden uns". 2 = Konkreter nächster Schritt mit Termin. 3 = Beidseitig bestätigter nächster Schritt mit klarem Ziel und Vorbereitung.
Diese vier Kriterien reichen, um ein Discovery-Gespräch fundiert zu bewerten. Mehr braucht es nicht — und mehr sollte es auch nicht sein, weil zu viele Kriterien das Feedback verwässern.
Beispiel-Rubric: Einwandbehandlung
Für Einwand-Szenarien verschieben sich die Kriterien:
Einwand erkennen und spiegeln. Hat der Rep den Einwand als solchen wahrgenommen? Hat er ihn paraphrasiert, bevor er reagiert? Das Spiegeln signalisiert dem Kunden, dass er gehört wurde — und gibt dem Rep Zeit zum Nachdenken.
Einwand-Typ verstehen. Handelt es sich um einen Preis-Einwand, einen Timing-Einwand, ein Risiko-Bedenken oder einen echten Dealbreaker? Die richtige Strategie hängt davon ab, welche Motivation hinter dem Einwand steckt.
Reframe + Beleg. Hat der Rep den Einwand umgedeutet und mit einem konkreten Beleg untermauert? Nicht „Unser ROI ist besser", sondern „Ein Kunde in einer ähnlichen Situation hat die Ramp-up-Zeit von 5 auf 3 Monate reduziert — das entspricht bei eurer Teamgröße etwa 120.000 Euro."
Loop schließen. Hat der Rep nach dem Reframe geprüft, ob der Einwand tatsächlich aufgelöst ist? „Macht das in Ihrem Kontext Sinn, oder sehen Sie das anders?" — dieser Check verhindert, dass Einwände unter den Teppich gekehrt statt wirklich bearbeitet werden.
Wer diese Rubric in konkreten Szenarien anwenden will, findet im Artikel Einwandbehandlung trainieren mit KI sieben Trainingsszenarien mit passenden Zielen.
Zwei Fokusfelder statt zwanzig Scores
Der häufigste Fehler bei der Einführung einer Rubric: zu viel auf einmal bewerten. Wenn ein Rep nach einem Rollenspiel zwölf Scores bekommt, weiß er nicht, wo er anfangen soll. Das Feedback fühlt sich überwältigend an — und wird ignoriert.
Die bessere Strategie: Zwei Fokusfelder pro Woche. Montags entscheidet die Führungskraft (oder der Rep selbst), welche zwei Kriterien in dieser Woche im Mittelpunkt stehen. Jeder Drill, jedes Feedback, jede Wiederholung konzentriert sich auf genau diese zwei Punkte. Alles andere wird bewusst ausgeblendet.
Nach einer Woche wechseln die Fokusfelder. Über einen Monat deckt das Team so acht verschiedene Kriterien ab — gründlich, statt oberflächlich. Und weil die Fokusfelder rotieren, entsteht automatisch eine Spaced-Repetition-Dynamik: Was in Woche 1 trainiert wurde, wird in Woche 5 wieder aufgegriffen — und der Rep merkt, ob die Verbesserung gehalten hat.
DACH-Governance: Rubric ohne Überwachung
In DACH ist jedes Bewertungssystem eine Vertrauensfrage. Sobald Scores mit Namen verknüpft und für Führungskräfte sichtbar sind, steht der Verdacht im Raum: Wird hier gecoacht oder kontrolliert?
Die Lösung liegt in drei Prinzipien:
Persönliche Scores bleiben privat. Jeder Rep sieht seine eigenen Rubric-Ergebnisse. Die Führungskraft sieht aggregierte Team-Daten — Durchschnittswerte, Trends, Verteilung — aber keine individuellen Scores. Das schützt den Safe Space und ist in den meisten Betriebsratsvereinbarungen abbildbar.
Transparenz über Zweck und Zugriff. Die Rubric-Kriterien sind offen. Jeder weiß, was bewertet wird und warum. Es gibt keine versteckten Metriken, keine Überraschungen. Das Team war idealerweise bei der Definition der Kriterien beteiligt — oder hat sie zumindest reviewed.
Freiwilligkeit als Default. Coaching-Sessions und Drill-Ergebnisse sind Lernmomente, keine Prüfungen. Wer seine Ergebnisse mit dem Coach oder der Führungskraft teilen will, kann das tun. Wer nicht, muss nicht. Dieses Opt-in-Prinzip nimmt die Angst — und führt paradoxerweise dazu, dass mehr geteilt wird, nicht weniger.
Fazit
Eine Feedback-Rubric ist kein bürokratisches Extra. Sie ist das Werkzeug, das den Unterschied macht zwischen „Wir machen Rollenspiele" und „Wir entwickeln Skills systematisch weiter". Sie gibt Feedback Richtung, macht Fortschritt sichtbar und schafft die Grundlage für Coaching, das sich nicht auf das Bauchgefühl einer einzelnen Person stützt.
Die Umsetzung muss nicht komplex sein: drei Ebenen, vier bis sechs Kriterien pro Szenario, zwei Fokusfelder pro Woche. Das reicht, um aus Training ein echtes Entwicklungsprogramm zu machen.
sales-coach.ai bewertet Rollenspiele entlang konfigurierbarer Rubric-Kriterien — transparent, wiederholbar und mit konkretem Feedback pro Durchlauf. Persönliche Scores bleiben privat, Team-Daten zeigen Trends. DSGVO-konform, Betriebsrat-kompatibel. Scorecard-Demo anfragen →