EU AI Act und KI-Coaching: Was DACH-Teams jetzt klären müssen
Viele Teams denken beim EU AI Act an Gesichtserkennung, autonome Fahrzeuge und Social Scoring. An Systeme, die sie nicht betreffen. Was übersehen wird: Der EU AI Act definiert Risikokategorien — und KI-Systeme, die im Beschäftigungskontext eingesetzt werden, landen nicht automatisch in der Kategorie „unbedenklich."
Das heißt nicht, dass jedes Coaching-Tool als Hochrisiko-System gilt. Es heißt, dass Unternehmen, die KI-Coaching einsetzen, eine bewusste Einordnung vornehmen müssen — und dass Anbieter, die diese Einordnung nicht transparent machen, ein Risiko darstellen.
Dieser Artikel ist keine Rechtsberatung. Er liefert stattdessen einen pragmatischen Überblick: Wo steht KI-Coaching im regulatorischen Rahmen? Welche Fragen sollten Unternehmen jetzt stellen? Und wie sieht eine Minimal-Governance aus, die weder bürokratisch noch naiv ist?
Der EU AI Act ist kein Thema für „später." Er beeinflusst heute schon, wie Procurement-Teams KI-Tools evaluieren. Wer keine klare Risiko-Einordnung seines Coaching-Tools liefern kann, verliert im Beschaffungsprozess — nicht vor Gericht, sondern im Auswahlverfahren.
Wo KI-Coaching im Risiko-Framework landet
Der EU AI Act unterscheidet vier Risikostufen: unzulässig, hochriskant, begrenzt riskant und minimal riskant. Die Einordnung hängt nicht vom Tool ab, sondern vom Einsatzzweck.
Die kritische Grenze: Beschäftigungskontext. KI-Systeme, die im Bereich „Employment, workers management and access to self-employment" eingesetzt werden, können als hochriskant eingestuft werden — insbesondere wenn sie für Einstellungsentscheidungen, Leistungsbewertung oder Aufgabenverteilung genutzt werden.
Coaching als Lernraum vs. Bewertungssystem. Hier wird die Unterscheidung entscheidend, die auch im Betriebsrats-Kontext zentral ist: Wird das Tool als Trainingsinstrument eingesetzt — oder als Bewertungssystem, dessen Ergebnisse Personalentscheidungen beeinflussen? Ein Coaching-Tool, das ausschließlich als Safe Space für individuelles Lernen konzipiert ist, steht regulatorisch anders da als ein System, das Management-Reports mit individuellen Performance-Scores generiert.
Die praktische Konsequenz: Die Einordnung ist nicht binär. Sie hängt davon ab, wie das Tool tatsächlich eingesetzt wird — und wie der Anbieter die Architektur gestaltet hat. Deshalb sind die Fragen an den Anbieter mindestens so wichtig wie die Fragen an den Gesetzgeber.
Zehn Fragen, die DACH-Teams jetzt an Anbieter stellen sollten
Statt den EU AI Act vollständig zu analysieren — was Aufgabe der Rechtsabteilung ist — hier die zehn Fragen, die das Gespräch mit Anbietern substanziell machen:
Zweck und Grenzen. Für welchen Einsatzzweck ist das System konzipiert? Gibt es dokumentierte Grenzen, was das System nicht tun soll?
Risiko-Einordnung. Hat der Anbieter eine eigene Risiko-Einordnung nach EU AI Act vorgenommen? Wenn ja: auf welcher Grundlage? Wenn nein: warum nicht?
Human Oversight. Welche Mechanismen gibt es, damit ein Mensch eingreifen kann? Können Admins oder Nutzer:innen Ergebnisse korrigieren, Szenarien anpassen oder das System stoppen?
Transparenz und Erklärbarkeit. Wie wird Feedback begründet? Können Nutzer:innen nachvollziehen, warum ein Score zustande kommt? Gibt es eine Erklärungsebene jenseits der Zahl?
Logging und Audit. Was wird protokolliert? Wie lange? Wer hat Zugriff auf die Logs? Können sie für ein Audit exportiert werden?
Datenarten und Verarbeitung. Welche Datenarten verarbeitet das System? Text, Audio, Video, Metadaten? Wo findet die Verarbeitung statt?
Bias und Fairness. Wie wird sichergestellt, dass Feedback fair ist — unabhängig von Geschlecht, Sprache, Akzent oder Kommunikationsstil? Gibt es Testing oder Monitoring?
Modellwechsel und Updates. Was passiert, wenn das zugrunde liegende Sprachmodell ausgetauscht wird? Ändert sich das Verhalten des Systems? Werden Kunden informiert?
Datenresidenz und Security. Wo liegen Daten? Welche Verschlüsselung? Welche Zertifizierungen?
Rollenmodell. Wer sieht welche Daten? Ist das Rollenmodell konfigurierbar? Entspricht es dem Employee-First-Prinzip?
Wer diese Fragen um die datenschutzspezifischen Punkte erweitern will, findet im Artikel DSGVO und KI-Coaching: Was wirklich zählt zwölf weitere Fragen.
Safe Space als Designprinzip — auch regulatorisch
Das Safe-Space-Prinzip ist nicht nur ein Betriebsrats-Argument. Es ist auch ein regulatorisches Designprinzip:
Klare Zweckbindung. Das System wird ausschließlich zum Zweck des individuellen Trainings eingesetzt. Keine Sekundärnutzung, kein Profiling, keine Personalentscheidungen auf Basis von Coaching-Daten.
Freiwilligkeit. Die Nutzung basiert auf Opt-in, nicht auf Anweisung. Das reduziert das regulatorische Risiko erheblich — denn ein freiwillig genutztes Lerntool wird anders eingeordnet als ein verpflichtendes Bewertungssystem.
Aggregation statt Individualisierung. Management sieht Team-Trends, keine Einzelperson-Daten. Diese architektonische Entscheidung ist gleichzeitig eine regulatorische: Sie verhindert, dass das System als Instrument der individualisierten Leistungsüberwachung qualifiziert wird.
Minimal-Governance ohne Bürokratie
Nicht jede Organisation braucht ein AI Governance Board. Aber jede Organisation, die KI-Coaching einsetzt, braucht drei Dinge:
Einen Owner. Eine Person, die weiß, welche KI-Systeme im Einsatz sind, welche Daten sie verarbeiten und wer Zugriff hat. Kein Committee, sondern ein Name.
Eine Policy. Ein kurzes Dokument — eine Seite reicht — das festhält: Welche Systeme setzen wir ein? Für welchen Zweck? Welche Daten werden verarbeitet? Wer trägt die Verantwortung? Wie ist das Rollenmodell? Diese Policy muss nicht perfekt sein. Sie muss existieren.
Einen Review-Rhythmus. Einmal pro Quartal: Stimmt die Einordnung noch? Hat sich der Einsatzzweck verändert? Gibt es neue regulatorische Anforderungen? Ein dreißigminütiges Review verhindert, dass Governance zur Karteileiche wird.
Wie der erste Pilot gouvernance-konform aufgesetzt wird, zeigt der Artikel AI Sales Coaching Pilot: Der 90-Tage-Fahrplan.
Fazit
Der EU AI Act ist keine ferne Regulierung, die nur Hersteller betrifft. Er beeinflusst schon heute, wie Procurement-Teams Anbieter bewerten, welche Fragen in RFPs auftauchen und welche Nachweise erwartet werden.
Für KI-Coaching-Tools im DACH-Raum bedeutet das: Wer eine klare Risiko-Einordnung vorlegen kann, ein transparentes Rollenmodell bietet und den Einsatzzweck sauber dokumentiert, hat einen Vorteil — nicht nur regulatorisch, sondern im Verkaufsprozess. Und wer das nicht kann, wird zunehmend aus Shortlists fallen.
Die gute Nachricht: Die meisten Anforderungen sind keine Zusatzarbeit. Sie sind das, was gutes Produkt-Design ohnehin erfordert — Transparenz, Zweckbindung, Erklärbarkeit und Kontrolle.
sales-coach.ai dokumentiert Risiko-Einordnung, Zweckbindung und Rollenmodell nach EU AI Act. Das Governance-Paket umfasst: Systemdokumentation, Datenfluss-Übersicht, Employee-First-Architektur und vierteljährlichen Review-Rhythmus für Kunden. Governance-Paket anfordern →