Zurück zum Blog

Artikel 6 Absatz 3 der KI-Verordnung: Warum Profiling immer als Hochrisiko gilt

Team KI-Akte
Team KI-Akte
8. März 2026 · 5 Min. Lesezeit
Artikel 6 Absatz 3 der KI-Verordnung: Warum Profiling immer als Hochrisiko gilt

Die Risikoklassifizierung ist die folgenschwerste Compliance-Entscheidung, die Sie unter der EU-KI-Verordnung treffen werden. Klassifizieren Sie falsch in eine Richtung, geben Sie Millionen für unnötige Konformitätsbewertungen aus. Klassifizieren Sie falsch in die andere Richtung, drohen bis zu 15 Millionen Euro Bußgeld und ein erzwungener Marktrückzug.

Artikel 6 der EU-KI-Verordnung legt die Regeln fest, ob ein KI-System als Hochrisiko einzustufen ist. Der Standard ist klar: Fällt Ihr System in eine der acht Anhang-III-Kategorien, ist es Hochrisiko. Artikel 6 Absatz 3 schafft jedoch eine enge Ausnahme, die bei korrekter Anwendung erhebliche Compliance-Belastungen mindern kann. Der Haken: Die Ausnahmebedingungen sind streng, die Dokumentationspflicht ist zwingend, und eine Klausel — die Profiling-Überschreibung — erwischt Organisationen, die sich in Sicherheit wähnten.

Die Grundregel: Anhang III bedeutet Hochrisiko

Bevor wir die Ausnahme besprechen, hilft es, die Ausgangslage zu verstehen. Ein KI-System wird über zwei Wege als Hochrisiko eingestuft:

Anhang-I-Weg: Das System ist eine Sicherheitskomponente eines Produkts, das unter bestehende EU-Harmonisierungsrechtsvorschriften fällt (Medizinprodukte, Maschinen, Spielzeug, Luftfahrt, Automobil usw.) oder ist selbst ein solches Produkt.

Anhang-III-Weg: Das System fällt in eine von acht Anwendungskategorien, unabhängig davon, zu welchem Produkt es gehört. Dies ist der für Unternehmenssoftware relevanteste Weg.

Hier die Anhang-III-Kategorien mit konkreten Beispielen aus DACH-Unternehmen:

KategorieBeispiele
BiometrieGesichtserkennung für Gebäudezugang, Emotionserkennung in Call-Centern
Kritische InfrastrukturKI-gesteuerte Energienetzsteuerung, vorausschauende Wartung in Wasserwerken
BildungAutomatische Prüfungsbewertung, Zulassungsranking-Algorithmen
Beschäftigung & HRKI-gestütztes Lebenslauf-Screening, Bewerbungsgespräch-Analysetools, Leistungsbewertung
Wesentliche DienstleistungenAutomatisches Kredit-Scoring, Versicherungs-Risikopreisgestaltung, Kreditwürdigkeitsprüfung
StrafverfolgungPredictive-Policing-Tools, Beweisanalyse-Software
MigrationVisa-Risikobewertung, Grenzüberwachungsanalytik
Justiz & DemokratieLegal-Research-KI, Prognosetools für Verfahrensausgänge

Die Ausnahme: Artikel 6 Absatz 3 erklärt

Artikel 6 Absatz 3 sieht vor, dass ein Anhang-III-System nicht als Hochrisiko gilt, wenn es „kein erhebliches Risiko einer Schädigung der Gesundheit, Sicherheit oder Grundrechte natürlicher Personen darstellt, auch nicht indem es das Ergebnis der Entscheidungsfindung nicht wesentlich beeinflusst."

Diese Ausnahme greift, wenn das KI-System mindestens eine von vier Bedingungen erfüllt:

Bedingung 1: Enge Verfahrensaufgabe

Das System führt eine enge Verfahrensaufgabe durch — zum Beispiel die Umwandlung unstrukturierter Daten in strukturierte Daten, die Klassifizierung eingehender Dokumente in vordefinierte Kategorien oder die Erkennung von Duplikaten. Das Schlüsselwort ist „eng." Wenn die Ausgabe des Systems direkt in eine Entscheidung über eine natürliche Person einfließt, qualifiziert es sich wahrscheinlich nicht.

Bedingung 2: Verbesserung abgeschlossener menschlicher Tätigkeit

Das System verbessert das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit. Die menschliche Entscheidung ist bereits getroffen; die KI verfeinert oder formatiert sie lediglich.

Bedingung 3: Mustererkennung ohne Einfluss

Das System erkennt Entscheidungsmuster oder Abweichungen von früheren Mustern, ohne die menschliche Bewertung zu ersetzen oder zu beeinflussen.

Bedingung 4: Vorbereitende Aufgabe

Das System führt eine vorbereitende Aufgabe für eine Bewertung durch, die für die Anhang-III-Anwendungsfälle relevant ist. Dies ist die breiteste Bedingung, aber „vorbereitend" bedeutet, dass die KI-Ausgabe ein Input unter vielen ist und ein Mensch die inhaltliche Bewertung vornimmt.

Die Profiling-Falle: Die Klausel, die alles überschreibt

Hier werden die meisten Organisationen erwischt. Artikel 6 Absatz 3 enthält einen Satz, der alle vier Ausnahmebedingungen außer Kraft setzt:

„Die Ausnahme gilt nicht, wenn das KI-System ein Profiling natürlicher Personen durchführt."

Die Definition von Profiling stammt aus DSGVO Artikel 4 Absatz 4: „jede Art der automatisierten Verarbeitung personenbezogener Daten, die darin besteht, dass diese personenbezogenen Daten verwendet werden, um bestimmte persönliche Aspekte, die sich auf eine natürliche Person beziehen, zu bewerten, insbesondere um Aspekte bezüglich Arbeitsleistung, wirtschaftliche Lage, Gesundheit, persönliche Vorlieben, Interessen, Zuverlässigkeit, Verhalten, Aufenthaltsort oder Ortswechsel dieser natürlichen Person zu analysieren oder vorherzusagen."

Diese Definition ist extrem breit. Bedenken Sie folgende Systeme, die viele Unternehmen als risikoarm einschätzen:

  • HR-Analytik, die Employee Engagement anhand von E-Mail-Antwortzeiten und Meeting-Teilnahme bewertet — dies bewertet „Arbeitsleistung"
  • Kundensegmentierung, die Nutzer in „hochwertig" und „geringwertig" einteilt — dies bewertet „wirtschaftliche Lage" und „Vorlieben"
  • Abwanderungsprognosen, die Kunden identifizieren, die wahrscheinlich kündigen — dies bewertet „Zuverlässigkeit" und „Verhalten"
  • Mitarbeiter-Wellbeing-Tools, die Stressindikatoren aus Kommunikationsmustern erkennen — dies bewertet „Gesundheit"

Jedes davon stellt Profiling dar. Selbst wenn das System eine der vier Ausnahmebedingungen erfüllt, greift die Profiling-Überschreibung. Das System ist Hochrisiko. Punkt.

Die zwingende Dokumentationspflicht

Ob Sie zu dem Schluss kommen, dass Ihr System Hochrisiko ist oder nicht — Artikel 6 Absatz 3 verlangt von Anbietern, die die Ausnahme beanspruchen, dass sie die Bewertung dokumentieren, bevor sie das System auf den Markt bringen oder in Betrieb nehmen. Diese Dokumentation muss nationalen Behörden und Marktüberwachungsbehörden auf Anfrage vorgelegt werden.

Die Bereitstellung falscher Informationen in dieser Dokumentation ist selbst ein Verstoß mit einer Strafe von bis zu 7,5 Millionen Euro oder 1 Prozent des weltweiten Jahresumsatzes (Artikel 99 Absatz 4).

Die Klassifizierung richtig treffen

Risikoklassifizierung ist keine Abhak-Übung. Sie erfordert echte Auseinandersetzung damit, was Ihr KI-System tut, wen es betrifft und wie seine Ausgaben in der Praxis verwendet werden. Der häufigste Fehler ist die Unterschätzung der Profiling-Überschreibung — die Annahme, dass das System nicht hochriskant ist, weil ein Mensch „in der Schleife" ist. Diese Annahme ist falsch.

Ein strukturiertes KI-Anwendungsregister, das systematisch erfasst, was jedes System tut, welche Daten es verarbeitet, ob es Profiling durchführt und welche Klassifizierung gilt, ist die einzig zuverlässige Methode, dies im großen Maßstab zu verwalten.