Ja. Ein KI-Algorithmus qualifiziert sich als Medizinprodukt gemäss EU MDR 2017/745, wenn er für einen medizinischen Zweck bestimmt ist — Diagnose, Überwachung, Therapieentscheidungen — und seine bestimmungsgemässe Hauptwirkung nicht pharmakologisch erzielt. Die Klassifizierung folgt MDR Anhang VIII Regel 11, und ab August 2026 fügt der EU AI Act 2024/1689 eine parallele Ebene an Pflichten für Hochrisiko-KI-Systeme hinzu.
Ersetzt der AI Act die MDR für KI-Produkte?
Nein. Die beiden Verordnungen gelten parallel. AI Act Artikel 6(1) stuft KI-Systeme, die in Produkte eingebettet sind, welche unter die in Anhang I aufgeführten EU-Harmonisierungsrechtsvorschriften fallen — einschliesslich MDR 2017/745 und IVDR 2017/746 — als Hochrisiko-KI-Systeme ein. Das bedeutet, ein KI-basiertes Medizinprodukt muss beide Anforderungen erfüllen:
- MDR: Klassifizierung, Konformitätsbewertung, technische Dokumentation, klinische Bewertung, QMS, Überwachung nach dem Inverkehrbringen
- AI Act: Risikomanagement für KI, Datengovernance, Transparenz, menschliche Aufsicht, Anforderungen an Genauigkeit/Robustheit
Die Benannte Stelle bewertet beide Anforderungskataloge in einem einzigen Konformitätsbewertungsverfahren (AI Act Artikel 43(1)).
Wie wird ein KI-Produkt nach MDR klassifiziert?
Regel 11 des MDR Anhang VIII regelt die Software-Klassifizierung. Die Klasse hängt von der klinischen Bedeutung der Informationen ab, die die Software liefert:
| Zweckbestimmung | Klasse |
|---|---|
| Software, die individuelle klinische Entscheidungen zur Diagnose oder Therapie von Zuständen beeinflusst, die zum Tod oder zu einer irreversiblen Verschlechterung führen können | III |
| Software, die individuelle klinische Entscheidungen zur Diagnose oder Therapie schwerwiegender Erkrankungen beeinflusst | IIb |
| Software zur Überwachung physiologischer Prozesse oder für andere klinische Zwecke | IIa |
| Alle übrige Software | I |
MDCG 2019-11 Rev.2 bietet detaillierte Leitlinien zur Qualifizierung und Klassifizierung von Software als Medizinprodukt.
Die meisten KI-Diagnosetools fallen in Klasse IIa oder IIb. Eine KI, die eigenständig eine Krebsbehandlung empfiehlt, ohne ärztliche Überprüfung, wäre Klasse III.
Welche Pflichten ergeben sich aus dem AI Act?
Die Anforderungen des AI Act an Hochrisiko-KI-Systeme (zu denen alle KI-Medizinprodukte gehören) sind in Kapitel III, Abschnitt 2 festgelegt. Die wichtigsten Pflichten sind:
Risikomanagementsystem (Artikel 9)
- Kontinuierliche, iterative Risikoidentifizierung und -minderung über den gesamten Lebenszyklus des KI-Systems
- Muss Risiken aus der bestimmungsgemässen Verwendung und vorhersehbarem Missbrauch abdecken
Datengovernance (Artikel 10)
- Trainings-, Validierungs- und Testdatensätze müssen relevant, repräsentativ, fehlerfrei und vollständig sein
- Prüfung auf mögliche Verzerrungen, die die Gesundheit oder Sicherheit beeinträchtigen könnten
Technische Dokumentation (Artikel 11)
- Detaillierte Beschreibung des KI-Systems einschliesslich Zweckbestimmung, Design, Entwicklungsprozess und Validierungsmethodik
- Dies erweitert die technische Akte gemäss MDR Anhang II
Aufzeichnung und Protokollierung (Artikel 12, 19)
- Automatische Aufzeichnung von Ereignissen während des Betriebs (Audit Trail)
- Rückverfolgbarkeit über den gesamten Lebenszyklus des KI-Systems
Transparenz und menschliche Aufsicht (Artikel 13, 14)
- Die Gebrauchsanweisung muss dem Anwender die Interpretation der KI-Ausgabe ermöglichen
- Das Design muss eine wirksame menschliche Aufsicht ermöglichen, einschliesslich der Möglichkeit, die KI-Ausgabe zu übersteuern
Genauigkeit, Robustheit und Cybersicherheit (Artikel 15)
- Deklarierte Genauigkeits- und Robustheitsniveaus mit Testbelegen
- Resilienz gegen adversariale Angriffe und Datenkorruption
Zeitplan: Wann gelten die AI Act Pflichten?
| Datum | Meilenstein |
|---|---|
| 1. August 2024 | AI Act in Kraft getreten |
| 2. Februar 2025 | Verbotene KI-Praktiken gelten |
| 2. August 2025 | Pflichten für allgemeine KI-Modelle gelten |
| 2. August 2026 | Pflichten für Hochrisiko-KI-Systeme gelten (einschliesslich KI-Medizinprodukte) |
| 2. August 2027 | Vollständige Durchsetzung für bereits auf dem Markt befindliche KI-Systeme |
Wenn Sie nach dem 2. August 2026 ein neues KI-Medizinprodukt auf den EU-Markt bringen, müssen Sie von Anfang an sowohl die MDR als auch die Hochrisiko-Anforderungen des AI Act erfüllen.
Bereits auf dem Markt befindliche Produkte müssen konform sein, wenn nach dem 2. August 2026 wesentliche Änderungen an ihrem Design vorgenommen werden (AI Act Artikel 111).
Wie sieht die Konformitätsbewertung aus?
Für ein KI-basiertes Produkt der Klasse IIa oder höher kombiniert die Konformitätsbewertung MDR- und AI-Act-Anforderungen:
- Produkt klassifizieren nach MDR Regel 11 und bestätigen, dass es ein Hochrisiko-KI-System nach AI Act Artikel 6(1) ist
- QMS implementieren, das sowohl MDR Artikel 10(9) als auch AI Act Artikel 17 (KI-Qualitätsmanagementsystem) abdeckt
- Technische Dokumentation erstellen gemäss MDR Anhang II, erweitert um die Anforderungen des AI Act Anhang IV (Datengovernance, Trainingsmethodik, Leistungskennzahlen, Bias-Analyse)
- Klinische Bewertung durchführen gemäss MDR Artikel 61 und MDCG 2020-1 (klinische Bewertung von Software)
- Bei einer Benannten Stelle einreichen, die sowohl nach MDR als auch nach dem AI Act benannt ist — die NB führt eine einzige Bewertung durch
- In EUDAMED registrieren (MDR) und in der EU-KI-Datenbank (AI Act Artikel 71)
- CE-Kennzeichnung anbringen — eine CE-Kennzeichnung deckt die Konformität mit beiden Regelwerken ab
Was ist mit kontinuierlich lernenden Algorithmen?
Ein KI-System, das nach der Bereitstellung weiterlernt (adaptiv/kontinuierlich lernend), stellt zusätzliche Herausforderungen dar. Unter der MDR erfordert jede Änderung, die die Sicherheit oder Leistung des Produkts beeinträchtigen könnte, eine neue Konformitätsbewertung oder mindestens eine Bewertung wesentlicher Änderungen (MDCG 2020-3).
Der AI Act adressiert dies durch die Anforderung einer laufenden Überwachung und die Pflicht, das Risikomanagementsystem zu aktualisieren, wenn sich das Verhalten des KI-Systems ändert (Artikel 9(2)).
In der Praxis sperren die meisten Hersteller den Algorithmus bei der Bereitstellung (vorbestimmter Änderungskontrollplan), anstatt wirklich adaptive Modelle einzusetzen.
Wichtigste Erkenntnisse
- Ein KI-Algorithmus ist ein Medizinprodukt unter der MDR, wenn er eine medizinische Zweckbestimmung hat — Klassifizierung nach Regel 11
- Ab dem 2. August 2026 müssen KI-Medizinprodukte sowohl die MDR als auch die Hochrisiko-Anforderungen des AI Act erfüllen
- Die Benannte Stelle führt eine einzige Konformitätsbewertung für beide Regelwerke durch
- Der AI Act fügt Datengovernance, Transparenz, menschliche Aufsicht und Robustheitsanforderungen zur MDR hinzu
- Die meisten KI-Diagnosetools sind Klasse IIa oder IIb; Klasse III bei eigenständigen lebenskritischen Entscheidungen
- Kontinuierlich lernende Algorithmen erfordern einen vorbestimmten Änderungskontrollplan und laufende Überwachung
Wie RegAid hilft
RegAid deckt den vollständigen Text der EU MDR 2017/745, des EU AI Act 2024/1689, aller MDCG-Leitlinien und der IMDRF-SaMD-Rahmenwerke ab. Fragen Sie „Welche AI-Act-Anforderungen gelten für ein KI-Diagnostikgerät der Klasse IIb?" und erhalten Sie eine strukturierte Antwort mit Zitaten aus MDR- und AI-Act-Artikeln nebeneinander.
