France

Regulatory Affairs Expert Talks 2025 „Regulatory Affairs ist keine MDR-Insel mehr“

Von Julia Engelke 8 min Lesedauer

Anbieter zum Thema

Am 1. und 2. April fand die vierte Ausgabe der Regulatory Affairs Expert Talks statt. Die Teilnehmer erwarteten Updates zu KI, MDR, Digitalisierung und Cybersecurity in Vorträgen und Workshops. Aber auch der Austausch untereinander kam nicht zu kurz.

Am 1. und 2. April fand die vierte Ausgabe der Regulatory Affairs Expert Talks in den Räumen des Vogel Convention Centers in Würzburg statt. (Bild:  Stefan Bausewein)
Am 1. und 2. April fand die vierte Ausgabe der Regulatory Affairs Expert Talks in den Räumen des Vogel Convention Centers in Würzburg statt.
(Bild: Stefan Bausewein)

Die vierte Ausgabe der Regulatory Affairs Expert Talks ging erfolgreich zu Ende. Über 80 Teilnehmer fanden sich am 1. und 2. April in Würzburg ein. Die zwei Tage waren geprägt von interessanten und aufschlussreichen Vorträgen, Workshops, die zum Mitmachen einluden, vielen spannenden Gesprächen und Möglichkeiten zum Netzwerken sowie einer begleitenden Ausstellung.

Die Medizintechnik-Branche in Deutschland ist aktuell von verschiedenen regulatorischen Herausforderungen betroffen, die auf europäischer und nationaler Ebene bestehen. Die regulatorische Landschaft ist komplex und ständig im Wandel. Seit der Einführung der Medical Device Regulation im Mai 2021 hat sich viel getan und der steigende Bedarf an digitaler Transformation rückt neue Herausforderungen wie künstliche Intelligenz, Digitalisierung und Cybersecurity zunehmend in den Fokus. Es bestand also Austauschbedarf.

Die Regulatory Affairs Expert Talks 2025
Bildergalerie mit 28 Bildern

Digitalisierung ist Teamwork

Den Dienstagmittag eröffneten nach einer kurzen Begrüßung von Julia Engelke, stellvertretende Chefredakteurin der Devicemed, Lukas Vogler (Avasis Solutions) und Michael Kania (Meddevo) mit ihrer Keynote. Die beiden machten deutlich, wie wichtig die Digitalisierung für Medizintechnik-Unternehmen ist und das diese noch zu langsam vorangeht. Wichtig ist für Unternehmen bei einer Digitalisierungsstrategie nicht nur die Software zu implementieren, sondern die Mitarbeiter mitzunehmen. Die beiden Referenten gaben den Tipp, lieber kleine Projekte anzugehen: „size does matter“ in diesem Fall.

Weiter ging es mit Thorsten Prinz vom VDE. In seinem Vortrag machte er deutlich, dass die Sicherheit von medizinischen Hochrisiko-KI-Systemen eine gemeinsame Aufgabe von Anbietern und Betreibern ist. Im AI Act ist gefordert, dass ihre Mitarbeiter über eine KI-Kompetenz verfügen und ausreichend geschult sind.

360° Compliance für Medizinprodukte und aktuelle Cybersecurity-Anforderungen

Nach der Pause machte Miriam Schuh (Reuschlaw) klar, wie wichtig Compliance für Medizinprodukte ist. Denn bei fehlender Compliance drohen erhebliche Rechtsfolgen: u. a. sind Geldstrafen oder der Ausschluss von öffentlichen Aufträgen möglich. Deshalb geht es ohne die 360° Compliance nicht. Um dabei nicht den Überblick zu verlieren, gab die Referentin den Teilnehmern ein paar wichtige Punkte an die Hand:

  • sie müssen eine Bedarfsprüfung machen (über die MDR/IVDR hinaus; Abdeckung aller relevanten regulatorischen Bereiche),
  • die Anforderungen an ihr Produkt identifizieren (unternehmensbezogen; Abdeckung des kompletten Lebenszyklus)
  • und die Umsetzung/Implementierung von Prozessen und Verfahrensanweisungen in allen Bereichen des Unternehmens
  • sowie die Überwachung (Aufrechterhaltung der Standards; Anpassungen an zukünftige Änderungen; ggf. Optimierung der Prozesse) im Blick behalten.

Einen Überblick zu den aktuellen regulatorischen Anforderungen an die Cybersecurity erhielten die Teilnehmer von Peter Hartung (Metecon). In der EU sind der Cybersecurity Act, die NIS-2-Richtlinie und die MDR/IVDR zentral für Informationssicherheit. In Deutschland kommt noch die KRITIS-Verordnung hinzu. Diese ist für aber nur indirekt relevant, da sie sich an Unternehmen richtet, die in die kritische Infrastruktur Deutschlands involviert sind (z. B. große Krankenhäuser). Als Fazit führte der Referent zudem an:

  • die Produktsicherheit entscheidet mit über die Verkaufsfähigkeit des Produktes;
  • für das Produkt muss die Sicherheit und Leistungsfähigkeit inklusive SOUP (Software of Unknown Provenance)/OTS (Off-the-Shelf Software) gewährleistet sein;
  • Personal muss entsprechend dem Anforderungsprofil aus der Informationssicherheit qualifiziert werden.

Den ersten Tag ließen Teilnehmer, Referenten und Aussteller mit leckerem Essen, Frankenwein und anregenden Gesprächen bei der Abendveranstaltung im Vogel Convention Center ausklingen.

Wenn sich Regularien streiten und KI-Medizinprodukte zwischen MDR und AI Act

Den zweiten Tag startete Stefan Bolleininger von be-on-Quality. In seiner Keynote „Der STEPP-Tanz des Herstellers“ fragte er die Teilnehmer, ob sie alle Regularien, die sich im EU-Raum tummeln, im Blick haben. Am Beispiel eines Toilettensitzes mit EKG-Funktion machte der Referent deutlich, unter wie viele verschiedene Regularien ein Produkt fallen kann. Und dass diese Regularien unter Umständen auch miteinander in Konflikt geraten können.

Um das Spannungsfeld von zwei Regularien ging es auch im Vortrag von Claudia Tessenow (CEED @ Charité Universitätsmedizin Berlin) und Christian Teichter (Schürmann Rosenthal Dreyer Rechtsanwälte). Genauer um die Qualifizierung und Klassifizierung von KI-Medizinprodukten unter dem AI Act und der MDR. Denn die korrekte Klassifizierung von KI-Medizinprodukten nach MDR und AI Act ist entscheidend für Compliance und Risikominimierung. Fehlerhafte Klassifizierungen führen zu unnötigen Kosten und rechtlichen Konsequenzen. Beide Regelwerke erfordern umfassende Konformitäts- und Risikomanagementsysteme sowie Dokumentation. Anhand verschiedener Softwareanwendungsfälle stellten die beiden Referenten den Teilnehmern konkrete Klassifizierungen vor.

Closed Loop Medical Devices und Strategien für den Nachweis des klinischen Nutzens

Sebastian Wittor (Bayoomed) beschäftigte sich in seinem Vortrag mit den Herausforderungen an die Cybersecurity durch Closed Loop Medical Devices. Diese Systeme, die therapeutische Entscheidungen aufgrund sensorischer Daten treffen, erfordern robuste Sicherheitsmaßnahmen, einschließlich Benutzerrollen, Zugriffskontrollen und umfassendem Logging zur Nachvollziehbarkeit. Closed-Loop-Medizinprodukte fallen unter die Klasse III laut MDR und erfordern spezifische Designs wie „safe by design“, um unautorisierte Zugriffe zu verhindern und reibungslosen Betrieb sicherzustellen. Der Referent betonte: „Safety und Security müssen Hand in Hand gehen. Und lieber einmal mehr dokumentieren und testen: der Aufwand ist gering, der Mehrwert extrem hoch.“

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Lea Wettlaufer (Johner Institut) gab den Teilnehmern drei Strategien an die Hand, um beim Nachweis des klinischen Nutzens Geld und Zeit zu sparen:

  • Hersteller müssen vorab die richtige Kategorie des klinischen Nutzens für ihr Produkt finden.
  • Die richtigen Parameter zeigen, ob klinischer-Nutzen-Nachweis überhaupt notwendig ist.
  • Clinical Affairs und Marketing mit in die Entwicklung und Abstimmung zu nehmen, ist ein Muss. Ansonsten droht hinterher das böse Erwachen (unterschiedliche Vorstellungen des Produkts).

KI-Workshops: Zusammenspiel und Validierung

Nach der Mittagspause teilten sich die Teilnehmer in zwei Workshop-Gruppen auf.

Einen Einblick aus der juristischen Perspektive gaben Oliver Stöckel und Franziska Ladiges (beide SKW Schwarz) in ihrem Workshop zum Thema „Das Zusammenspiel von MDR/IVDR, AI Act und Datenschutz bei Medizintechnik mit KI“. Dieses Zusammenspiel ist entscheidend für den Einsatz von KI in der Medizintechnik. Die Regelwerke bilden ein „magisches Dreieck“ und erfordern eine umfassende Compliance-Strategie. KI-Systeme in der Medizintechnik müssen gemäß dem Risiko klassifiziert werden, wobei Hochrisiko-Systeme eine Konformitätsbewertung durch eine benannte Stelle benötigen, ähnlich wie bei traditionellen Medizinprodukten. Zudem erfordert der Datenschutz den präzisen Umgang mit Gesundheitsdaten. Die Einhaltung der DSGVO, inklusive der Unterscheidung zwischen personenbezogenen und anonymisierten Daten, ist essenziell, insbesondere beim Training und Einsatz von KI-Systemen. Als Erkenntnisse für Medtech-Unternehmen, die KI einsetzen machten die beiden Referenten deutlich: „Schauen Sie über den Tellerrand hinaus: Regulatory Affairs ist keine MDR-/IVDR-Insel.“ Zudem sollten die Teilnehmer keine Panik bekommen: Die KI-Regulatorik ist der Regulatorik in der MDR sehr ähnlich und kann sogar MDR-Probleme lösen. Die Referenten gaben den Teilnehmern im Anschluss noch die Möglichkeit für Fragen und einen Erfahrungsaustausch, die rege genutzt wurde.

Im parallel stattfindenden Workshop halfen Immanuel Bader und Steven Reichen von Flinn AI den Teilnehmern KI-Lösungen zu verstehen und kritisch zu hinterfragen. Dafür erfragten die Referenten den aktuellen Stand bei den Teilnehmern indem sich die Teilnehmer in einer Reihe aufstellten: von 1: keine Erfahrung bei KI Tools; bis 10: sehr viel Erfahrung bei KI Tools. Der Stand der Teilnehmer war unterschiedlich. Auch bei der folgenden Aufstellung – 1: Schlechte Erfahrungen mit KI Tools bis 10: gute Erfahrungen mit KI Tools – war alles vertreten. Herr Reichen klärte im Anschluss die Frage „Was kann KI überhaupt?“ Welche Stärken und Schwächen hat die Technologie und wie sieht es im Vergleich zum Menschen aus? Dann waren wieder die Teilnehmer an der Reihe. In Kleingruppen überlegten sie, für welche Prozesse im Regulatory Affairs KI gut bzw. schlecht funktioniert. Positivbeispiele waren die Verschlagwortung oder Literaturrecherche. Nicht geeignet ist die KI für alles, was am Ende begründet werden muss, waren sich die Teilnehmer einig. Mit der Cross Validation, dem Ground Truth Testing und dem Turing Test gaben die Referenten den Teilnehmern wichtige KI-Validierungstechniken an die Hand. Die drei wichtigsten Learnings des Workshops waren:

  • KI dort einsetzen, wo sie stark ist und Menschen fehlerhaft sind.
  • Qualität von KI-Lösungen durch Verständnis von Einsatzstellen erkennen können.
  • Sicherstellen, dass der richtige Validierungsansatz gewählt wird.

ChatGPT als Hilfe?

Nach einem Raumwechsel fanden die beiden nächsten Workshops statt. Arjan Stok (Stoq Managementservice) zeigte den Teilnehmern, wie sie KI-Unterstützung bei einer Risikoanalyse eines Gelenk-Implantats bekommen könnten. Der Referent machte zu Beginn deutlich: „Die Nutzung von KI in regulierten Bereichen erfordert Anwender, die fachlich versiert, kritisch prüfend, technisch grundlegend geschult und verantwortungsbewusst sind. KI kann Prozesse beschleunigen, aber die Bewertung bleibt in menschlicher Hand.“ Dann ging es auch schon ans Live-Prompting. Bzw. fast live: da der ChatGPT-Zugriff überlastet war, griff der Referent auf seinen vorbereiteten Verlauf zurück und zeigte den Teilnehmern, mithilfe welcher Prompts ChatGPT eine Risikoanalyse für ein Hüftimplantat aus Titan erstellte. Im Anschluss diskutierten die Teilnehmer, ob das KI-Tool eine verlässliche Hilfe ist und wie sie es in ihren Alltag integrieren würden. Allen Teilnehmern war klar: der wahre Experte sitze immer noch vor dem Bildschirm.

Dieser Aussage pflichtete auch Julian Alpers (Seleon) bei. In seinem parallel stattfindenden Workshop ging er mit den Teilnehmern den Weg zur Zulassung intelligenter Medizinprodukte. Als drei wichtige Punkte stellte der Referent heraus:

  • Der AI Act klassifiziert AI-Systeme nach Risikostufen. Hochrisiko-AI-Systeme benötigen umfassende Risikomanagementsysteme, Daten-Governance und Transparenzpflichten über den gesamten Lebenszyklus.
  • Es gibt mehrere ISO/IEC Standards wie 23053:2022 und 23894:2023, die Richtlinien zur Risiko- und Datenmanagement für AI-Systeme bieten und die Vertrauenswürdigkeit und Robustheit von AI-Anwendungen fördern.
  • Gutes Datenmanagement erfordert genaue Datenerhebung, Datenbereinigung und Sicherstellung der Datenintegrität. Validierung von AI-gestützten Systemen umfasst Human-Factors-Bewertungen, Performance-Validierungen und Tests zur Robustheit und Glaubwürdigkeit des AI-Modells.

Im Anschluss wurden Kleingruppen gebildet, in denen die Teilnehmer aktiv wurden und anhand von Beispielfällen über das Datenmanagement diskutierten.

QMS als strategischer Erfolgsfaktor

Für die letzten beiden Vorträge der Veranstaltung kamen die Teilnehmer wieder im Plenum zusammen. Um hybride Medizintechnikprodukte ging es im Vortrag von Kristian Schatz (M&M Software). Diese erfordern neue Datenmanagement-Ansätze, um regulatorischen Anforderungen gerecht zu werden. Der Referent hob hier den Smart-Data-Fabric-Ansatz hervor: Fragmentierte, unstrukturierte oder korrumpierte Daten stellen Risiken dar. Eine integrierte Datenlösung verbessert das Wertversprechen durch eine einheitliche Verbindung von Datenquellen.

Den Abschluss machte Volker Klügl (ipp. Dr. Klügl) und zeigte den Teilnehmern auf, wie sie das Qualitätsmanagementsystem (QMS) nutzen können, um ihr Unternehmen voranzubringen. Fünf Punkte hob er dabei besonders hervor:

  • 1. Beweislastumkehr: das QMS ist für die Organisation da,
  • 2. QMS ist Chefsache,
  • 3. „Das, was man sich ausdenkt, muss auch funktionieren.“,
  • 4. Single source of truth: Was im QMS steht, wird gemacht. Und was gemacht wird, steht im QMS.,
  • 5. wenn etwas nicht funktioniert, muss es sofort repariert werden.

Das Fazit der beiden Tage: Der Rede- bzw. Austauschbedarf ist v. a. beim Thema KI hoch: es handelt sich aber auch um eine neue Technologie, auf die sich die Medizintechnik-Branche noch einlassen bzw. einstellen muss. Die Digitalisierung ist zudem wichtig und sollte nicht aus dem Fokus gelassen werden. Außerdem muss immer geschaut werden, unter wie viele verschiedene Regularien das eigene Medizinprodukt fallen kann.

Die nächste Ausgabe der Regulatory Affairs Expert Talks wird am 14. und 15. April 2026 in Würzburg stattfinden. Hier können Sie sich für Event-Updates anmelden.

(ID:50386215)