France

Nach Abstimmung im EU-Parlament TÜV-Verband warnt vor Flickenteppich bei KI-Regeln

Quelle: Pressemitteilung TÜV-Verband 3 min Lesedauer

Anbieter zum Thema

Das Europäische Parlament hat seine Position zur Anpassung des EU AI Act beschlossen und dabei mehrheitlich für einen so genannten Sektor Exit bei der KI-Regulierung gestimmt. Hochrisiko-Anwendungen wie Medizinprodukte sollen aus der KI-Verordnung herausgenommen werden. Davor warnt der TÜV-Verband.

(Maks Lab - stock.adobe.com)
(Maks Lab - stock.adobe.com)

Am 18. März haben der Ausschuss für Binnenmarkt und Verbraucherschutz (IMCO) und der Ausschuss für bürgerliche Freiheiten, Justiz und Inneres (LIBE) des Europäischen Parlaments ihre Position zur Anpassung des EU AI Act beschlossen und dabei mehrheitlich für einen so genannten Sektor Exit bei der KI-Regulierung gestimmt. Zentrale Hochrisiko-Produktbereiche, z. B. Medizinprodukte, Maschinen und Spielzeuge, sollen laut Forderung der Abgeordneten aus dem unmittelbaren Anwendungsbereich der KI-Verordnung herausgelöst und KI-Anforderungen sollen stattdessen künftig in den jeweiligen sektoralen Rechtsakten geregelt werden. Aus Sicht des TÜV-Verbands wäre dies ein folgenschwerer Kurswechsel, der den horizontalen Regulierungsansatz des AI Acts substanziell schwächt und das europäische Schutzniveau für Hochrisiko-KI gefährdet. „Der EU AI Act ist als weltweit erster umfassender Rechtsrahmen für künstliche Intelligenz angetreten, um Innovation und Schutz zusammenzudenken“, sagt Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands. „Wenn sich das Europäische Parlament in den Verhandlungen mit den Mitgliedsstaaten und der EU-Kommission durchsetzt, endet der europäische Weg bei künstlicher Intelligenz in einer Sackgasse.“

Sektorale Verlagerung bedeutet Flickenteppich statt Klarheit

Zu Hochrisiko-KI-Systemen zählen Anwendungen, deren Fehlfunktionen oder Fehlentscheidungen erhebliche Folgen für Sicherheit, Gesundheit und Grundrechte haben können, z. B. in den Bereichen Medizin, Robotik, Bewerbungsverfahren oder beim Zugang zu wichtigen Dienstleistungen wie Kreditvergaben. Bühler: „Gerade bei industriellen und verbrauchernahen Hochrisiko-KI-Systemen brauchen wir einheitliche Regeln zu Robustheit, Datenqualität, Transparenz, Risikomanagement und menschlicher Aufsicht, damit Sicherheit, Gesundheit und Grundrechte wirksam geschützt werden.“

Die vorgeschlagene sektorale Verlagerung würde den europäischen Rechtsrahmen für Hochrisiko-KI-Systeme nicht vereinfachen, sondern zersplittern. Anforderungen an künstliche Intelligenz müssten dann in zahlreichen sektoralen Richtlinien und Verordnungen neu erarbeitet und integriert werden – mit unterschiedlichen Standards, Verfahren und Umsetzungsfristen.

KI entwickelt sich schneller als sektorale Regulierung

Ein solcher Sektor Exit würde zudem die Regulierung von Hochrisiko-KI erheblich ausbremsen. KI-spezifische Anforderungen müssten dann mühsam in zahlreiche sektorale Vorschriften eingearbeitet und laufend nachgezogen werden. Angesichts der Geschwindigkeit technologischer Entwicklungen wäre es kaum möglich, KI-Anforderungen in zahlreichen sektoralen Rechtsakten rechtzeitig anzupassen. Veraltete Vorschriften würden so selbst zum Innovationshemmnis. Ein horizontaler Ansatz hingegen kann mit der Dynamik von KI Schritt halten und zugleich ein hohes Schutzniveau sichern. „Das wäre kein Bürokratieabbau, sondern der Einstieg in einen regulatorischen Flickenteppich mit mehr Aufwand, mehr Unsicherheit und langfristig höheren Belastungen für Unternehmen“, sagt Bühler. Gerade für Hersteller, die KI in sicherheitskritischen Produkten wie Medizinprodukten, Maschinen oder vernetzten Verbraucherprodukten einsetzen, sind klare und kohärente Regeln sowie deren europaweit einheitliche Umsetzung entscheidend, um Sicherheit, Innovation und Wettbewerbsfähigkeit zusammenzubringen.

Europa droht Einfluss auf globale KI-Standards zu verlieren

Der AI Act gilt weltweit als Referenzmodell für vertrauenswürdige KI. Viele internationale Akteure orientieren sich bereits an dem europäischen Ansatz. Mit einem Sektor Exit weicht die EU den eigenen KI-Regulierungsansatz auf und verliert an Einfluss auf internationale Standards. Das ist nicht nur regulatorisch relevant, sondern auch wirtschaftspolitisch entscheidend. Denn internationale Standards bestimmen, welche Anforderungen sich in globalen Märkten durchsetzen. „Wenn Europa seinen Ansatz bei Hochrisiko-KI verwässert, schwächen wir unseren Einfluss auf Regeln, die morgen weltweit gelten“, sagt Bühler. „Und das schwächt auch Europas Wettbewerbsfähigkeit im globalen KI-Wettbewerb.“

Verhandlungen zwischen EU-Parlament und Mitgliedsstaaten müssen den horizontalen Ansatz sichern

Der TÜV-Verband hat bereits gemeinsam mit Algorithm Watch, AI Policy Lab, ALLAI, BSI - United Kingdom, DEKRA, For Humanity, Open Knowledge Foundation, The Future Society und TÜV AI.Lab in einem offenen Brief an die Bundesregierung vor einem Sektor Exit gewarnt. „Jetzt kommt es in den anstehenden Trilogverhandlungen zwischen EU-Parlament und Mitgliedsstaaten darauf an, den horizontalen Ansatz des AI Acts zu verteidigen und Europas Sicherheits- und Vertrauensversprechen bei Hochrisiko-KI-Systemen nicht preiszugeben“, sagt Bühler. „Eine Rückabwicklung des AI Acts durch die Hintertür wäre der falsche Weg. Anstatt zentrale Produktbereiche aus dem Rechtsrahmen herauszulösen, braucht es zügig Auslegungsleitlinien der Europäischen Kommission, um Überschneidungen mit sektoralem Recht zu klären und ein hohes Maß an Sicherheit zu gewährleisten.“

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

(ID:50790712)