02170 Interview: Artificial Intelligence Act (AI Act)
Der Artificial Intelligence Act (AI Act) der Europäischen Union, verabschiedet am 13. März 2024, markiert einen Wendepunkt in der Regulierung von Künstlicher Intelligenz (KI) in Europa. Im Gespräch mit Mike Emenako werden die Ziele, Herausforderungen und die erwarteten Auswirkungen dieses Gesetzes auf Unternehmen und die Gesellschaft erörtert. Der AI Act zielt darauf ab, Sicherheit und Grundrechte zu schützen und gleichzeitig Innovationen zu fördern, indem er ein risikobasiertes Regelwerk einführt. Unternehmen stehen vor der Aufgabe, ihre KI-Systeme entsprechend zu klassifizieren und anzupassen, während sie gleichzeitig Chancen für Wettbewerbsvorteile durch vertrauenswürdige KI erkennen. Mike Emenako betont die Bedeutung der nationalen Umsetzung, insbesondere in Deutschland, und diskutiert die Rolle internationaler Standards wie ISO/IEC 42001 bei der Compliance. Trotz Bedenken bezüglich der Innovationskraft und potenzieller Bürokratie sieht er den AI Act als wichtigen Schritt zur Sicherung der europäischen Werte in der KI-Entwicklung. von: |
Guten Tag, Herr Emenako, und vielen Dank, dass Sie sich die Zeit nehmen, um über den Artificial Intelligence Act (AI Act) und seine Bedeutung für die Zukunft der KI in Europa zu sprechen.
Guten Tag, es ist mir eine Freude, hier zu sein und über dieses wichtige Thema zu diskutieren.
1 Allgemeines Verständnis und Bedeutung
Was ist der AI Act
Beginnen wir mit den Grundlagen. Können Sie kurz erläutern, was der AI Act ist und warum er eingeführt wurde?
Beginnen wir mit den Grundlagen. Können Sie kurz erläutern, was der AI Act ist und warum er eingeführt wurde?
Der Artificial Intelligence Act [1] , kurz AI Act, ist ein von der Europäischen Union verabschiedetes Gesetz zur Regulierung von Künstlicher Intelligenz (KI). Er wurde am 13. März 2024 verabschiedet und zielt darauf ab, den Einsatz von KI-Systemen zu regeln, um Sicherheit und Grundrechte zu schützen und gleichzeitig Innovationen zu fördern. Der AI Act ist eine Reaktion auf die rasante Entwicklung der KI-Technologie und ihre zunehmende Bedeutung in allen Lebensbereichen. Durch einheitliche Regeln soll Rechtssicherheit geschaffen, Vertrauen in KI gestärkt und ein fragmentierter Binnenmarkt verhindert werden. Zudem soll die EU eine Vorreiterrolle bei der ethischen und menschenzentrierten KI einnehmen.
Hauptziele
Welche Hauptziele verfolgt der AI Act und wie soll er Sicherheit und Grundrechte schützen?
Welche Hauptziele verfolgt der AI Act und wie soll er Sicherheit und Grundrechte schützen?
Nun ja, der AI Act verfolgt mehrere Hauptziele: Erstens sollen Sicherheit, Gesundheit und Grundrechte von Personen vor Risiken durch KI-Systeme geschützt werden. Zweitens soll Rechtssicherheit für Unternehmen und Nutzer geschaffen und Vertrauen in KI gestärkt werden. Drittens soll die Entwicklung einer menschenzentrierten und vertrauenswürdigen KI gefördert und die Wettbewerbsfähigkeit der EU gestärkt werden. Um diese Ziele zu erreichen, führt der AI Act ein risikobasiertes System mit vier Stufen ein – von minimal bis inakzeptabel. Je nach Risiko gelten dann unterschiedliche Anforderungen an Transparenz, Dokumentation, menschliche Aufsicht und technische Robustheit. Für Hochrisiko-Systeme sind zudem eine Konformitätsbewertung, Registrierung und Nachmarktüberwachung vorgesehen. Bestimmte Praktiken wie Social Scoring sollen ganz verboten werden.
2 Auswirkungen auf Unternehmen
Was ist zu tun?
Wie werden Unternehmen durch den AI Act beeinflusst und welche Schritte müssen sie unternehmen, um die neuen Vorschriften zu erfüllen?
Wie werden Unternehmen durch den AI Act beeinflusst und welche Schritte müssen sie unternehmen, um die neuen Vorschriften zu erfüllen?
Der AI Act wird weitreichende Auswirkungen auf Unternehmen haben, die KI-Systeme entwickeln, vertreiben oder nutzen. Je nach Risikoklasse ihrer Systeme müssen sie unterschiedliche Compliance-Anforderungen erfüllen – von Transparenzpflichten bis hin zu aufwändigen Konformitätsbewertungen. Unternehmen sollten zunächst alle ihre KI-Systeme erfassen und gemäß dem AI Act klassifizieren. Für Hochrisiko-Systeme müssen sie dann ein Qualitätsmanagementsystem einführen, die geforderte technische Dokumentation erstellen, eine Konformitätsbewertung durchführen und die Systeme registrieren. Zudem müssen sie Vorkehrungen für Nachmarktüberwachung, Berichterstattung und Zusammenarbeit mit Behörden treffen. Auch für andere Risikoklassen gibt es Pflichten wie Transparenz gegenüber Nutzern oder menschliche Aufsicht. Insgesamt müssen Unternehmen also ihre Prozesse anpassen, Verantwortlichkeiten klären und möglicherweise zusätzliche Ressourcen einplanen. Eine frühzeitige Vorbereitung ist daher ratsam.
Herausforderungen und Chancen
Welche Herausforderungen und Chancen ergeben sich für Unternehmen durch die Einführung des AI Acts?
Welche Herausforderungen und Chancen ergeben sich für Unternehmen durch die Einführung des AI Acts?
Der AI Act bringt für Unternehmen sowohl eine ganze Reihe von Herausforderungen als auch Chancen mit sich. Zu den Herausforderungen zählen sicherlich die Komplexität der neuen Regeln und der damit verbundene Umsetzungsaufwand. Gerade für kleinere Unternehmen könnte es schwierig werden, die Anforderungen zu erfüllen und die Kosten zu stemmen. Auch könnten durch die Regulierung bestimmte Innovationen erschwert oder verzögert werden. Auf der anderen Seite bietet der AI Act aber auch Chancen. Durch die EU-weit einheitlichen Regeln entsteht Rechtssicherheit und Klarheit für Unternehmen. Das kann Haftungsrisiken reduzieren und die Entwicklung von KI-Anwendungen berechenbarer machen. Zudem kann das Vertrauen von Nutzern und Kunden in europäische KI-Systeme gestärkt werden, was Wettbewerbsvorteile schafft. Auch werden ethische und nachhaltige KI-Innovationen gefördert, die sich positiv auf Reputation und Geschäftsmodelle auswirken können. Insgesamt bietet der AI Act also trotz Herausforderungen auch Chancen – vor allem für Unternehmen, die proaktiv und strategisch an die Umsetzung herangehen.
3 Risikogruppen und Compliance
Beispiele für Anwendungen
Können Sie die vier Risikogruppen, die der AI Act definiert, näher beschreiben und Beispiele für Anwendungen in jeder Gruppe geben?
Können Sie die vier Risikogruppen, die der AI Act definiert, näher beschreiben und Beispiele für Anwendungen in jeder Gruppe geben?
Gerne. Der AI Act teilt KI-Systeme in vier Risikogruppen ein: minimales, begrenztes, hohes und inakzeptables Risiko. Ein minimales Risiko haben die meisten KI-Systeme, z. B. Chatbots, Spamfilter oder Computerspiele. Sie unterliegen nur minimalen Transparenzpflichten. Begrenztes Risiko haben z. B. Emotionserkennungssysteme oder Deepfakes. Hier müssen die Nutzer darauf hingewiesen werden, dass sie mit einer KI interagieren. Ein hohes Risiko haben Systeme in kritischen Bereichen wie Gesundheit, Verkehr oder Strafverfolgung, z. B. Diagnosesoftware, selbstfahrende Autos oder Gesichtserkennungssysteme. Hier gelten hohe Anforderungen an Qualität, Transparenz und menschliche Kontrolle. Nicht akzeptabel sind Systeme, die die Sicherheit oder Grundrechte stark gefährden, z. B. Social Scoring oder unterschwellige Manipulation. Solche Systeme sind zu verbieten. Die Einstufung erfolgt anhand von Kriterien wie Verwendungszweck, Schadenspotenzial und Abhängigkeit der Betroffenen. Entscheidend ist eine Gesamtbetrachtung im jeweiligen Kontext.
Wie sollten Unternehmen ein Risikomanagement-System für hochriskante KI-Anwendungen etablieren und welche Rolle spielt die Dokumentation dabei?
Risikomanagement
Für hochriskante KI-Systeme verlangt der AI Act ein umfassendes Risikomanagement über den gesamten Lebenszyklus. Dazu müssen Unternehmen zunächst alle Risiken systematisch identifizieren, analysieren und bewerten. Dabei sind technische, rechtliche und ethische Aspekte zu berücksichtigen. Auf dieser Basis sind dann geeignete Maßnahmen zur Risikovermeidung und -minimierung zu ergreifen, z. B. bei Design, Entwicklung, Test und Betrieb der Systeme. Wichtig sind auch klare Verantwortlichkeiten, Prozesse und Kontrollen. Das Risikomanagement sollte in ein übergreifendes Qualitätsmanagementsystem eingebettet sein. Die Dokumentation spielt dabei eine zentrale Rolle. Der AI Act fordert eine umfassende technische Dokumentation, die alle Aspekte des Systems und des Risikomanagements beschreibt, z. B. Daten, Modelle, Tests, Entscheidungsregeln und Überwachungsmaßnahmen. Die Dokumentation muss stets aktuell sein und den Aufsichtsbehörden zur Verfügung stehen. Sie dient als Nachweis der Compliance, aber auch als Grundlage für die Transparenz, Nachvollziehbarkeit und Überprüfbarkeit der Systeme. Unternehmen sollten die Dokumentationsanforderungen frühzeitig in ihre Entwicklungsprozesse integrieren und auch als Chance zur Qualitätsverbesserung begreifen.
Für hochriskante KI-Systeme verlangt der AI Act ein umfassendes Risikomanagement über den gesamten Lebenszyklus. Dazu müssen Unternehmen zunächst alle Risiken systematisch identifizieren, analysieren und bewerten. Dabei sind technische, rechtliche und ethische Aspekte zu berücksichtigen. Auf dieser Basis sind dann geeignete Maßnahmen zur Risikovermeidung und -minimierung zu ergreifen, z. B. bei Design, Entwicklung, Test und Betrieb der Systeme. Wichtig sind auch klare Verantwortlichkeiten, Prozesse und Kontrollen. Das Risikomanagement sollte in ein übergreifendes Qualitätsmanagementsystem eingebettet sein. Die Dokumentation spielt dabei eine zentrale Rolle. Der AI Act fordert eine umfassende technische Dokumentation, die alle Aspekte des Systems und des Risikomanagements beschreibt, z. B. Daten, Modelle, Tests, Entscheidungsregeln und Überwachungsmaßnahmen. Die Dokumentation muss stets aktuell sein und den Aufsichtsbehörden zur Verfügung stehen. Sie dient als Nachweis der Compliance, aber auch als Grundlage für die Transparenz, Nachvollziehbarkeit und Überprüfbarkeit der Systeme. Unternehmen sollten die Dokumentationsanforderungen frühzeitig in ihre Entwicklungsprozesse integrieren und auch als Chance zur Qualitätsverbesserung begreifen.