Am 01.08.2024 trat der AI-Act in Kraft, die europäische KI-Verordnung. Sie regelt, wie KI in der EU reguliert wird und betrifft alle Mitgliedsstaaten. Die Mitgliedsstaaten müssen eine nationale Behörde benennen, die für die Umsetzung und Überwachung der Leitlinie verantwortlich ist. Dafür haben sie ein Jahr Zeit.
Im Kern muss die ernannte Behörde drei Aufgaben nachkommen:
- Sie fungiert als unabhängige Prüfstelle, die Hochrisiko-KI-Systeme kontrollieren
- Sie überwacht den Markt und dient als Anlaufstelle für KI-Anbieter, wenn diese Fehler in ihren Systemen entdecken
- Sie soll Innovation und Wettbewerb fördern
Regelung in Deutschland
Im September 2024 wurde die Bundesnetzagentur als zentrale Anlaufstelle genannt, die sich um einen Großteil der Aufgaben kümmern werde. Dies machte die Bundesnetzagentur per LinkedIn Post öffentlich – ein eher ungewöhnlicher Weg.
Unterstützung in den einzelnen Produktbereichen, die die KI-Verordnung betreffen, erhält die Bundesnetzagentur von anderen Behörden. So ist das Kraftfahrtbundesamt für den Automotive-Bereich und Bundesinstitut für Arzneimittel und Medizinprodukte für den medizinischen Bereich zuständig.
KI – Chance oder Risiko?
Der AI-Act basiert auf einem risikobasiertem Modell, dass die KI in Risiko Klassen einteilt. Dabei werden die KI-Anwendungen in folgende Klassen eingeteilt:
Risikogruppe 3: Unannehmbares Risko
Ein unannehmbares Risko besteht, wenn ein KI-Systeme eine Bedrohung für die Menschen darstellt. Diese KI-Anwendungen werden verboten. Zu den verbotenen KI-Anwendung gehört beispielsweise das social scoring, das bestimmtes Verhalten, das fest definiert ist, mit Bonuspunkten belohnt, wie beispielsweise Zuschüsse in der Krankenversicherung, und Vergehen bestraft, wie beispielsweise mit schlechten Zinsen bei einem Kredit. Pilotprojekte des social scoring werden aktuell in China getestet.
Risikogruppe 1: Geringes Risiko
Die betroffene KI unterliegt der Informations- und Transparenzpflicht. Den Nutzern muss verdeutlicht werden, dass sie in einem Chat beispielsweise mit einem Chatbot schreiben.
Zusatzgruppe allgemeine Verwendungszwecke
KI-Modelle mit allgemeinen Verwendungszwecken ist beispielsweise ChatGPT, die mit riesigen Datenmengen trainiert wurden. Durch die steigende Nutzung setzt die europäische KI Verordnung hier besondere Regularien auf.
Alle KI-Anwendungen der Risikogruppe 3 werden in sechs Monaten verboten. Nach 12 Monaten greifen die Regelungen für KI-Systeme mit allgemeinem Verwendungszweck, alle anderen Regeln nach 2 Jahren.