Seit Februar 2025 müssen Unternehmen, die Künstliche Intelligenz (KI) entwickeln oder einsetzen, die neuen Anforderungen des EU AI Acts beachten. Dieser weltweit erste, umfassende Rechtsrahmen für KI zielt darauf ab, Innovation zu fördern und gleichzeitig den Schutz von Verbraucherrechten sicherzustellen.

Was ist der AI Act?
Der EU AI Act verfolgt das Ziel, den sicheren und transparenten Einsatz von KI zu gewährleisten und gleichzeitig Innovationen zu fördern. Unternehmen, die KI-Systeme entwickeln oder nutzen, müssen sicherstellen, dass diese die Rechte der Menschen respektieren und keine diskriminierenden oder fehlerhaften Entscheidungen treffen. Der AI Act verfolgt einen risikobasierten Ansatz und unterscheidet KI-Systeme nach ihrem Risiko für die Gesellschaft. Dazu werden vier Risikoklassen eingeführt:

Risikobasierte Klassifikation von KI-Systemen

  1. Unannehmbares Risiko: Hierzu zählen KI-Systeme, die die Grundrechte der Menschen stark gefährden, wie etwa Social Scoring und manipulative Anwendungen. Diese sind künftig verboten.
  2. Hohes Risiko: Für KI-Systeme, die potenziell schwerwiegende Auswirkungen auf die Sicherheit und Grundrechte der Menschen haben, gelten strenge Auflagen. Hierzu gehören KI-Systeme in Bereichen wie Personalwesen, Kreditvergabe oder medizinische Diagnosen. Unternehmen müssen unter anderem eine detaillierte Risikobewertung und Dokumentation vornehmen sowie menschliche Aufsicht sicherstellen.
  3. Begrenztes Risiko: Weniger riskante KI-Anwendungen, wie Chatbots oder KI-generierte Inhalte, müssen transparent gemacht werden. Nutzer müssen darüber informiert werden, dass sie mit KI-Systemen interagieren und dass generierte Inhalte gekennzeichnet sind.
  4. Minimales Risiko: KI-Systeme, die keine signifikanten Risiken bergen, wie etwa Spamfilter oder Übersetzungsprogramme, unterliegen keinerlei spezifischen Anforderungen.

Zeitplan der Einführung des AI Acts
Die Einführung des AI Acts erfolgt in mehreren Schritten, wobei Unternehmen die Möglichkeit haben, sich schrittweise auf die neuen Anforderungen einzustellen:

  • Seit dem 2. Februar 2025: Kapitel I (Allgemeine Bestimmungen) und Kapitel II (Verbotene Praktiken im KI-Bereich) des AI Acts sind in Kraft getreten. Diese Bestimmungen betreffen insbesondere die Festlegung von Grundregeln und das Verbot bestimmter hochriskanter KI-Anwendungen.
  • Mai 2025: Fertigstellung der Verhaltenskodizes und anderer regulatorischer Maßnahmen.
  • August 2025: Vollständige Einführung von Governance-Regeln für Hochrisiko-KI und der Verpflichtung zur Benachrichtigung von Behörden. Verhängung von Sanktionen. (Kapitel 3, 5, 7, 12 sowie Artikel 78, 99, 100)
  • August 2026: Inkrafttreten weiterer Bestimmungen und Regelungen. (Ausnahme: Artikel 6 Absatz 1)
  • August 2027: Ende der Übergangsfristen für Hochrisiko-KI-Anwendungen, wie sie etwa im Personalwesen zum Einsatz kommen.

Pflichten für Unternehmen
Alle Unternehmen, die KI entwickeln oder einsetzen, müssen sicherstellen, dass ihre Systeme den neuen Standards entsprechen. Dazu gehören transparente Dokumentationen, Sicherheitsmaßnahmen, Datenschutzvorkehrungen sowie die Gewährleistung menschlicher Aufsicht bei Hochrisiko-KI.

Strafen bei Verstößen
Unternehmen, die den Vorgaben des EU AI Acts nicht nachkommen, müssen mit hohen Strafen rechnen. Bei schwerwiegenden Verstößen drohen bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes.

Förderung von Innovation
Der AI Act fördert nicht nur die Sicherheit und den Verbraucherschutz, sondern soll auch Innovationen und Investitionen in ethische und verantwortungsvolle KI-Technologien anregen. Besonders kleine und mittelständische Unternehmen (KMUs) sowie Start-ups sollen durch die Verordnung unterstützt werden.

 

Quellen: EU Kommission, Sparkasse, Verordnung (EU) 2024/1689