Quelle: https://digital-strategy.ec.europa.eu/en/policies
Ab 2026 ändert sich für Unternehmen beim Einsatz von Künstlicher Intelligenz vieles.
Mit dem EU AI Act gibt es zum ersten Mal feste Regeln dafür, wie KI entwickelt, genutzt und überwacht werden darf. Was früher nur empfohlen war, ist jetzt verpflichtend. Unternehmen müssen klare Zuständigkeiten festlegen, transparent mit KI umgehen, Risiken prüfen und den Einsatz von KI regelmäßig kontrollieren.
Wichtig: Unternehmen sollten nicht bis 2026 warten. Schon seit 2025 müssen Mitarbeitende im Umgang mit KI geschult werden. KI-Compliance ist daher kein Thema der Zukunft mehr, sondern gehört bereits heute zum Arbeitsalltag.
Jedes Unternehmen, das KI entwickelt oder einsetzt, braucht klare Regeln für den Umgang mit KI. Dazu gehören unter anderem:
Ziel: Verantwortung, Nachvollziehbarkeit und Kontrolle sicherstellen.
KI-Systeme müssen so gestaltet sein, dass sie:
Tipp: Lege früh interne Standards für Daten, Trainingsprozesse, Updates und Modelländerungen fest.
Nutzer müssen erkennen können, wann und wie KI eingesetzt wird. Unternehmen müssen offenlegen:
Wird KI im Kundenservice eingesetzt, muss dokumentiert sein, welche Anfragen die KI beantwortet – und wann ein Mensch übernehmen muss.
Bereits seit 2025 verlangt der EU AI Act, dass Unternehmen ihre Mitarbeitenden angemessen schulen, wenn diese mit KI-Systemen arbeiten oder Entscheidungen auf Basis von KI treffen.
Wichtig: Schulungen sind Teil der organisatorischen Pflichten – und werden bei Prüfungen berücksichtigt.
Ab August 2026 gelten Governance-, Transparenz- und Hochrisiko-Pflichten verbindlich.
Ja. Seit 2025 besteht eine Schulungspflicht für Mitarbeitende im Umgang mit KI.
Alle Unternehmen, die KI entwickeln, einsetzen oder vertreiben – unabhängig von Größe oder Branche.
Mit praxisnahem EU-AI-Act-E-Learning – von der ersten Sensibilisierung (Kostprobe) bis zur strukturierten Schulung.
Grundsätzlich das Unternehmen. Je nach Konstellation können Geschäftsführung, Anbieter und Betreiber gleichermaßen in der Verantwortung stehen.
Je nach Verstoß bis zu 35 Mio. € oder 7 % des weltweiten Jahresumsatzes. Zusätzlich drohen Reputationsschäden und Nutzungsverbote.
So detailliert, dass:
Entscheidungen nachvollziehbar sind
Risiken bewertet wurden
menschliche Kontrolle belegt werden kann
Audits ohne Nacharbeit möglich sind
Die DSGVO schützt personenbezogene Daten.
Der EU AI Act reguliert Systeme, Risiken und Entscheidungen – auch ohne personenbezogene Daten.
Ja. Datenqualität, Bias-Risiken und Repräsentativität müssen bewertet und dokumentiert werden – insbesondere bei Hochrisiko-KI.
Ja – sofern Inhalte, Lernziele und Teilnahme nachweisbar dokumentiert sind. Das ist ausdrücklich praxisüblich.
Nein. Er ist ein lebendes Regelwerk. Weitere Verordnungen zu Haftung, Ethik und Nachhaltigkeit sind bereits angekündigt.
