Zunehmende Cyberkriminalität am Beispiel der Ransomware-Angriffe auf Unternehmen im Februar 2025
Zunehmende Cyberkriminalität am Beispiel der Ransomware-Angriffe auf Unternehmen im Februar 2025
Die Europäische Kommission hat Leitlinien zur Definition von KI-Systemen sowie Leitlinien für verbotene Praktiken von KI im Sinne der Europäischen KI-Verordnung (AI-Act) veröffentlicht.
Warum wurden die Leitlinien veröffentlicht?
Die EU-Kommission hat die Leitlinien mit dem Ziel veröffentlicht, einen rechtlichen Rahmen zu schaffen, der Innovation fördert und gleichzeitig die Grundrechte und die Sicherheit der Bürger schützt. Ziel ist es, Vertrauen in KI-Technologien aufzubauen und Missbrauch sowie auch Diskriminierung zu verhindern.
Für wen gelten sie?
Die Leitlinien richten sich an Entwickler, Anbieter, Nutzer und Regulierungsbehörden, die KI-Systeme in Europa entwickeln, einsetzen oder regulieren.
Welche Inhalte sind in den Leitlinien zur Definition von KI-Systemen am wichtigsten und welche Praktiken sind gemäß der EU-KI-Verordnung (AI-Act) verboten?
1. Definition von KI-Systemen:
Die EU-Kommission beschreibt KI-Systeme als Software, die mithilfe von Algorithmen und Daten menschenähnliche Entscheidungsprozesse nachahmt. Sie umfassen Technologien wie maschinelles Lernen, regelbasierte Systeme oder neuronale Netze. Ziel ist es, eine klare Abgrenzung zu schaffen, um die Regulierung gezielt auf die vielfältigen KI-Anwendungen anzuwenden.
2. Risikobasierter Ansatz:
Die Verordnung unterscheidet zwischen verschiedenen Risikokategorien:
- Untersagte Praktiken: Praktiken, die als extrem gefährlich eingestuft werden und daher verboten sind, z. B. manipulative Deepfakes oder KI, die Menschen durch Täuschung beeinflusst.
- Hochrisiko-KI-Systeme: Systeme mit erheblichen Auswirkungen auf Grundrechte, z. B. in den Bereichen Medizin, Verkehr oder Justiz. Für diese gelten strenge Anforderungen an Transparenz, Sicherheit und Überwachung.
- Geringeres Risiko: Systeme mit weniger Einfluss unterliegen weniger strengen Vorgaben.
3. Verbotene Praktiken:
Die EU verbietet bestimmte KI-Anwendungen, um die Grundrechte zu schützen:
- Manipulative KI: Systeme, die Menschen durch Täuschung oder subliminale Beeinflussung manipulieren.
- Soziale Bewertung durch Behörden: KI, die soziale Bewertungen vornimmt und Diskriminierung fördert.
- Massive Überwachung: Überwachungssysteme, die die Privatsphäre massiv einschränken, sind untersagt.
4. Transparenz und Verantwortlichkeit:
Für Hochrisiko-KI-Systeme gelten Vorgaben zur Transparenz. So müssen Nutzer etwa informiert werden, wenn sie mit einer KI interagieren. Verantwortliche müssen klare Zuständigkeiten übernehmen, um Missbrauch zu verhindern.
Zusammenfassend lässt sich festhalten, dass die Leitlinien einen verantwortungsvollen Einsatz von KI-Technologien sicherstellen sollen, um Innovation zu fördern und gleichzeitig die Menschenrechte zu wahren. Sie sind ein wichtiger Schritt, um Europa zu einem sicheren und vertrauenswürdigen KI-Standort zu machen.
