logo_klein
Verbotene KI: Leitlinien der EU Kommission
Verbotene KI: Leitlinien der EU Kommission

Der AI Act ist die erste umfassende gesetzliche Regelung für Künstliche Intelligenz in der Europäischen Union. Ziel ist es, Innovation zu fördern, während gleichzeitig klare Grenzen für den Einsatz von KI gezogen werden, um Grundrechte, Sicherheit und gesellschaftliche Werte zu schützen. Ein zentraler Bestandteil der Verordnung ist die Klassifikation von KI-Systemen nach Risikostufen. Während einige Hochrisiko-Systeme zugelassen sind, jedoch strengen Auflagen unterliegen, gibt es eine Kategorie von Praktiken, die generell verboten sind, da sie als unvereinbar mit den Werten der EU gelten. Verbotene KI ist Art 5 AI Act geregelt. Die Europäische Kommission hat nun (nicht-bindende) Leitlinien veröffentlicht, die die praktischen Auswirkungen dieser Verbote erläutern und eine einheitliche Anwendung der Vorschriften in der EU sicherstellen sollen. Dies zeigt einmal mehr, dass viele Fragen noch offen sind und der AI Act sehr interpretationsbedürftig ist.

Verbotene KI-Praktiken gemäß Artikel 5 des AI Acts

Die folgenden KI-Anwendungen unterfalen in der EU ausnahmslos dem Begriff verbotene KI, da sie als unverhältnismäßige Eingriffe in Grundrechte oder als Missbrauch technologischer Möglichkeiten angesehen werden:

Manipulative oder ausbeuterische KI-Systeme

  • Verboten ist der Einsatz von KI-Systemen, die gezielt psychologische Schwächen oder Abhängigkeiten von Menschen ausnutzen, um diese zu bestimmten Handlungen zu drängen, die ihnen Schaden zufügen könnten.
  • Dies betrifft insbesondere Systeme, die sich auf Verhaltensanalyse stützen, um Nutzer zu manipulieren – beispielsweise durch subliminale Botschaften oder erzwungene Entscheidungsfindung.
  • Beispiel: Eine KI, die auf Basis der finanziellen Situation einer Person gezielt Kaufangebote platziert, um sie zu wirtschaftlich schädigenden Entscheidungen zu verleiten.

Sozialkreditsysteme („Social Scoring“)

  • Es ist verboten, KI zur systematischen Einstufung oder Bewertung von Individuen anhand ihres sozialen Verhaltens oder persönlicher Eigenschaften einzusetzen, insbesondere wenn dies durch öffentliche Stellen oder private Unternehmen geschieht.
  • Begründung: Solche Systeme können zu Diskriminierung führen und das Prinzip der individuellen Freiheit und Gleichheit verletzen.
  • Beispiel: Ein KI-System, das Bürger auf Grundlage ihres Verhaltens im öffentlichen Raum bewertet und ihnen Vorteile oder Strafen auferlegt.

Biometrische Identifikation im öffentlichen Raum

  • Grundsätzlich verboten ist der Einsatz von KI für die biometrische Echtzeit-Identifikation von Personen in öffentlichen Räumen, insbesondere für Massenüberwachung.
  • Ausnahme: Diese Systeme dürfen nur unter eng gefassten Bedingungen von Strafverfolgungsbehörden genutzt werden, etwa zur gezielten Suche nach vermissten Personen oder zur Terrorabwehr mit gerichtlicher Genehmigung.
  • Beispiel für verbotene Praxis: Die dauerhafte automatische Erfassung aller Passanten in einer Stadt mittels Gesichtserkennung.

Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen

  • Verboten ist die Nutzung von KI zur Emotionserkennung in sensiblen Bereichen wie dem Arbeitsumfeld oder in Schulen.
  • Begründung: Solche Technologien könnten zu unfairer Behandlung oder psychischem Druck führen und in die Privatsphäre der betroffenen Personen eingreifen.
  • Beispiel: Eine KI, die die Emotionen von Studierenden während Prüfungen überwacht und daraus Rückschlüsse auf ihre Ehrlichkeit zieht.

Predictive Policing und KI-gestützte Risikoanalyse

  • KI darf nicht dazu verwendet werden, Straftaten oder Straftäter vorherzusagen, wenn dies auf personenbezogenen Daten oder individuellen Merkmalen basiert.
  • Begründung: Solche Systeme könnten rassistische oder diskriminierende Vorurteile verstärken und Unschuldige zu Verdächtigen machen.
  • Beispiel für verbotene Praxis: Ein Algorithmus, der Menschen basierend auf ethnischer Zugehörigkeit oder früherem Wohnort als wahrscheinliche Straftäter klassifiziert.

Praktische Umsetzung der Verbote und erlaubte Alternativen

Während einige KI-Technologien streng verboten sind, gibt es Ermessensspielräume und alternative Lösungen, die unter bestimmten Bedingungen zulässig sind:

KI-Überwachung durch Behörden

  • Nicht generell verboten, aber stark reguliert, ist der Einsatz von KI-gestützter Überwachung für begrenzte und gerichtsfest kontrollierte Zwecke, etwa bei schweren Straftaten.
  • Voraussetzung: Eine vorherige richterliche Anordnung und klare gesetzliche Begrenzungen der Datenverarbeitung.

Biometrische Identifikation in privaten Räumen

  • Erlaubt sind biometrische Identifikationssysteme in nicht-öffentlichen Räumen, etwa zur Zugangskontrolle in Unternehmen oder für persönliche Sicherheitsanwendungen, sofern sie datenschutzkonform eingesetzt werden.

KI-gestützte Risikoanalysen

  • Zulässig sind KI-gestützte Analysen, die sich auf anonymisierte oder aggregierte Daten stützen und nicht direkt einzelne Individuen klassifizieren.
  • Beispiel: Eine Versicherung nutzt KI zur Risikoanalyse von Schäden, jedoch ohne personenbezogene Daten einzelner Versicherungsnehmer.

Haltung der Europäischen Kommission

Die Leitlinien machen deutlich, dass die Kommission eine eher restriktive Haltung gegenüber risikoreichen KI-Anwendungen einnimmt. Die EU setzt sich klar gegen Technologien ein, die:

  • Individuelle Freiheiten einschränken,
  • Diskriminierung verstärken,
  • oder massenhafte Überwachung ermöglichen.

Dennoch erkennt die Kommission an, dass KI-Technologien sinnvoll genutzt werden können, wenn sie strengen ethischen und rechtlichen Standards genügen. Unternehmen werden daher aufgefordert, Compliance-Programme zu etablieren, um sicherzustellen, dass ihre Systeme mit dem AI Act im Einklang stehen.

Fazit

  • Die Verordnung (EU) 2024/1689 definiert erstmals klare Verbote für besonders risikobehaftete KI-Anwendungen.
  • Die Europäische Kommission hat die Aufgabe, eine einheitliche Umsetzung sicherzustellen und hat daher Leitlinien veröffentlicht, die praktische Hilfestellung bieten.
  • Während einige Anwendungen (wie Social Scoring oder Predictive Policing) vollständig untersagt sind, gibt es für andere Bereiche (z. B. biometrische Identifikation oder Überwachung) enge regulatorische Rahmenbedingungen.
  • Die Haltung der EU ist klar: KI soll innovativ genutzt werden, jedoch nicht auf Kosten von Grundrechten und Datenschutz.

Unternehmen und Behörden müssen sich nun aktiv auf diese Vorgaben einstellen, da die Verbote bereits anwendbar sind.

Sie haben weitere Fragen zum Thema KI und Recht?

Sie haben weitere Fragen zum Thema verbotene KI oder zu anderen Punkten des AI-Acts oder wollen sich zu ähnlichen Rechtsfragen zu künstlicher Intelligenz von einem Rechtsanwalt beraten lassen? Schauen Sie gerne bei unseren Services vorbei oder melden Sie sich per E-Mail unter office@geuer.at bzw telefonisch unter +43-1-4380072. Wir freuen uns auf Ihre Anfrage.

Quelle: Leitlinien der EU Kommission

Scroll to Top