Social Scoring verboten – Deutschland stützt EU-Gesetz für KI

 | 01.02.2024 11:11

„Der aktuelle Entwurf eines EU-Gesetzes zur Kontrolle von Künstlicher Intelligenz ist überzogen“, sagte Samuel Altman, Geschäftsführer des KI-Pioniers OpenAI im vergangenen Sommer, „aber wir haben gehört, dass es noch angepasst wird“. Man gebe sich alle Mühe, „die Regeln einzuhalten“, zu strenge Auflagen lasse man sich aber nicht gefallen: „Dann müssen wir unsere Arbeit hier in Europa einstellen“. Seit Monaten basteln die Entscheidungsträger der Europäischen Union an einem Regelwerk für die Entwicklung und Anwendung von Künstlicher Intelligenz in Europa. Darin werden autonome Algorithmen in verschiedene Gefahrenstufen eingeordnet, die teils stark reguliert, teils sogar verboten werden sollen. Auf EU-Ebene ist man stolz auf das weltweit erste Gesetz dieser Art, laut Kommissionspräsidentin Ursula von der Leyen könne man Künstlicher Intelligenz nun „vertrauen“. Deutschland war lange nicht so begeistert von der Idee, warnte vor der Abwanderung von Innovationsträgern. Jetzt lenkt die Bundesregierung doch ein – zum Leidwesen von Kritikern, die der Union vorwerfen, Pläne zur Massenüberwachung zu schmieden.h2 Wie gefährlich ist Künstliche Intelligenz?/h2

Ziel des KI-Gesetzes ist laut EU, den Menschen ins Zentrum zu stellen, Grundrechte zu wahren und eine „ethische Entwicklung von Künstlicher Intelligenz“ zu gewährleisten. Dazu sollen KI-Modelle künftig in vier Kategorien eingeteilt werden, je nach Risiko, das von ihnen ausgeht. Minimales Risiko gehe demnach von den meisten gebräuchlichen Programmen aus, darunter fallen KI-gestütztes Gaming oder autonome Spam-Filter, die „keine Intervention benötigen“. In der zweiten Kategorie, dem begrenzten Risiko, finden sich audiovisuelle Imitationen von Menschen in den Medien, sogenannte Deepfakes wieder. Diese Technologie war erst kürzlich in den Schlagzeilen, als nach fingierten Anrufen mit Joe Bidens manipulierter Stimme Sorgen um Wahlmanipulation in den Vereinigten Staaten aufgekommen waren. Ebenso wie Deepfakes werden künftig auch Chatbots, die menschenähnliche Gespräche führen können, in diese zweite Kategorie fallen. Hier sind schärfere Transparenzauflagen zu erwarten, um Nutzer darüber zu informieren, wenn sie mit einer Maschine interagieren, die humanoide Züge besitzen oder Menschen imitieren.