Suche
Close this search box.

Gründer FAQ: Das könnte sich in Sachen KI verändern

AI-Act: Wie wird die Regulierung Künstlicher Intelligenz in Zukunft aussehen?

Das geplante europäische Gesetz über künstliche Intelligenz, der sog. „AI-Act“, wird nach bisher 18 Monaten endlich im Trilog mit den Mitgliedsstaaten diskutiert. Bereits jetzt ist abzusehen, was in Zukunft verboten sein wird und in welchen Bereichen Betreiber und Verwender besonders aufpassen müssen. In unserem Gründer FAQ erklären wir dir, wie KI künftig reguliert wird.

In Zeiten von ChatGPT, Midjourney und KI-Social-Media-Filtern ist vor allem eines deutlich geworden: KI ist eine Revolution. Nicht nur in Sachen Datenmanagement und -organisation, sondern auch bei der Vertragsgestaltung im Onlinehandel und beim internen Brainstorming. Schier unglaubliche Tools greifen auf gleichermaßen unglaubliche Datenmengen zurück, und an allen Enden sehen Experten Gefahren für Menschen- und Grundrechte. Die Drohkulisse: Diskriminierende KI, die über Menschen entscheiden, autonome Kriegswaffen, die sich gegen Menschen richten, staatliche Überwachung und viele weitere Horrorszenarien. Wie wird eine Regulierung der Künstlichen Intelligenz aussehen? Mit dem Artificial Intelligence Act (AI-Act) reagiert der EU-Gesetzgeber. Doch er begibt sich damit in ein Kreuzfeuer aus Sicherheit und Freiheit. 

Nachdem die Kommission am 21. Januar 2021 ihren Entwurf veröffentlicht hat und am 25. November 2022 der EU-Rat folgte, hat nun am 24. Juni 2023 das EU-Parlament eignen eigenen Vorschlag vorgelegt. Jetzt befindet sich der Entwurf in den Trilogverhandlungen. Angesichts der 2024 stattfindenden Wahlen des EU-Parlaments ist davon auszugehen, dass die EU-Institutionen zeitnah eine Einigung finden werden. Bereits jetzt zeichnet sich jedoch aus den drei Positionen ab, wie der Kern der neuen Regelungen wahrscheinlich aussehen wird:

Harte Verbote

Der AI-Act ordnet die Grenzen nach dem Risiko der betroffenen KI-Systeme. Systeme, die eine Bedrohung für Menschen(-rechte) darstellen können, haben dabei ein „unannehmbares Risiko“ und werden gänzlich verboten. Hier wird zu einer starken Regulierung der Künstlichen Intelligenz gegriffen. Dazu zählen KI-Systeme, die auf unterschwellige Verhaltensmanipulation angelegt sind, insbesondere bei anfälligen Personengruppen. Man denke an KI-gesteuertes Spielzeug, das Kinder unbemerkt zu gefährlichem Verhalten anregt. Auch Menschen mit körperlichen oder geistigen Behinderungen sollen von der Beeinflussung durch KI besonders geschützt werden. 

Als zu gefährlich gelten auch KI-Systeme, die Menschen sozial klassifizieren würden. Das schiebt vor allem Social-Scoring-Konzepten – wie solchen in China – einen Riegel vor. Systeme, die auf eine „Schlechterstellung oder Benachteiligung“ von Personen aufgrund ihres „Sozialverhaltens oder anderer persönlicher Eigenschaften“ ausgelegt sind, sollen insgesamt verboten werden. Neben staatlichem Scoring kann das auch Schnittstellen zum Personalmanagement mitbringen. Ob ein Bewerber geeignet ist, darf nicht anhand automatisierter Datensammlung und KI-gestützter Auswertung seiner Social Media Auftritte oder Google Maps Rezensionen beurteilt werden. (Das überlässt man dann doch lieber den Menschen.)

Heiß umstritten ist der Einsatz von KI zur biometrischen Identifizierung und Zuordnung, etwa anhand von ethnischen Merkmalen, für Grenzschutz- und Polizeiarbeit. Hier wurde auch ein absolutes Verbot diskutiert, im Moment hält sich das EU-Parlament allerdings an den Kommissionsentwurf und lässt eine Nutzung solcher Systeme ausnahmsweise zu – etwa nach richterlicher Anordnung bei der Aufklärung besonders schwerer Straftaten. Dabei ist das letzte Wort allerdings noch nicht gesprochen – hier müssen klare Grenzen gesteckt werden.

Die Verbote klingen juristisch zumindest schlüssig, würden die genannten Fälle doch viel zu stark in Persönlichkeitsrechte eingreifen; die meisten betreffen sogar die bekanntlich unantastbare Menschenwürde.

Whitepaper

KI Studie: So sinnvoll finden Nutzer von KI die neue Technologie

KI-Nutzer sehen in der Anwendung von KI große Chancen, während Nicht-Nutzer eher die Risiken sehen. Was bedeutet das für die Implementierung von KI in Unternehmen? Genau das erfährst du in dieser Studie.

Welche Verbote?

Nun gibt es laut dem EU-Gesetzgeber nicht nur Systeme mit „unannehmbarem“, sondern auch mit „hohem“ Risiko. „Hochrisiko-Systeme“ sind der umstrittenste Dreh- und Angelpunkt des Gesetzes. Sie werden zwar nicht per se verboten, müssen allerdings besonderen Anforderungen genügen – dabei werden über ihren gesamten Lebenszyklus hinweg eng überwacht. Und die Breite der erfassten Systeme wird schon jetzt schwer kritisiert. Dazu gehören Systeme, die:

  • in Produkten verwendet werden, für die EU-Regulierungen gelten (Luftfahrt, Fahrzeuge, Spielzeug, medizinische Geräte, Aufzüge etc..)
  • der biometrischen Identifizierung dienen
  • die Verwaltung von kritischen Infrastrukturen betreffen
  • die Strafverfolgung unterstützen
  • Asyl und Grenzkontrollen verwalten
  • bei der Anwendung und Auslegung von Gesetzen helfen (gerade für LegalTech Start-Ups relevant!)
  • Laut EU-Parlament sollen auch Empfehlungssysteme von Online-Plattformen sowie solche zur Beeinflussung von Wählerverhalten dazu zählen. 

Ein hohes Risiko lauert also hinter vielen Ecken, und das heißt für KI-Unternehmen vor allem zweierlei: Eine Menge Dokumentation und umfassende Gefahrenvorbeugung. 

Wer Hochrisiko-Systeme nutzt, muss bestimmte Verfahren zum Einpflegen ihrer Trainingsdaten vorweisen, die Prozesse genauestens dokumentieren und transparent angeben können. Außerdem muss man sicherstellen, dass immer eine verantwortliche menschliche Instanz verbleibt. Zur Gefahrenvorbeugung müssen software-seitig sog. „Risiko-Management-Systeme“ eingerichtet werden, die möglicherweise problematische Ergebnisse erkennen und herausfiltern. 

Das gilt vor allem auch für generative Basismodelle wie ChatGPT, wobei da die Verantwortlichkeit weniger bei den Unternehmen liegt, die es einsetzen, als bei dem Unternehmen, das das Modell (weiter-)entwickelt. Hier steht unter anderem eine Pflicht im Raum, Produkte und Ergebnisse der KI ausdrücklich als solche zu kennzeichnen. Bei Kunst-KIs kann man das wohl in Wasserzeichen oder Metadaten erwarten, während ChatGPT da durchaus kreativer werden muss.

Regulierung von Künstlicher Intelligenz: Eine rechtliche Abwägung bleibt nicht aus

Jetzt bleibt es abzuwarten, welche Kompromisse im Trilog gefunden werden. Konservative Gegenstimmen – die etwa eine volle biometrische Identifizierung für annehmbar hielten – wurden im EU-Parlament überstimmt; doch nun könnten sie wieder mehr Rückenwind bekommen. Auch Experten befürchten in manchen Teilen bereits eine Überregulierung, die die EU in Sachen KI international zurückwerfen würde. Wenn aber ein solides Grundwerk gelingt, kann der AI-Act als Ankerpunkt auch über die EU hinaus wirken und – wie auch die DSGVO – ein Vorbild für Gesetzgeber jenseits der EU-Grenzen sein.

Unternehmer werden die technischen Einzelheiten der Verordnung schon in den internen Prozessen berücksichtigen müssen. So muss bei interner Datenverarbeitung und -verwaltung dafür gesorgt werden, dass ungerechte Behandlungen aufgrund voreingenommener Algorithmen erkannt und beseitigt werden. Selbst bei generativen KI-Systemen, die mit unvorhersehbaren Eingaben der Nutzer arbeiten, liegt die Verantwortung hier eher beim Betreiber. Den hauseigenen Support- oder Vertrags-Chatbots müssen beispielsweise enge Korsetts angelegt werden, um das Risiko gesetzeskonform zu managen. In jedem Fall wird man die Chancen der KI mit den Rechten abwägen müssen, die dadurch betroffen werden.

Mit einem Inkrafttreten dieser Regelungen ist erst frühestens 2026 zu rechnen. Die EU-Kommission will sich aber schon früher dafür einsetzen, dass Unternehmen sich freiwillig verpflichten.  

Es kann sich also durchaus auch als Schüler und Student lohnen, sich selbstständig zu machen und ein eigenes Online-Business zu gründen. Allerdings darf man auch hier nicht gesetzlichen Vorgaben aus den Augen verlieren. Fest steht: Es kommt noch einiges an Regulierung auf uns zu, was Künstliche Intelligenz angeht.

Du willst noch mehr zum Thema rechtskonformer Umgang mit KI wissen?

Dann darfst du unser KI Legal Event nicht verpassen! Am 15. Oktober erhältst du von Experten und Anwälten aus den Bereichen Wirtschafts-, Urheber-, IT-, Markenrecht und Datenschutz intensive Einblicke in dieses spannende Thema! Das wird dich erwarten:

  • KI-Rechtswissen aus erster Hand
  • Von uns getestete und bewährte Tool-Empfehlungen
  • Konkrete Anwendungsbeispiele
  • KI Legal Guideline

Die besten

KI-Geschäftschancen

2025

Dein Einstieg in den Billionenmarkt
Artikel bewerten
Wie gefällt dir dieser Artikel?
4.1 aus 964 Bewertungen
MEHR ZUM THEMA
Wie kann ich falsche Google Bewertungen löschen lassen?

Wie kann ich falsche Google Bewertungen löschen lassen?

Du hast eine negative Google Bewertung bekommen und möchtest sie löschen lassen? Erfahre, ob und wie das bei Fake-Bewertungen funktioniert.

Nach dem Exit – Wie kann deine Rolle im Unternehmen aussehen?

Nach dem Exit – Wie kann deine Rolle im Unternehmen aussehen?

Exit aus deinem Unternehmen: Du willst wissen, wie du weiterhin einen Beitrag an deinem Business leisten kannst? Das erfährst du in unserem Gründer FAQ

Newsletter-Leads mit Freebies – Was erlaubt die DSGVO?

Newsletter-Leads mit Freebies – Was erlaubt die DSGVO?

Im Netz kursiert die Meinung, dass im Rahmen der Erbringung eines Freebies kein Newsletter-Abonnement verlangt werden darf. Aber stimmt das?

Was sind eigentlich Unternehmenskennzeichen?

Was sind eigentlich Unternehmenskennzeichen?

Wofür sind Unternehmenskennzeichen eigentlich gut und solltest du dich als Gründer mit diesem Thema befassen? Mehr dazu in unserem Gründer FAQ.

Themenseiten

DU willst deine KI-Skills aufs nächste Level heben?

WIR machen dich bereit für die Revolution
KÜNSTLICHE INTELLIGENZ!

Exklusive Einblicke
Newsletter für KI-Insider
Melde dich jetzt an und werde zum Gewinner der KI-Revolution

Ja, ich möchte den Newsletter. Die Einwilligung kann jederzeit im Newsletter widerrufen werden. Datenschutzerklärung.

Über den Autor

Autorenprofil: Christian Solmecke

Christian Solmecke

Rechtsanwalt Christian Solmecke hat in seiner Kölner Kanzlei WBS.LEGAL den Bereich Internetrecht/E-Commerce stetig ausgebaut. Er betreut dort zahlreiche Online-Händler, Medienschaffende und Web-2.0-Plattformen. Daneben ist RA Solmecke Gründer von anwalt2go sowie mehreren IT-Startups. Seine ersten Projekte hat er selbst programmiert. Neben seiner Kanzleitätigkeit und der Geschäftsführung der cloudbasierten Kanzleisoftware Legalvisio.de ist Christian Solmecke Autor zahlreicher Fachbücher zum Thema Online-Recht und Geschäftsführer des Deutschen Instituts für Kommunikation und Recht im Internet (DIKRI) an der Cologne Business School (http://www.dikri.de). Dort beschäftigt er sich insbesondere mit den Rechtsfragen in Sozialen Netzen. Vor seiner Tätigkeit als Anwalt arbeitete Solmecke mehrere Jahre als Journalist für den Westdeutschen Rundfunk und andere Medien.

Hast du noch Fragen?

Du hast eine Frage oder eine Meinung zum Artikel? Teile sie mit uns!

Sitemap

schliessen

Die besten

KI-Geschäftschancen

2025

Dein Einstieg in den Billionenmarkt