ARAG Experte Tobias Klingelhöfer zu rechtlichen Herausforderungen mit KI
Ob Chatbots, Bilderkennungssoftware oder autonomes Fahren: Die Nutzung von Künstlicher Intellgenz (KI) verändert nicht nur unsere Lebenswelt (https://www.arag.com/de/verbraucherinformation/kuenstliche-intelligenz-im-alltag/), sondern wirkt sich auch auf viele Rechtsbereiche aus. Um Innovationen zu fördern und zugleich Risiken zu minimieren, müssen Gesetzgeber und Gerichte bestehende Rahmenbedingungen anpassen. So verbietet die Europäische Union beispielsweise ab Februar KI-Anwendungen (https://ai-act-law.eu/de/artikel/5/), die Menschen manipulieren können oder gegen ihre Grundrechte verstoßen. ARAG Experte Tobias Klingelhöfer gibt einen Überblick und zeigt auf, wo es beim rechtlichen Rahmen für KI noch To-Dos gibt.
Die digitale Welt entwickelt sich rasend schnell. Wie wird sichergestellt, dass Regulierungen mit dieser Geschwindigkeit Schritt halten?
Tobias Klingelhöfer: Die Europäische Union hat mit ihrem AI Act (https://www.bundesregierung.de/breg-de/aktuelles/ai-act-2285944) (AI, englisch für KI) den weltweit allerersten Rechtsrahmen im Bereich KI geschaffen. Dabei stehen insbesondere die Grundrechte des Menschen und ihr Schutz im Fokus. Ab Februar sind bestimmte KI-Praktiken strikt untersagt, da sie im Widerspruch zu den Werten der EU stehen. Darunter fällt beispielsweise das sogenannte „Social Scoring“ und die Emotionserkennung am Arbeitsplatz. Und auch die biometrische Fernidentifikation ist im Visier der Verordnung, die diesbezüglich strenge einschränkende Vorgaben enthält und einer flächendeckenden Überwachung damit vorbeugt.
Gibt es eine deutsche Instanz oder Regeln, die den Verbraucher und seine Daten schützen?
Tobias Klingelhöfer: Das Verbraucherschutzrecht verpflichtet zur Transparenz und verbietet Irreführung beim Umgang mit KI. Verbraucher müssen wissen, wenn sie mit einer KI interagieren, und über deren Funktionsweise informiert werden. So gilt beispielsweise eine Kennzeichnungspflicht für KI-generierte Inhalte wie Texte oder Deepfakes, bei denen die KI realistisch wirkende Videos oder Audios erstellt, die Personen manipulieren oder imitieren.
Da für das Training einer KI oft viele Daten benötigt werden, entstehen Konflikte mit Datenschutzregelungen, etwa der Datenschutz-Grundverordnung (https://www.arag.de/gewerbeversicherung/datenschutz-im-unternehmen/) (DSGVO) in der EU, die den Schutz personenbezogener Daten vorschreibt. Die Herausforderungen hier werden sein, die Anonymisierung, Zweckbindung, Zustimmung der Nutzer und das Recht auf Löschung von Daten zu garantieren. Ich gebe ein Beispiel: Gesichtserkennungstechnologien erheben biometrische Daten, die als besonders schützenswert gelten. Auch bei automatisierten Entscheidungen greift der Datenschutz. Denn Artikel 22 DSGVO regelt, dass Einzelpersonen nicht ausschließlich durch automatisierte Prozesse, die rechtliche oder ähnlich schwerwiegende Auswirkungen haben, beurteilt werden dürfen.
Und was ist zum Beispiel, wenn man mit KI etwas erfindet? Können von KI-Systemen geschaffene Dinge einen Patentschutz erhalten?
Tobias Klingelhöfer: Nein, als Erfinder im herkömmlichen Sinne können nur natürliche Personen benannt werden. Das hat auch der Bundesgerichtshof klargestellt: Eine Maschine kann ohne menschliches Handeln noch nichts erfinden. Selbst wenn eine Erfindung durch eine KI generiert wurde, muss eine natürliche Person beim Patentamt benannt werden. In einem konkreten Fall ging es um einen besonderen Lebensmittel- bzw. Getränkebehälter, den eine KI erfunden hatte (Az.: X ZB 5/22). Ein weiterer Fall, der international diskutiert wurde, ist die KI „DABUS“, die zwei Innovationen entwickelte. Gerichte in Europa und den USA entschieden, dass nur Menschen als Erfinder eingetragen werden können. In Australien und Südafrika hingegen wurde DABUS als Erfinder akzeptiert. Als Idee steht im Raum, dass KI-generierte Erfindungen denjenigen gehören könnten, die die KI programmiert oder die Nutzung gelenkt haben. Die Rechtslage ist jedoch noch oft unklar und hängt von Vertragsregelungen ab.
Was ist mit KI-gestalteten Bildern, Musik oder Texten?
Tobias Klingelhöfer: Aktuell sind solche Werke nicht urheberrechtlich geschützt. Nach deutschem und europäischem Recht setzt der Urheberrechtsschutz (https://www.arag.de/rechtsschutzversicherung/internet-rechtsschutz/urheberrechtsverletzung-abmahnung/) menschliche Schöpfung voraus. Dies führt zu Unsicherheiten, wenn KI-Modelle wie ChatGPT oder DALL-E Inhalte erstellen. Oft werden KI-Modelle mit bestehenden Werken trainiert, die urheberrechtlich geschützt sind. Dies wirft dann Fragen zu Lizenzierungen und Rechtsverletzungen auf. Eine EU-Regelung erlaubt die Nutzung urheberrechtlich geschützter Werke unter der Ausnahme des „Text- und Data-Mining“, also der automatischen Analyse großer Datenmengen, solange diese Daten zugänglich sind. Allerdings können Rechteinhaber das Mining ausschließen. Eine weitere interessante Frage stellt sich, wenn Mensch und KI gemeinsam Inhalte schaffen. Hier könnten neue Rechtsgrundlagen erforderlich werden, um eine sogenannte Miturheberschaft klar zu regeln.
Und was ist, wenn die KI dem Verbraucher ein tolles Reiseangebot vorschlägt? Kann man das dann direkt buchen und mit der KI einen Vertrag abschließen?
Tobias Klingelhöfer: Das Vertragsrecht regelt, wer für was verantwortlich ist, wenn der Vertrag oder die Ware mangel- oder fehlerhaft ist. Wenn KI-Systeme nun selbstständig Verträge abschließen oder verhandeln, entstehen Fragen zur Rechtswirksamkeit solcher Verträge und zur Haftung bei Vertragsbruch, weil ja nicht klar ist, wer haftet.
Apropos Haftung: Was ist eigentlich, wenn KI-Systeme Fehler machen oder sogar Straftaten mit KI begangen werden?
Tobias Klingelhöfer: Klassische Haftungsmodelle stoßen bei der KI an ihre Grenzen, da oft nicht klar ist, ob der Entwickler, Betreiber oder Nutzer für Schäden verantwortlich ist. Wenn beispielsweise ein autonomes Fahrzeug einen Unfall verursacht – wer trägt da dann die Verantwortung? Ideen der EU dazu sind sogenannte KI-spezifische Haftungssysteme und Vorschläge wie ein „KI-Haftungsrahmen“. Sie zielen darauf ab, klare Regeln für die Beweislast und Haftungsrisiken zu schaffen.
Eine ähnliche Fragestellung gibt es auch beim Strafrecht. Was ist, wenn eine KI als Werkzeug oder Täter benutzt und zur Begehung von Straftaten eingesetzt wird, etwa bei Deepfake-Betrug, Cyberangriffen oder automatisierten Phishing-Attacken (https://www.arag.de/rechtsschutzversicherung/internet-rechtsschutz/phishing-email-identitaetsdiebstahl/). Wer trägt dann die strafrechtliche Verantwortung, wenn ein KI-System manipuliert wird und Schaden verursacht?
Da KI auch in der Medizin angewandt wird, wie zum Beispiel mit Diagnosesystemen oder robotergestützter Chirurgie, muss zukünftig ebenfalls geklärt werden, wer haftet, wenn ein KI-gestütztes Diagnosetool eine Fehldiagnose stellt.
Wie verhält es sich mit KI in der Arbeitswelt?
Tobias Klingelhöfer: Bei der Bewerberauswahl oder der Mitarbeiterüberwachung wird KI bereits auch im Personalwesen eingesetzt, was zu datenschutz- und arbeitsrechtlichen Fragen führt. Kann ein Arbeitnehmer gegen diskriminierende oder fehlerhafte Entscheidungen einer KI vorgehen? Wie transparent müssen diese Systeme sein? Dürfen Arbeitgeber KI für Überwachungszwecke nutzen? Darüber hinaus könnte KI auch eine Art Vermittler für kurzfristige Jobs in der sogenannten „Gig-Economy“ werden. In der Gig-Economy arbeiten Menschen meist auf Abruf und übernehmen kleine Aufträge oder Projekte, anstatt feste Arbeitsverträge zu haben. Beispiele sind Fahrdienste, Essenslieferungen oder freie Tätigkeiten wie Grafikdesign. Hier steht vor allem zur Diskussion, ob Arbeiter besser geschützt werden müssen, da auf den Plattformen, die solche Jobs vermitteln, Algorithmen festgelegt werden können. Diese entscheiden dann, wer wann und welche Aufgaben bekommt. Das kann zu Unfairness führen und die Arbeitsbedingungen der Menschen beeinflussen.
In welchem Rechtsbereich sehen Sie auch noch Handlungsbedarf?
Tobias Klingelhöfer: Ebenfalls sollten Gesetzgeber und Gerichte im Wettbewerbs- und Kartellrecht Regularien aufstellen, um marktbeherrschende Positionen durch KI zu verhindern. Große Technologieunternehmen mit fortschrittlichen KI-Systemen könnten Wettbewerbsvorteile haben. Dadurch wird der Marktzugang für kleinere Akteure erschwert. Algorithmen könnten Monopole stärken, unfaire Praktiken fördern oder Preisabsprachen erleichtern, ohne dass Menschen direkt beteiligt sind. Für Verbraucher ist das besonders relevant, da ein eingeschränkter Wettbewerb oft zu weniger Auswahl und höheren Preisen führt.
Weitere interessante Informationen unter:
https://www.arag.de/versicherungs-ratgeber/
Sie wollen mehr von den ARAG Experten lesen? Schauen Sie hier:
https://www.arag.com/de/newsroom/
Die ARAG ist das größte Familienunternehmen in der deutschen Assekuranz und versteht sich als vielseitiger Qualitätsversicherer. Sie ist der weltweit größte Rechtsschutzversicherer. Aktiv in insgesamt 19 Ländern – inklusive den USA, Kanada und Australien – nimmt die ARAG über ihre internationalen Niederlassungen, Gesellschaften und Beteiligungen in vielen internationalen Märkten mit ihren Rechtsschutzversicherungen und Rechtsdienstleistungen eine führende Position ein. Ihren Kunden in Deutschland bietet die ARAG neben ihrem Schwerpunkt im Rechtsschutzgeschäft auch eigene einzigartige, bedarfsorientierte Produkte und Services in den Bereichen Komposit und Gesundheit. Mit mehr als 5.000 Mitarbeitenden erwirtschaftet der Konzern ein Umsatz- und Beitragsvolumen von über 2,4 Milliarden Euro.
ARAG SE ARAG Platz 1 40472 Düsseldorf Aufsichtsratsvorsitzender: Dr. Dr. h. c. Paul-Otto Faßbender,
Vorstand Dr. Renko Dirksen (Sprecher), Dr. Matthias Maslaton, Wolfgang Mathmann, Dr. Shiva Meyer, Hanno Petersen, Dr. Joerg Schwarze
Sitz und Registergericht Düsseldorf HRB 66846 USt-ID-Nr.: DE 119 355 995
Firmenkontakt
ARAG SE
Jennifer Kallweit
ARAG Platz 1
40472 Düsseldorf
+49 211 963-3115
www.ARAG.de
Pressekontakt
Klaarkiming Kommunikation
Claudia Wenski
Steinberg 4
24229 Dänischenhagen
+49 4349 – 22 80 26
www.ARAG.de
Die Bildrechte liegen bei dem Verfasser der Mitteilung.