Künstliche Intelligenz: Eine rechtliche Herausforderung der Zukunft

PrintMailRate-it
veröffentlicht am 5. April 2023 | Lesedauer ca. 6 Minuten
Die rasante Entwicklung von künstlicher Intelligenz (KI) hat in den letzten Jahren zu enormen Fortschritten geführt und KIs zu einem wichtigen Instrument in vielen Branchen gemacht. Aktuell machen in der öffentlichen Wahrnehmung v.a. Chatbots wie ChatGPT von sich reden und bringen so KI in den Fokus der breiten Öffentlichkeit. Das spannende Feld der autonomen Entscheidungen durch Software und Algorithmen wirft rechtliche Fragen auf, die für Unternehmen von weitreichender Bedeutung sind. Dabei stellen sich neben den offensichtlichen Fragen bezüglich der Haftung für Schäden, die durch KI-Systeme verursacht werden können, auch eine Vielzahl von Fragen datenschutzrechtlicher, urheberrechtlicher oder gar arbeitsrechtlicher Natur.

 

Haftungsfragen

KI-Systeme können auf verschiedene Weise zu Schäden führen. Zum einen können sie Fehler bei der Verarbei­tung von Daten machen, die sich auf ihre autonomen Entscheidungsfindungen und die erstellten Ergebnisse durchschlagen. Zum anderen können sie durch Manipulation der Lerndaten oder des Lernprozesses Schäden verursachen. Schließlich können KI-Systeme bei der weiteren Umsetzung von Entscheidungen Schäden verur­sachen. In allen Fällen stellt sich die Frage, wer für den entstandenen Schaden verantwortlich ist.
 
Wenn es um die Haftung für Entscheidungen von KI-Systemen geht, stößt das etablierte Haftungssystem des gesetzlichen Deliktsrechts an seine Grenzen. Denn KI-Systeme treffen ihre Entscheidungen zwar auf der Grundlage von Daten und Algorithmen, die von Menschen erstellt wurden, aber sie treffen ihre Entscheidung autonom, also gerade ohne menschliche Einwirkung. In diesem Haftungssystem ist es für den zunächst beweis­belasteten Geschädigten oft schwierig oder gar unmöglich, die ihm zustehenden Ansprüche durchzuset­zen. Das fängt bereits bei der Benennung des richtigen Anspruchsgegners an und setzt sich über den Nachweis einer Sorgfaltspflichtverletzung bis hin zur Kausalität des erlittenen Schadens fort.  Es ist daher unerlässlich, klare Regeln für die Haftung für Entscheidungen von KI-Systemen zu treffen, um Rechtssicherheit zu schaffen.
 
Eine Möglichkeit, die Haftung für Schäden durch KI-Systeme zu regeln, ist den Hersteller des KI-Systems haftbar zu machen. Das entspricht dem Haftungsgrundsatz der Produkthaftung, also der Haftung des Herstel­lers oder Lieferanten für einen Schaden, der durch ein fehlerhaftes Produkt entsteht.
 
Sind an der Herstellung des KI-Systems allerding mehrere Parteien beteiligt, etwa weil mehrere Unternehmen gemeinsam das System entwickelt und implementiert haben, kann es schwierig werden, den verantwortlichen Hersteller eines KI-Systems zu identifizieren. So erscheint es unbillig den Hersteller für einen Fehler im System haften zu lassen, der nicht durch ihn, sondern durch falsches Training der KI beim Betreiber verursacht wurde. Die Gründe für Schäden durch KI-Systeme können also sehr vielfältig sein und erschweren oft eine klare Abgrenzung der Verantwortlichkeiten der Beteiligten.
 
Eine andere Möglichkeit besteht darin, den Benutzer des KI-Systems haftbar zu machen. Die Haftung für un­sachgemäße Verwendung von KI-Systemen kann dabei auf verschiedenen Ebenen auftreten.
 
Dabei ist zunächst an das fehlerhafte Anlernen des Systems durch den Benutzer zu denken. Daneben gibt es aber natürlich auch den Fall der Fehlentscheidung des KI-Systems. Als Beispiel sei auf die Verwendung von KI-Systemen in der medizinischen Diagnose verwiesen. Wenn ein Arzt ein KI-System verwendet, um eine Diagnose zu stellen, und das System falsche Ergebnisse liefert, könnte der Arzt für den daraus resultierenden Schaden haftbar sein.
 
Hier stellt sich die anschließende Frage, ob der Benutzer des KI-Systems überhaupt in der Lage ist, die mögli­chen Risiken und Schäden aus der Rückmeldung der KI zu erkennen und zu vermeiden. Das ist v.a. dann frag­lich, wenn der Benutzer des KI-Systems die Entscheidungen des Systems nicht vollständig verstehen oder kontrollieren kann, was bei komplexen KI-Entscheidungen in der Regel der Fall ist.
 
Es ist daher wichtig, dass Benutzer von KI-Systemen ausreichend geschult werden, und dass klare Richtlinien für die Verwendung von KI-Systemen in verschiedenen Branchen festgelegt werden, um die Haftungsfrage im Interesse aller Beteiligten rechtssicher zu regeln.

 

Neue Haftungsregeln für KI-Systeme

Nicht zuletzt, weil der fehlerhafte Einsatz von Systemen künstlicher Intelligenz schwerwiegende Folgen haben kann – man denke nur an Fehler beim autonomen Fahren – hat die Europäische Union verschiedene Gesetzes­vorhaben auf den Weg gebracht. Darunter den „Vorschlag für eine Verordnung zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz“ (sog. AI Act), den Richtlinienentwurf zur KI-Haftung (sog. AI Liability Directive) sowie eine Überarbeitung der Produkthaftungsrichtlinie.

 

Anders als der Name vermuten lässt, handelt es sich bei der Richtline zur KI-Haftung aber nicht um die Regelung von Haftungsansprüchen. Die Richtlinie fixiert vielmehr weitreichende Offenbarungspflichten für Beweismittel und etabliert ein System der Beweiserleichterung, um Anbieter und Betreiber von KI-Systemen mehr in die Pflicht zu nehmen.
 
Nach den Vorschlägen der EU-Kommission sollen zwei Regelungen im Deliktsrecht verankert werden, nach denen die Sorgfaltspflichtverletzung und die Kausalität für den Eintritt des Schadens vermutet werden. Ein Inkrafttreten dieser Richtlinie ist noch 2023 möglich. Deutschland hat dann 24 Monate Zeit, diese Richtlinie in nationales Recht umzusetzen.
 
Der AI Act hat ein anderes Regelungsziel. Er dient als Grundlage der Regulierung von künstlicher Intelligenz und soll die Entwicklung, das Inverkehrbringen und die Verwendung von KI-Systemen in der EU regeln. Dabei wird ein risikobasierter Ansatz verfolgt. KI-Systeme werden in vier Kategorien unterteilt. Je höher Kategorie ist, um so weitreichendere Regulierung erfährt das jeweilige KI-System. Der AI Act soll damit das Vertrauen der Gesellschaft in KI-Systeme stärken und gleichzeitig die technische Entwicklung von KI-Systemen nicht blo­ckieren. Auch hier ist mit einem Inkrafttreten der Verordnung noch 2023 zu rechnen
 

Anwendung von KI-Systemen im Unternehmensalltag

Nicht nur die Haftung für autonome Entscheidungen bei Hochrisiko-KI ist aktuell in der Diskussion. Auch die „einfachen“ Anwendungen wie beispielsweise das KI-Sprachmodell ChatGPT sind eine Herausforderung für Unternehmen. Neben den Vorteilen, die ein solcher Chatbot bieten kann – u.a. im Einsatz als Kunden- oder Benutzersupport, als Assistenz oder zur Informationsbeschaffung, bei der Datenanalyse oder beim Verfassen von Texten – müssen betriebsintern mehrere Dinge beim Einsatz solcher Systeme beachtet werden:
 

Fehleranfälligkeit von KIs

KIs erstellen ihre Ergebnisse aufgrund der Informationen, mit denen sie „gefüttert“ wurden. Ist die Datenlage unvollständig, nicht aktuell oder gar falsch, ist zwangsläufig auch das Ergebnis fehlerhaft. Damit besteht das latente Risiko einer fehlerhaften Beratung und deren Rechtsfolgen. Mitarbeiter sollten daher immer hinterfra­gen und prüfen, ob die Information, die die KI zur Verfügung stellt, korrekt ist.

 

Betriebsgeheimnisse, vertrauliche Informationen und Datenschutz

KIs sind selbstlernende Systeme. Durch Informationen, die man ihnen zur Verfügung stellt, verbessern sie ihre Leistung. Das heißt aber auch, dass Daten, die Mitarbeiter bei der Nutzung eines KI-Systems, wie einem Chat­bot offenlegen, von diesem zur Generierung von Ergebnissen für Dritte verwendet werden. Unternehmensdaten und -informationen können so schnell in falsche Hände gelangen. Hier gilt es also, Mitarbeiter dafür zu sensibi­lisieren, dass sie – wie auch im analogen Arbeitsleben – Betriebs- und Datenschutzgeheimnisse zu wahren haben. Darüber hinaus ist zu berücksichtigen, dass die Verarbeitung von personenbezogenen Daten über KI-Systeme einen weiteren datenschutzrechtlichen Aspekt hat, weil bei der Nutzung von KI-Systemen ein Daten­transfer auch außerhalb der EU bzw. des EWR erfolgen kann, der möglicherweise nicht datenschutzkonform ist. Unternehmen haften jedoch für solche Verstöße uneingeschränkt.


Urheberrecht und Quellenangabe

Besonders spannend im Zusammenhang mit dem Einsatz von solchen Bots und KI-Systemen ist indes die Frage nach den Urheberrechten, bzw. wie mit diesen umgegangen wird. Wem gehört beispielsweise ein von ChatGPT erstellter Text oder eine von einer KI komponierte Melodie oder ein erstelltes Gemälde? Nach dem deutschen Urheberrechtsgesetz bedarf ein schutzfähiges Werk einer persönlichen, vom menschlichen Willen getragene, geistige Schöpfung. Sind solche KI-Ergebnisse damit schutzlos und rechtefrei oder doch einem Urheberrechtsschutz zugänglich?
 
Dabei ist das nicht nur ein nationales Problem. Auch international scheint es hierzu keine klare Position zu geben. So erzielte im Oktober 2018 das von einer KI erstellte Gemälde „Portrait of Edmond de Belamy“ im Rahmen einer Auktion des britischen Auktionshauses Christie den stolzen Preis von 432.500 US-Dollar, während das US Copyright Office in einer Entscheidung aus Februar 2023 die Registrierung der Urheberrechte für ein computergeneriertes Bild auf Basis eines KI-Modells mangels menschlicher Schöpfung ablehnte.
 
Wenn durch einen Menschen auf den Lernprozess der KI oder ihr Ergebnis gestaltend Einfluss genommen werden kann, spricht einiges für einen urheberrechtlichen Schutz des KI-Ergebnisses. Damit ist also der Autonomiegrad des Lernverfahrens einer der entscheidenden Faktoren. Zudem könnten aber auch Dritte, die dem KI-System Input geben, am KI-Ergebnis Urheberrechte halten.
 
KI-Systeme benötigen große Datenmengen, um daraus zu lernen. An den Lerninhalten, die in der Lerndaten­bank des KI-Systems zusammengeführt werden, bestehen aber häufig auch Urheberrechte Dritter. Greift das System bei der Erstellung seines Ergebnisses hierauf zurück, könnten solche Rechte verletzt werden. Das führt zur der weitergehenden Frage, wie Urheberrechte Dritter beim Aufbau einer Datenbank für maschinelles Lernen gewahrt werden.
 
Auch die Frage der Quellenangabe, die beim Zitieren fremder Inhalte obligatorisch ist, ist von Bedeutung und deren Umsetzung aktuell noch ungeklärt.
 
Für den Nutzer mag all das nicht immer erkennbar sein. Aber auch die fehlende positive Kenntnis einer solchen Urheberrechtsverletzung durch die KI lässt die entsprechende Haftung des Unternehmens nicht entfallen.
 

Einsatz von KI zur Erfüllung der Arbeitsleistung

Ein kontrovers diskutiertes Thema ist der Einsatz von KI-Sprachmodellen für die eigene Arbeit der Mitarbeiter. Das kann eine Pflichtverletzung des Arbeitnehmers darstellen, beispielsweise wenn Aufgaben des Mitarbeiters vollständig vom KI-System erledigt werden, ohne dass der Arbeitgeber davon Kenntnis hat. Allein die Nutzung zur Hilfestellung wird aber voraussichtlich dann keine Konsequenzen für den Arbeitnehmer haben, wenn kein sonstiges Fehlverhalten hinzukommt, wie beispielsweise die Offenbarung von Betriebsgeheimnissen oder die unzulässige Verarbeitung personenbezogener Daten.
 

Fazit: Handlungsbedarf für Unternehmen

Unternehmen, die vermehrt auf den Einsatz von KI-Systemen, insbesondere KI-Sprachmodelle setzen möchten, sollten die Risiken prüfen und abwägen, ob und wie sie zum aktuellen Zeitpunkt ihren Mitarbeitern den Einsatz von KI-Sprachmodellen gestatten möchten. Dabei sollten den Mitarbeitern klare Vorgaben gemacht werden. Hierfür bieten sich interne Richtlinien an, wie sie schon aus anderen Bereichen im Unternehmen bekannt sind (z.B. IT-Richtlinie, Geheimnisschutz-Richtlinie oder Datenschutz-Richtlinie). Gleichzeitig sollten sie die oben dargestellte gesetzliche Entwicklung beobachten, um die zukünftige Nutzung rechtssicher zu gestalten.

Befehle des Menübands überspringen
Zum Hauptinhalt wechseln
Deutschland Weltweit Search Menu