Update: KI-Verbot für die Nachahmung von Stimmen? – Erstes Urteil in China gefällt

PrintMailRate-it
​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​veröffentlicht am 21. Mai 2024 | Lesedauer ca. 3 Minuten
Anfang April haben wir über den ELVIS-Act im US-Bundesstaat Tennessee, ein Gesetz zur Regulierung von KI-Stimmen, berichtet. Zwei Wochen später hat das Internet­gericht in Peking ein erstes Urteil zur Persönlichkeitsrechtsverletzung durch KI-generierte Stimmen gefällt. Das Gericht stellte fest, dass die Verwendung von KI-Stimmen, die Stimmen natürlicher Personen nachahmen, rechtswidrig sein kann. Wir erläutern den Inhalt des Urteils und prüfen die Rechtslage in Deutschland.

​Nutzung von KI-generierter Stimmen in China

Im Fall des Internetgerichts in Peking hatte eine Synchronsprecherin geklagt, deren Stimme durch ein auf Künstlicher Intelligenz (KI) basiertes Tool benutzt wurde, um zahlreiche Hörbücher im Internet mit ihrer Stimme zu versehen . Hintergrund dessen war, dass ein Medienunternehmen, das die Rechte an Tonaufnahmen der Synchronsprecherin innehielt, ein KI-Softwareunternehmen damit beauftragt hatte, mit Hilfe dieser Aufnahmen eine KI-Anwendung zu trainieren. Dies geschah ohne Kenntnis und Zustimmung der Synchronsprecherin. Als diese von der KI-generierten Stimme erfuhr, verklagte sie sowohl das Medienunternehmen als auch das K​I-Softwareunternehmen auf Schadensersatz für ihre wirtschaftlichen Verluste und ihren immateriellen Schaden.
  
Es ist der erste Fall seiner Art, der in China entschieden wurde. In § 1023 des chinesischen Zivilgesetzbuches (ZGB) wird das Recht auf die eigene Stimme als Recht am eigenen Bildnis als Persönlichkeitsrecht geschützt. Nach dem Gericht in Peking kann die Stimme einer natürlichen Person durch ihren Klang, ihren Ton und ihre Frequenz unterschieden werden. Die Stimme sei einzigartig und beständig und könne den Charakter und das Aussehen einer Person zeigen, indem sie Gedanken oder Emotionen hervorrufe oder verursache.
  
Künstlich erzeugte Stimmen könnten mit natürlichen Stimmen in Verbindung gebracht werden, auch wenn nach der Synthese geringfügige Abweichungen entstünden. KI-Stimmen könnten gerade dazu verwendet werden, eine natürliche Person anhand ihrer Klangfarbe, ihrer Wahrnehmung und ihres Tons zu identifizieren. Wenn dies geschehe, werde der Zuhörer die (künstlich erzeugte) Tonaufnahme mit der natürlichen Person verbinden und als die ihre Stimme identifizieren. Zusätzlich könnten bestimmte Gedanken oder Emotionen hervorgerufen werden. Deshalb müsse die betroffene natürliche Person diese Verwendung ihrer Stimme erlauben bzw. sie verbieten können.
  
Da die Beklagten für diese Verwendung nicht die erforderlichen Genehmigungen der Klägerin hatten, verurteilte das Gericht sie als gemeinsam Verantwortliche zu einer Entschädigungszahlung in Höhe von insgesamt 50.000 Yuan (32.000 Euro oder 34.500 US-Dollar). Bei der Bemessung des Schadensersatzes wurden die Rechtsverstöße, der tatsächliche Marktpreis der Tonaufnahme und die Anzahl der auf demselben Markt abgespielten Tonaufnahmen berücksichtigt. Außerdem wurden die Beklagten verpflichtet, sich innerhalb von sieben Tagen bei der Klägerin zu entschuldigen.
  

And again: Schutz vor „Stimmen-Klau“ in Deutschland?

Nach dieser chinesischen Rechtsprechung ist die eigene Stimme ein Teil der Persönlichkeit, durch den wir identifiziert werden können und der uns charakterisiert. Das Urteil weckt die Frage, was deutsche Gerichte in einem vergleichbaren Fall entscheiden würden.
  
In unserem letzten Beitrag zum Schutz vor KI-Stimmen-Generatoren in Deutschland haben wir bereits erklärt, dass die Stimme auch in Deutschland vom allgemeinen Persönlichkeitsrecht umfasst ist. Dieses ist ein durch Artikel 1 Absatz 1 und Artikel 2 Absatz 1 Grundgesetz (GG) verfassungsmäßig garantiertes Grundrecht und zugleich zivilrechtlich nach § 823 Bürgerliches Gesetzbuch (BGB) geschützt.
  
Nach dem Bundesgerichtshof (BGH) dienen das allgemeine Pers​önlichkeitsrecht und seine besonderen Erscheinungsformen in erster Linie dem Schutz ideeller Interessen, insbesondere dem Schutz des Wert- und Achtungsanspruchs der Persönlichkeit. Aber auch die vermögenswerten Interessen werden vom Persönlich­keitsrecht umfasst. Dies ist im Hinblick darauf wichtig, dass der Stimme ein beträchtlicher wirtschaftlicher Wert zukommen kann (BGH, Urt. v. 1.12.1999, Az. I ZR 49/97).​
  
Wird die Stimme einer natürlichen Person ohne deren Erlaubnis verwendet, um eine KI-Stimme zu generieren, die diese Stimme nachahmt, kann sich die betroffene Person gerichtlich dagegen wehren und Unterlassungs- und Schadensersatzansprüche geltend machen, wie dies auch in China der Fall ist. Letztere können sowohl auf den Ersatz materieller als auch auf den Ersatz immaterieller Schäden gerichtet sein. Die deutsche Rechtslage ist mit der chinesischen durchaus vergleichbar. Hätte ein deutsches Gericht den geschilderten Fall entscheiden müssen, wäre es wahrscheinlich zu einem ähnlichen Ergebnis gekommen. 
  
Wie hoch etwaige Schadensersatzpflichten in Deutschland ausfallen, bleibt allerdings abzuwarten. Dennoch kann das chinesische Urteil als „Warnschuss“ für deutsche Unternehmen angesehen werden, die KI-Stimmen generieren möchten. Soll die KI mit vorhandenen Tonaufnahmen trainiert werden, ist unbedingt die Erlaubnis der zu der Stimme gehörigen Person einzuholen.
  
Dass diese Rechtslage begrüßenswert ist, zeigt uns das eindrucksvolle Beispiel von Synchron- und Hörbuch­sprechern und auch Künstlern wie Sängern oder Schauspielern. Ihre Tätigkeit zeichnet sich gerade durch den einzigartigen Klang ihrer Stimme und oftmals auch deren Wiedererkennbarkeit aus. Dürfte KI zur Nachahmung ihrer Stimmen ohne ihre Erlaubnis und Beteiligung verwendet werden, könnte ihnen in Zukunft ein wesentlicher Teil ihrer Erwerbsmöglichkeiten genommen werden.
  
Doch dieses Problem betrifft nicht nur Personen, deren Stimme offensichtlich einen wichtigen Teil ihrer Tätigkeit ausmachen. Auch für Geschäftsführer, Vorstände oder andere Personen in wichtigen (Unterneh​­mens-)Positionen sowie für Personen der Öffentlichkeit (z. B. Politiker) kann der „Stimmenklau“ eine ernsthafte Bedrohung darstellen. Durch KI können nicht nur E-Mail-Adressen oder Unterschriften missbraucht oder gefälscht werden sondern auch Stimmen. So können Fake-Anrufe oder Fake-Sprachnachrichten erstellt werden, die Anweisungen der vermeintlich dazugehörigen Person enthalten, tatsächlich aber gar nicht von dieser stammen.
​  
Das chinesische Urteil und die vergleichbare deutsche Rechtslage zeigen uns erfreulicherweise, dass dies nicht rechtens ist. Dennoch ist Vorsicht geboten bei Sprachnachrichten und Anrufen, die wichtige Informationen oder Anweisungen enthalten, wie etwa die Bitte der Überweisung eines Geldbetrages an ein unbekanntes Konto.

Kontakt

Contact Person Picture

Dr. Laura Münster

Rechtsanwältin

Associate

+49 221 9499 09682

Anfrage senden

Contact Person Picture

Dr. Susanne Grimm

Rechtsanwältin, Fachanwältin für Gewerblichen Rechtschutz

Associate Partner

+49 711 7819 144 10

Anfrage senden

Profil

 MEHR LESEN?

 ​
Deutschland Weltweit Search Menu