Blog Posts
Haftung von Einzelhändlern und KI-Anwendungen
November 2025
Die Frage, ob der Nutzer (Verbraucher) oder der Anbieter einer KI-Anwendung für die Verletzung von Rechten des geistigen Eigentums durch die Nutzung einer Anwendung künstlicher Intelligenz haftet, ist eine interessante und für Einzelhändler zunehmend relevante Frage, da diese immer mehr KI-Anwendungen einführen. Die jüngste Entscheidung Getty Images vs. Stability AI vom 4. November 2025 hat etwas mehr Licht auf dieses schwierige Thema geworfen.
Haftung von Vermittlern: eine alte Geschichte
Die Frage nach dem Grad der Haftung von Vermittlern in der Einzelhandelsliefer- und Werbekette ist nicht neu. Wie in der Entscheidung Getty Images vs. Stability AI erwähnt, hat der Gerichtshof der Europäischen Union („EuGH“) Urteile in Bezug auf die Haftung von Suchmaschinenplattformen wie Google in Bezug auf Keyword-Werbung in den bekannten Fällen Google France SARL und Google Inc. v Louis Vuitton Malletier SA (C-236/08), in Bezug auf die Lagerung und den Versand von Waren in Coty Germany GmbH v Amazon Services Europe Sàrl und andere (C‑567/18) und in Bezug auf die Nutzung von Marken durch Drittanbieter in Daimler AG v Együd Garage Gépjárműjavító és Értékesítő Kft. (Rechtssache C‑179/15) gefällt. In all diesen Fällen wurde der Vermittler nicht für die Markenverletzung haftbar gemacht, im Wesentlichen aufgrund der Einrede des fehlenden aktiven Wissens über eine rechtsverletzende Handlung und der Tatsache, dass die Plattformen/Parteien im Wesentlichen nicht aktiv an der rechtsverletzenden Handlung beteiligt waren. Im Wesentlichen wurde entschieden, dass die Parteien die betreffenden Marken nicht im geschäftlichen Verkehr benutzen, was eine wesentliche Voraussetzung für die Feststellung einer Markenverletzung ist.
Nun kommen wir zur KI
Nun kommen wir zu der Frage der Haftung von KI-Anwendungen, die ein neues Phänomen ist, das es zu berücksichtigen gilt. Stability AI versuchte, die in den Fällen Google France, Coty und Daimler dargelegte Argumentation im Fall Getty zu verwenden, und argumentierte, dass es der Nutzer und nur der Nutzer seiner KI-Plattformen sei, der die potenzielle Ausgabe von rechtsverletzenden Bildern kontrolliere, die von ihnen über die Eingabeaufforderungen erstellt wurden, die der Nutzer (Verbraucher) in die KI-Anwendungen eingab. Stability AI argumentierte im Wesentlichen, dass es nicht haftbar sei; es sei lediglich ein Werkzeug und keine aktive Partei an einer rechtsverletzenden Handlung. Hier prüfte das Gericht die Frage der Markenverletzung aufgrund der Herstellung der Marken GETTY IMAGES und ISTOCK in Bildern, die von Stability AI-Anwendungen erzeugt wurden. In diesem Punkt hat Stability AI verloren.
Der Anwalt von Stability AI argumentierte im Kreuzverhör mit einem Zeugen:
„Das Modell ist ein Werkzeug, das vom Benutzer gesteuert wird, und je detaillierter die Eingabeaufforderung ist, desto mehr Kontrolle wird ausgeübt.“
Als Antwort antwortete der Zeuge:
„Das ist teilweise richtig. Der Benutzer hat die Kontrolle darüber, was abgefragt wird. Der Benutzer hat jedoch keine Kontrolle darüber, womit das Modell trainiert wird. Darüber haben wir keine Kontrolle. Der Benutzer hat keine Kontrolle über semantische Leitplanken, die an der Eingabeaufforderung angebracht werden könnten, und über semantische Leitplanken, die wir an der Ausgabe anbringen. Der Benutzer hat absolut die Kontrolle darüber, wonach er gefragt hat, aber er hat keine 100-prozentige Kontrolle darüber, was am anderen Ende herauskommt.“
Stability AI hat diesen Punkt verloren, weil (a) es die Daten kontrollierte, mit denen seine KI-Anwendungen trainiert wurden, und (b) zumindest im Fall Getty der Richter von der Tatsache beeinflusst zu sein schien, dass die meisten Benutzer nicht wollten, dass die Marken GETTY IMAGES oder ISTOCK auf ihren ausgegebenen Bildern erscheinen, so dass argumentiert werden konnte, dass sie aktiv nicht versuchten, rechtsverletzende Bilder zu produzieren.
Nun kommen wir zur Haftung der Einzelhändler und Nutzer
Der oben zitierte Austausch zwischen Stability AI und dem Zeugen verdeutlicht für mich einige der wichtigsten Fragen der Haftung von KI-Anwendungen. Ein zentrales Thema scheint die Kontrolle zu sein. Es scheint, dass die Haftung nicht auf den Nutzer abgewälzt werden kann, wenn der Nutzer keine absolute Kontrolle über die Ausgabe der KI-Anwendung hat. Detaillierte Eingabeaufforderungen, die zu rechtsverletzenden Handlungen auffordern, wie z. B. die Suche nach gefälschten Produkten, könnten es wahrscheinlicher machen, dass die Haftung auf den Nutzer abgewälzt werden kann. Da ein Nutzer jedoch selten die vollständige Kontrolle über die Ausgaben einer KI-Anwendung hat, ist dies schließlich der Sinn einer KI-Anwendung.
Es scheint, dass sich Einzelhändler möglicherweise stärker auf die Eindämmung von Aktivitäten zur Bekämpfung von Rechtsverletzungen über ihre KI-Anwendung konzentrieren sollten, als zu versuchen, die Verantwortung auf den Nutzer abzuwälzen. Hier müssen wir also Leitplanken berücksichtigen. Es ist interessant festzustellen, dass Stability AI eine sogenannte „Filterfunktion“ eingerichtet hatte, damit die Anwendungen keine fotorealistischen Abbilder bekannter Persönlichkeiten wiedergeben, die hinzugefügt wurden, um Bedenken hinsichtlich gefälschter Nachrichten und Propaganda zu bekämpfen. Die Eingabeaufforderungen wurden nach Namen von Prominenten gescannt. Es war sich also zumindest des Potenzials einiger besorgniserregender Aktivitäten über seine KI-Modelle bewusst.
Was sind also die praktischen Erkenntnisse für einen Einzelhändler mit einer KI-Anwendung? Damit ein Einzelhändler eine Haftung so gut wie möglich vermeidet und in den Rahmen der Argumentation der Fälle Google France, Coty und Daimler fällt, muss er meiner Meinung nach:
- Die Trainingsdaten der KI-Anwendung überprüfen, um rechtsverletzendes Material zu vermeiden.
- Leitplanken in die KI-Anwendung einbauen, um Benutzer von rechtsverletzenden Aktivitäten abzuhalten.
- Verfahren zur Entfernung von rechtsverletzenden Inhalten einrichten, um rechtsverletzende Aktivitäten zu entfernen, wenn diese zur Kenntnis gebracht werden.
Das Obige würde den Einzelhändler so weit wie möglich in die Gruppe der inaktiven Ermöglicher des Handels drängen, ähnlich wie eine Keyword-Werbeplattform wie Google, nicht als aktiver Teilnehmer an einer rechtsverletzenden Aktivität. Schließlich betrafen die Fälle Google, Coty und Daimler alle eine angeblich rechtsverletzende Aktivität, aber diese Parteien waren mit ihren Einreden erfolgreich, weil sie als nicht aktiv an einer solchen Aktivität angesehen wurden.
Was der Fall Getty v Stability AI jedoch deutlich zu machen scheint, ist, dass, sobald die KI-Anwendung als Verwendung des rechtsverletzenden Zeichens im geschäftlichen Verkehr angesehen wird, die Haftung beim Eigentümer/Kontrolleur der KI-Anwendung liegt, und das könnte in Zukunft ein Einzelhändler sein.
Dieser Artikel wurde von Partner und Markenanwalt Lee Curtis verfasst




