< Zurück zu den aktuellen Neuigkeiten & Events

Blog Posts

Haftung von Einzelhändlern und KI-Anwendungen

November 2025

Die Frage, ob der Nutzer (Verbraucher) oder der Anbieter einer KI-Anwendung für die Verletzung von Rechten des geistigen Eigentums durch die Nutzung einer Anwendung künstlicher Intelligenz haftet, ist eine interessante und für Einzelhändler zunehmend relevante Frage, da diese immer mehr KI-Anwendungen einführen. Die jüngste Entscheidung Getty Images vs. Stability AI vom 4. November 2025 hat etwas mehr Licht auf dieses schwierige Thema geworfen.

Haftung von Vermittlern: eine alte Geschichte

Die Frage nach dem Grad der Haftung von Vermittlern in der Einzelhandelsliefer- und Werbekette ist nicht neu. Wie in der Entscheidung Getty Images vs. Stability AI erwähnt, hat der Gerichtshof der Europäischen Union („EuGH“) Urteile in Bezug auf die Haftung von Suchmaschinenplattformen wie Google in Bezug auf Keyword-Werbung in den bekannten Fällen Google France SARL und Google Inc. v Louis Vuitton Malletier SA (C-236/08), in Bezug auf die Lagerung und den Versand von Waren in Coty Germany GmbH v Amazon Services Europe Sàrl und andere (C‑567/18) und in Bezug auf die Nutzung von Marken durch Drittanbieter in Daimler AG v Együd Garage Gépjárműjavító és Értékesítő Kft. (Rechtssache C‑179/15) gefällt. In all diesen Fällen wurde der Vermittler nicht für die Markenverletzung haftbar gemacht, im Wesentlichen aufgrund der Einrede des fehlenden aktiven Wissens über eine rechtsverletzende Handlung und der Tatsache, dass die Plattformen/Parteien im Wesentlichen nicht aktiv an der rechtsverletzenden Handlung beteiligt waren. Im Wesentlichen wurde entschieden, dass die Parteien die betreffenden Marken nicht im geschäftlichen Verkehr benutzen, was eine wesentliche Voraussetzung für die Feststellung einer Markenverletzung ist.

Nun kommen wir zur KI

Nun kommen wir zu der Frage der Haftung von KI-Anwendungen, die ein neues Phänomen ist, das es zu berücksichtigen gilt. Stability AI versuchte, die in den Fällen Google France, Coty und Daimler dargelegte Argumentation im Fall Getty zu verwenden, und argumentierte, dass es der Nutzer und nur der Nutzer seiner KI-Plattformen sei, der die potenzielle Ausgabe von rechtsverletzenden Bildern kontrolliere, die von ihnen über die Eingabeaufforderungen erstellt wurden, die der Nutzer (Verbraucher) in die KI-Anwendungen eingab. Stability AI argumentierte im Wesentlichen, dass es nicht haftbar sei; es sei lediglich ein Werkzeug und keine aktive Partei an einer rechtsverletzenden Handlung. Hier prüfte das Gericht die Frage der Markenverletzung aufgrund der Herstellung der Marken GETTY IMAGES und ISTOCK in Bildern, die von Stability AI-Anwendungen erzeugt wurden. In diesem Punkt hat Stability AI verloren.

Der Anwalt von Stability AI argumentierte im Kreuzverhör mit einem Zeugen:

„Das Modell ist ein Werkzeug, das vom Benutzer gesteuert wird, und je detaillierter die Eingabeaufforderung ist, desto mehr Kontrolle wird ausgeübt.“

Als Antwort antwortete der Zeuge:

„Das ist teilweise richtig. Der Benutzer hat die Kontrolle darüber, was abgefragt wird. Der Benutzer hat jedoch keine Kontrolle darüber, womit das Modell trainiert wird. Darüber haben wir keine Kontrolle. Der Benutzer hat keine Kontrolle über semantische Leitplanken, die an der Eingabeaufforderung angebracht werden könnten, und über semantische Leitplanken, die wir an der Ausgabe anbringen. Der Benutzer hat absolut die Kontrolle darüber, wonach er gefragt hat, aber er hat keine 100-prozentige Kontrolle darüber, was am anderen Ende herauskommt.“

Stability AI hat diesen Punkt verloren, weil (a) es die Daten kontrollierte, mit denen seine KI-Anwendungen trainiert wurden, und (b) zumindest im Fall Getty der Richter von der Tatsache beeinflusst zu sein schien, dass die meisten Benutzer nicht wollten, dass die Marken GETTY IMAGES oder ISTOCK auf ihren ausgegebenen Bildern erscheinen, so dass argumentiert werden konnte, dass sie aktiv nicht versuchten, rechtsverletzende Bilder zu produzieren.

Nun kommen wir zur Haftung der Einzelhändler und Nutzer

Der oben zitierte Austausch zwischen Stability AI und dem Zeugen verdeutlicht für mich einige der wichtigsten Fragen der Haftung von KI-Anwendungen. Ein zentrales Thema scheint die Kontrolle zu sein. Es scheint, dass die Haftung nicht auf den Nutzer abgewälzt werden kann, wenn der Nutzer keine absolute Kontrolle über die Ausgabe der KI-Anwendung hat. Detaillierte Eingabeaufforderungen, die zu rechtsverletzenden Handlungen auffordern, wie z. B. die Suche nach gefälschten Produkten, könnten es wahrscheinlicher machen, dass die Haftung auf den Nutzer abgewälzt werden kann. Da ein Nutzer jedoch selten die vollständige Kontrolle über die Ausgaben einer KI-Anwendung hat, ist dies schließlich der Sinn einer KI-Anwendung.

Es scheint, dass sich Einzelhändler möglicherweise stärker auf die Eindämmung von Aktivitäten zur Bekämpfung von Rechtsverletzungen über ihre KI-Anwendung konzentrieren sollten, als zu versuchen, die Verantwortung auf den Nutzer abzuwälzen. Hier müssen wir also Leitplanken berücksichtigen. Es ist interessant festzustellen, dass Stability AI eine sogenannte „Filterfunktion“ eingerichtet hatte, damit die Anwendungen keine fotorealistischen Abbilder bekannter Persönlichkeiten wiedergeben, die hinzugefügt wurden, um Bedenken hinsichtlich gefälschter Nachrichten und Propaganda zu bekämpfen. Die Eingabeaufforderungen wurden nach Namen von Prominenten gescannt. Es war sich also zumindest des Potenzials einiger besorgniserregender Aktivitäten über seine KI-Modelle bewusst.

Was sind also die praktischen Erkenntnisse für einen Einzelhändler mit einer KI-Anwendung? Damit ein Einzelhändler eine Haftung so gut wie möglich vermeidet und in den Rahmen der Argumentation der Fälle Google France, Coty und Daimler fällt, muss er meiner Meinung nach:

  • Die Trainingsdaten der KI-Anwendung überprüfen, um rechtsverletzendes Material zu vermeiden.
  • Leitplanken in die KI-Anwendung einbauen, um Benutzer von rechtsverletzenden Aktivitäten abzuhalten.
  • Verfahren zur Entfernung von rechtsverletzenden Inhalten einrichten, um rechtsverletzende Aktivitäten zu entfernen, wenn diese zur Kenntnis gebracht werden.

Das Obige würde den Einzelhändler so weit wie möglich in die Gruppe der inaktiven Ermöglicher des Handels drängen, ähnlich wie eine Keyword-Werbeplattform wie Google, nicht als aktiver Teilnehmer an einer rechtsverletzenden Aktivität. Schließlich betrafen die Fälle Google, Coty und Daimler alle eine angeblich rechtsverletzende Aktivität, aber diese Parteien waren mit ihren Einreden erfolgreich, weil sie als nicht aktiv an einer solchen Aktivität angesehen wurden.

Was der Fall Getty v Stability AI jedoch deutlich zu machen scheint, ist, dass, sobald die KI-Anwendung als Verwendung des rechtsverletzenden Zeichens im geschäftlichen Verkehr angesehen wird, die Haftung beim Eigentümer/Kontrolleur der KI-Anwendung liegt, und das könnte in Zukunft ein Einzelhändler sein.


Dieser Artikel wurde von Partner und Markenanwalt Lee Curtis verfasst

Aktuelle Neuigkeiten

Eine neue Ära für KI-Patente im Vereinigten Königreich: Der Oberste Gerichtshof schließt sich der EPO an

Der Oberste Gerichtshof des Vereinigten Königreichs hat sein lang erwartetes Urteil in der Rechtssache Emotional Perception AI Limited (EPAI) gegen Comptroller General of Patents gefällt – eine Entscheidung, die die …

Weiterlesen

The Antibody Series #5 | Epitop-definierte Antikörperansprüche: Wenn „bindet an dieses Epitop” zu einem Risiko der Unzulänglichkeit wird

          Die Beschwerdekammern des EPA (BoA) sind die Berufungsinstanz, die Entscheidungen des EPA überprüft; in diesem Fall haben sie eine Beschwerde in einem Einspruchsverfahren nach der …

Weiterlesen

The Deity Shoes case: a question of design activity and the constraints on a designer’s freedom

The footwear brand Deity Shoes sought to enforce their Community Design rights, both registered and unregistered, against Mundorama Confort and Stay Design. However, Mundorama Confort and Stay Design found fault …

Weiterlesen

WTR 2026

Wir freuen uns, Ihnen mitteilen zu können, dass das europäische Markenteam von HGF erneut in den Rankings der World Trade Mark Review (WTR) 2026 ausgezeichnet wurde und in mehreren Ländern …

Weiterlesen

The Antibody Series #4 | pH‑Werte in Antikörperansprüchen – wenn „gleicher pH‑Wert“ zur unzulässigen Erweiterung wird

          Die Beschwerdekammern des EPA (BoA) sind die Berufungsinstanz, die Entscheidungen des EPA überprüft. In diesem Fall befassten sie sich mit einer Entscheidung zur Widerrufung eines …

Weiterlesen

The Antibody Series #3 | Codenamen von Antikörpern in Ansprüchen: Warum „ACZ885” nicht ausreicht, um den Antikörper zu definieren

          Die Beschwerdekammern des EPA (BoA) sind die Berufungsinstanz, die Entscheidungen des EPA überprüft. In diesem Fall prüften sie einen Anspruch, der einen Antikörper anhand eines …

Weiterlesen

The Antibody Series #2 | Definition anhand der Bindungsstärke in Antikörperansprüchen: Wenn „binds strongly … but only minimally …“ zu einer Falle mangelnder Klarheit wird.

            Die Definition eines Antikörpers anhand seiner Bindungsstärke ist in Patentansprüchen gängige Praxis, kann jedoch im Hinblick auf Artikel 84 EPÜ zur Klarheit schnell zu …

Weiterlesen

The Antibody Series #1 | Qualitätsmerkmale (CQAs) in Antikörperansprüchen: Wenn die Testmethode aus dem Anspruch herausgenommen werden kann

            Therapeutische Antikörper stehen im Mittelpunkt der Innovationen in der Biotechnologie und im Gesundheitswesen. Angesichts steigender regulatorischer Anforderungen und Qualitätserwartungen werden kritische Qualitätsmerkmale (CQAs) bei …

Weiterlesen