Anthropic gewinnt Verfahren: KI-Training mit urheberrechtlich geschützten Büchern zulässig

Im August 2024 hatten die drei Autor:innen Andrea Bartz, Charles Graeber und Kirk Wallace Johnson vor dem US-Bezirksgericht in Nordkalifornien Klage gegen Anthropic eingereicht. Der Vorwurf: Das Unternehmen habe sein KI-System Claude mit Buchinhalten trainiert – und damit das Urheberrecht verletzt.
KI-Training verletzt Urheberrecht nicht
Der zuständige Richter William Alsup wies die Klage allerdings in diesem Punkt ab, wie CNBC schreibt. Mit seinem KI-Training habe Anthropic nicht das Urheberrecht der klagenden Autor:innen verletzt, weil die KI die darin enthaltenen kreativen Elemente oder den besonderen Sprachstil nicht einfach reproduziere.
Vielmehr sei der hinter der Verwendung urheberrechtlich geschützter Werke zum KI-Training steckende Zweck „grundlegend transformativ“. Große Sprachmodelle (LLM) wie die KI-Systeme, auf denen Anthropics KI-Chatbot Claude basiert, sollten mit den Inhalten vielmehr statistische Zusammenhänge zwischen Textfragmenten erlernen.
Bedeutender Sieg für KI-Unternehmen
Vor diesem Hintergrund ist die Entscheidung als bedeutender Sieg für KI-Firmen wie Anthropic zu werten. Der Richter habe damit für die Zukunft rechtliche Grenzen und Möglichkeiten für die gesamte Branche festgelegt, wie es bei CNBC heißt. In ähnlichen anhängigen Verfahren könnten sich beklagte KI-Firmen darauf berufen.
Entsprechend zufrieden zeigte sich Anthropic in einer ersten Stellungnahme mit dem Urteil. Die Entscheidung sei „vereinbar mit dem Zweck des Urheberrechts, Kreativität zu ermöglichen und wissenschaftlichen Fortschritt zu fördern“, so das Unternehmen.
Bartz, Graeber und Johnson hatten in ihrer Klage gegen Anthropic behauptet, das Unternehmen habe sich durch den „Diebstahl Hunderttausender urheberrechtlich geschützter Bücher ein Milliardengeschäft“ aufgebaut. Die Kläger:innen hätten laut Gericht aber nicht versucht, Anthropic zu unterstellen, dass Claude den Originalen ähnliche Ausgaben erzeuge.
Bücher gekauft und digitalisiert
Anthropic hatte Bücher als Printversionen gekauft, die Inhalte gescannt und die Bücher anschließend vernichtet, wie The Decoder berichtet. Die entstandenen PDF-Dateien seien in einer internen, durchsuchbaren Bibliothek gespeichert worden. Also alles von der Fair-Use-Klausel gedeckt, wie der Richter meinte.
In einem speziellen, ebenfalls verhandelten Fall droht Anthropic aber noch Ungemach. Denn in den Jahren 2021 und 2022 soll das Unternehmen über sieben Millionen digitale Bücher von Piraterie-Seiten heruntergeladen haben. Diese aus illegalen Quellen besorgten Inhalte seie dauerhaft gespeichert worden – darunter auch Werke der Kläger:innen.
Raubkopien nicht durch Fair Use gedeckt
Zwar sollen die Dateien nicht für das KI-Training verwendet worden sein. Der Aufbau einer digitalen Bibliothek mit Raubkopien falle aber nicht unter Fair Use. In diesem Fall gebe es auch keine Ausnahme im Urheberrecht für KI-Unternehmen.
Diese Urheberrechtsverletzung soll jetzt gesondert verhandelt werden. Dass Anthropic später ein Exemplar eines zuvor gestohlenen Buches gekauft habe, entbinde das Unternehmen nicht von der Haftung für den Diebstahl, so Richter Alsup. Es könne aber die Höhe des Schadensersatzes beeinflussen.