Anzeige
Anzeige
Anzeige
Anzeige
News
Verpasse keine News mehr!

Anthropic gewinnt Verfahren: KI-Training mit urheberrechtlich geschützten Büchern zulässig

Ein US-Bezirksgericht hat geurteilt, dass Claude-Betreiber Anthropic mit seinem KI-Buch-Training nicht die Urheberrechte der klagenden Autor:innen verletzt hat. Allerdings könnte sich das Unternehmen dennoch strafbar gemacht haben.

2 Min.
Artikel merken
Anzeige
Anzeige
Anthropic durfte KI-Chatbot Claude mit Büchern „füttern“. (Bild: gguy/Shutterstock)

Im August 2024 hatten die drei Autor:innen Andrea Bartz, Charles Graeber und Kirk Wallace Johnson vor dem US-Bezirksgericht in Nordkalifornien Klage gegen Anthropic eingereicht. Der Vorwurf: Das Unternehmen habe sein KI-System Claude mit Buchinhalten trainiert – und damit das Urheberrecht verletzt.

Anzeige
Anzeige

KI-Training verletzt Urheberrecht nicht

Der zuständige Richter William Alsup wies die Klage allerdings in diesem Punkt ab, wie CNBC schreibt. Mit seinem KI-Training habe Anthropic nicht das Urheberrecht der klagenden Autor:innen verletzt, weil die KI die darin enthaltenen kreativen Elemente oder den besonderen Sprachstil nicht einfach reproduziere.

Vielmehr sei der hinter der Verwendung urheberrechtlich geschützter Werke zum KI-Training steckende Zweck „grundlegend transformativ“. Große Sprachmodelle (LLM) wie die KI-Systeme, auf denen Anthropics KI-Chatbot Claude basiert, sollten mit den Inhalten vielmehr statistische Zusammenhänge zwischen Textfragmenten erlernen.

Anzeige
Anzeige

Bedeutender Sieg für KI-Unternehmen

Vor diesem Hintergrund ist die Entscheidung als bedeutender Sieg für KI-Firmen wie Anthropic zu werten. Der Richter habe damit für die Zukunft rechtliche Grenzen und Möglichkeiten für die gesamte Branche festgelegt, wie es bei CNBC heißt. In ähnlichen anhängigen Verfahren könnten sich beklagte KI-Firmen darauf berufen.

Entsprechend zufrieden zeigte sich Anthropic in einer ersten Stellungnahme mit dem Urteil. Die Entscheidung sei „vereinbar mit dem Zweck des Urheberrechts, Kreativität zu ermöglichen und wissenschaftlichen Fortschritt zu fördern“, so das Unternehmen.

Bartz, Graeber und Johnson hatten in ihrer Klage gegen Anthropic behauptet, das Unternehmen habe sich durch den „Diebstahl Hunderttausender urheberrechtlich geschützter Bücher ein Milliardengeschäft“ aufgebaut. Die Kläger:innen hätten laut Gericht aber nicht versucht, Anthropic zu unterstellen, dass Claude den Originalen ähnliche Ausgaben erzeuge.

Bücher gekauft und digitalisiert

Anthropic hatte Bücher als Printversionen gekauft, die Inhalte gescannt und die Bücher anschließend vernichtet, wie The Decoder berichtet. Die entstandenen PDF-Dateien seien in einer internen, durchsuchbaren Bibliothek gespeichert worden. Also alles von der Fair-Use-Klausel gedeckt, wie der Richter meinte.

Anzeige
Anzeige

In einem speziellen, ebenfalls verhandelten Fall droht Anthropic aber noch Ungemach. Denn in den Jahren 2021 und 2022 soll das Unternehmen über sieben Millionen digitale Bücher von Piraterie-Seiten heruntergeladen haben. Diese aus illegalen Quellen besorgten Inhalte seie dauerhaft gespeichert worden – darunter auch Werke der Kläger:innen.

Raubkopien nicht durch Fair Use gedeckt

Zwar sollen die Dateien nicht für das KI-Training verwendet worden sein. Der Aufbau einer digitalen Bibliothek mit Raubkopien falle aber nicht unter Fair Use. In diesem Fall gebe es auch keine Ausnahme im Urheberrecht für KI-Unternehmen.

So arbeitet Deepseek – und das macht es anders als andere KI-Modelle Quelle: (Grafik: Dall-E / t3n)

Diese Urheberrechtsverletzung soll jetzt gesondert verhandelt werden. Dass Anthropic später ein Exemplar eines zuvor gestohlenen Buches gekauft habe, entbinde das Unternehmen nicht von der Haftung für den Diebstahl, so Richter Alsup. Es könne aber die Höhe des Schadensersatzes beeinflussen.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren