Mit dem Aufstieg generativer KI scheint es ein Problem mit verschwimmenden Grenzen zwischen Originalinhalten und reproduzierten Inhalten zu geben, das eine wirtschaftliche Bedrohung für kreative Fachleute darstellt. Diese Kontroverse ist besonders relevant, wenn es um das Training von KI-Modellen wie ChatGPT oder Claude geht, bei dem umfangreiche Datensätze genutzt werden, um den Modellen das Lernen und Generieren neuer Inhalte zu ermöglichen. Anthropic stand längere Zeit in der Kritik, seine Claude-KI-Modelle mit urheberrechtlich geschütztem Material zu trainieren, doch scheint sich der Fall nun zugunsten von Anthropic zu entwickeln, da ein Richter kürzlich entschied, dass die Methode des KI-Trainings unter das Prinzip des fairen Gebrauchs nach US-amerikanischem Urheberrecht fällt.
Anthropic gewinnt im KI-Urheberrechtsfall, da ein Richter kürzlich entschied, dass die Trainingsmethode für seine KI-Modelle unter fairen Gebrauch fällt
Anthropic hat sich rechtlich zur Wehr gesetzt und sah sich Vorwürfen ausgesetzt, urheberrechtlich geschützte Bücher zur Schulung seines Claude-KI-Modells verwendet zu haben. Der US-Bundesrichter William Alsup vom Northern District of California fällte jedoch am 24. Juni 2025 ein bedeutendes Urteil zugunsten von Anthropic, in dem ausdrücklich festgehalten wurde, dass die Nutzung legal erworbener und digitalisierter Bücher zur Schulung des Claude-KI-Modells als fairer Gebrauch unter dem US-amerikanischen Urheberrecht gilt. Der Richter betonte, dass das Umwandeln von Text in KI-Wissen und nicht das Kopieren oder Weiterverbreiten den Kriterien des fairen Gebrauchs entspricht.
Während Alsup feststellte, dass die Verwendung rechtmäßig erworbener urheberrechtlich geschützter Inhalte zur Schulung generativer KI-Modelle kein Kopieren darstellt und die klare Unterscheidung zwischen beiden markierte, hielt der Richter Anthropic jedoch für die Nutzung von raubkopierten Büchern von Seiten wie Book3 und LibGen verantwortlich und zeigte wenig Toleranz für illegale Datenbeschaffung, selbst wenn die Absicht dahinter transformativ ist.
Richter Alsup hielt weiter fest, dass ein separates Verfahren für die Nutzung von raubkopierten Inhalten durch Anthropic und zur Festlegung der zu zahlenden Schadensersatzansprüche abgehalten werden soll. Alsup stellte fest:
Diese Anordnung bezweifelt, dass ein angeklagter Verletzer jemals seiner Pflicht nachkommen könnte, zu erklären, warum das Herunterladen von Quellkopien von Piratenseiten, die er hätte kaufen oder auf andere Weise rechtmäßig zugreifen können, selbst vernünftigerweise notwendig für einen späteren fairen Gebrauch war.
Indem der Fall zweigeteilt wurde, ließ das Gericht den Autoren die Möglichkeit, ein separates Piraterieverfahren gegen Anthropic anzustreben. Dies ist ein bedeutender Wendepunkt für die zukünftige Entwicklung von KI und deren Trainingsmethoden. Durch das Urteil, dass das Training mit legal erworbenen Büchern unter fairen Gebrauch fällt, der Erwerb von Daten durch Piraterie jedoch nicht gerechtfertigt werden kann, setzt der Richter einen starken Präzedenzfall für Technologieunternehmen und zukünftige KI-Fälle.