Künstliche Intelligenz in der Musik: Gefürchtet, verharmlost, verteufelt (Teil 2)

Markus Deisenberger geht in Teil 2 der Serie über KI in der Musik der Frage nach, warum sich das Urheberrecht durch KI wie eine Prise Salz im digitalen Datenmeer aufzulösen droht, analysiert Chancen und Möglichkeiten für den Bildungsbereich und stellt dringende Fragen nach Transparenz, Fairness und Vielfalt bei der Entwicklung und Nutzung von KI.

Markus Deisenberger Markus Deisenberger
Veröffentlichung
Lesezeit
13 Minuten
Artikel anhören
Loading the Elevenlabs Text to Speech AudioNative Player...

Künstliche Intelligenz verändert die Berufswelt, auch die von Musikschaffenden. Aber was haben Musikschaffende von KI zu befürchten? Wird KI ihre Werke verwenden, ohne dafür zahlen zu müssen? Wird KI sie gar ersetzen, ihre Kunst entwerten? Und: Was passiert mit Werken, die mittels KI erstellt wurden? Genießen sie urheberrechtlichen Schutz? Der Versuch einer Annäherung an ein komplexes Phänomen, das alle Musikschaffenden in den kommenden Jahren intensiv beschäftigen wird.

Viele Applikationen denkbar

Jemand, der über den Status quo von KI bestens Bescheid weiß, ist Emilia Gómez. Sie ist Pianistin, KI-Expertin und forscht an der Schwelle zwischen Machine Learning und Musik. Vor fünf Jahren hat sie sich dem Joint Research Center – das ist ein Inhouse Scientific Service der europäischen Kommission – angeschlossen und ein Team aufgebaut, das sich mit Algorithmen auseinandersetzt, die auf künstlicher Intelligenz basieren, und welchen Einfluss diese auf unsere kognitive, soziale und emotionale Entwicklung und unser Leben haben.

Sie und ihr Team setzen etwa die Europäische Kommission davon in Kenntnis, was der technische Status quo in puncto KI ist, und „es gibt viel, was es da erst einmal zu verstehen gilt“. Danach wird evaluiert und eventuell reguliert. Gómez’ Job sind die ersten beiden dieser drei Bereiche. Sie muss Kommission und Rat die wissenschaftliche Seite näherbringen, für Verständnis sorgen und evaluieren, um so die Grundlage für etwaigen gesetzlichen Regulierungsbedarf zu schaffen.

Gómez ist der Technologie gegenüber grundsätzlich positiv eingestellt: „Gerade in der Musik bringt sie Musiker:innen und Komponist:innen unzählige Möglichkeiten“, sagt sie. „Die Komposition mit Computern hat eine lange Tradition, die durch die neue Technologie auf eine neue Stufe gehoben wird.“ Im „Phenicx“-Projekt etwa, an dem sie federführend beteiligt war, wurden diese Systeme benutzt, um Empfehlungen in sehr komplexer Musik auszusprechen: symphonischer Musik. „Diese Systeme können die Musik analysieren und dir Dinge erklären, dich Schritt für Schritt an neue Musik heranführen, sie dir erklären, damit du sie in all ihrer Komplexität verstehen kannst.“ Mannigfaltige Applikationen für den Bildungsbereich seien daher denkbar.

Fairness, Transparenz und Vertrauen

Aber Gómez, die auch maßgeblich im Bereich von Musik-Empfehlungssystemen forscht und selbst eine ganze Menge solcher Machine-Learning-Algorithmen programmiert hat, spricht auch einen ganz anderen Aspekt an: Denn bei diesen Systemen gehe es ihrer Ansicht nach nicht nur darum, ob sie funktionieren, „sondern auch, ob sie fair und transparent sind und ob man ihnen trauen kann.“ Denn was dabei auf der Strecke blieben kann, ist die Diversität, sagt sie. Wir erinnern uns an Zandis Kritik an der westlichen Konnotation der Programmierungsplattformen. Auch im Bereich der Empfehlungssysteme schlägt sich dieser offenkundige Mangel offenbar nieder und hat negative Auswirkungen. „Wenn dir immer die gleiche Musik vorgeschlagen wird, wirst du irgendwann sehr spezialisiert in diesem Genre sein, aber du verlierst den Blick auf das große Ganze.“ Die Sicht verengt sich. Die Diversität im Auge zu behalten, sei deshalb sehr wichtig. „Wenn diverser empfohlen wird, wirst du mehr verschiedene Stilrichtungen kennenlernen und deinen Musikgeschmack verbreitern. Und genau da müssen wir sehr behutsam sein, denn solche Empfehlungen können kurzfristige und langfristige Konsequenzen haben.“

Nun werden Empfehlungs-Algorithmen aber von Unternehmen wie Apple, Amazon und Spotify entwickelt und verwendet. Wie viel Interesse an Diversität kann man sich da erwarten?

Klar gebe es da widerstreitende Interessen, bestätigt Gómez. Die Notwendigkeit, eine bestimmte Musik im Radio zu spielen oder Geschäft mit einer bestimmten Musik zu machen. „Dem gegenüber gibt es das Bedürfnis der Konsument:innen nach möglichst maßgeschneiderter Empfehlung“, so Gómez. „In all diesen Empfehlungssystemen gibt es daher Empfehlungen, die auf dem Verhalten der User:innen beruhen und die Plattform-eigenen Business-Modelle, die in den Algorithmus eingebettet werden können. Aber an diese Informationen heranzukommen, ist aus unserer forschenden Perspektive unmöglich.“ Genau das ist ein Riesenproblem. Das sieht auch Siegfried Handschuh ähnlich. „Open AI“ sei deshalb ein lustiger Name, so der St. Gallener Professor, „weil an der Firma ja genau nichts offen ist.“ Ein bisschen werde verraten, man wisse aber nur ungefähr, welche Daten sie haben. Man dürfe die Daten nicht einsehen. Es gibt also keinerlei Transparenz, was die verarbeiteten Daten anbelangt.

Das ist natürlich auch Emilia Gómez bewusst. Es ist sozusagen ihr Tagesgeschäft. Trotzdem bleibt sie positiv angesichts der intransparenten Übermacht. Ihr Team sei zwar klein, sagt sie – im Moment sind am Joint Research Centre der Europäischen Kommission mit ihr gemeinsam fünfzehn Leute als Senior Researchers beschäftigt – aber es sei „breit aufgestellt und in vielen Netzwerken unterwegs.“ Die Forschung sei überhaupt kooperativ. „Wir arbeiten eng mit externen Search-Teams und dem European Network of AI Excellence Centres zusammen und tragen selbst zu Projekten bei, die breiter aufgestellt sind. Wir haben Partnerschaften mit Universitäten und wissenschaftlichen Zentren. Wir kooperieren und versuchen auch, von anderen Leuten zu lernen. Was man aber brauche, sei Zeit. „Wir müssen Zeit investieren, um beurteilen zu können, ob die Technologie auch sicher ist. Wie bei einem Auto: Da willst du auch nicht, dass der erstbeste Prototyp auf die Straße rausgeschickt wird. Du willst, dass er vorher ausreichend auf Sicherheit geprüft wurde. Und je schneller die Entwicklung fortschreitet, desto mehr gibt es zu evaluieren.“ In der Wissenschaftsgemeinschaft habe es lange nur die Regel gegeben: Performance, bessere Performance und noch bessere Performance! „Da fielen Begriffe wie Evaluierung, Fairness oder Transparenz so gut wie nie. Aber da hat ein Umdenken stattgefunden. Die Gemeinschaften verwenden mehr und mehr Zeit auf die Analyse.“

Licht und Schatten des „AI Acts“

Aber wie sieht es nun rechtlich aus? Muss ich mir als Urheber:in eines Musikstücks etwa gefallen lassen, dass KI ohne mich zu fragen meine Werke als Datensatz verwendet? Und wie wird ein Werk beurteilt, das ich mithilfe von KI erstellt habe? Genießt es Schutz?

Jeannette Gorzala arbeitet als auf KI spezialisierte Rechtsanwältin und ist im Vorstandsteam von AI Austria, einem unabhängigen Think Tank, dem es darum geht, den Wirtschaftsstandort Österreich im Bereich KI voranzubringen, d.h. die Voraussetzungen dafür zu schaffen, dass man hier ein gutes Umfeld für KI-Forschung und KI-Entwicklung hat, aber auch KI-Start-ups die Möglichkeiten haben, ihre Lösungen zu entwickeln und zum Florieren des Wirtschaftsstandortes beizutragen. Sie vertritt etwa Unternehmen im Personalbereich, aber auch im Bereich Finanzindustrie, also im Banken- und Versicherungswesen. Die rechtliche Situation, mit der sich diese konfrontiert sehen, beschreibt sie so: „In Europa haben wir 27 verschiedene Rechtsordnungen. Da ist unter Umständen punktuell gar nichts zur KI geregelt, was es aktuell schwierig macht. Jedes Mal, wenn man als Unternehmen die Grenze überschreitet, muss man sich mit einem gänzlich neuen Rechtsrahmen auseinandersetzen.“ Der von Gorzala beschriebenen, unbefriedigenden Situation soll nun der von der EU geplante „AI Act“ Abhilfe schaffen. Mit ihm will die EU künstliche Intelligenz über alle Bereiche hinweg regulieren und eine rechtliche Grundlage für die Entwicklung und den Einsatz von KI legen, um mögliche Schäden durch KI abzuwenden oder zu minimieren. Außerdem sollen mit dem „AI Act“ in der gesamten EU einheitliche Regeln für den KI-Markt eingeführt werden, damit die Technologie in der EU besser Fuß fassen kann.

Der Status quo der Bemühungen ist folgender: Der Entwurf der EU-Kommission zum „AI Act“ diente zunächst einmal als Verhandlungsgrundlage zwischen dem EU-Parlament und dem EU-Rat. Der Rat hat seine Version des „AI Acts“, die sogenannte allgemeine Ausrichtung, Ende 2022 schließlich angenommen. Im Juni 2023 verständigten sich die Mitglieder des EU-Parlaments dann auf eine „gemeinsame Position“. Die drei Institutionen haben danach die sogenannten „Trilog-Verhandlungen“ aufgenommen. Daraus soll bis Ende 2023 eine abschließende Fassung des Gesetzes hervorgehen. Ob das heuer noch gelingt, darf stark bezweifelt werden. Also: Ein Entwurf liegt vor. Aber: Nix ist fix. Und bevor dieser Act beschlossen wird, wird – wir erinnern uns an die schwere Geburt der EU-Urheberrechtsrichtlinie 2019 – noch jede Menge Lobbying betrieben werden. Denn die (US-amerikanischen) Tech-Konzerne werden ihre Investitionen mit allem, was ihnen zur Verfügung steht, zu verteidigen wissen.

Data-Mining-Freifahrtschein für KI?

Aber wie sieht es mit der Qualität des vorliegenden Entwurfes aus? Die wird sehr unterschiedlich beurteilt. Gómez etwa sieht in ihm, auch wenn das, wie sie beteuert, nicht ihr Gebiet sei, einen Schritt in die richtige Richtung. „In Europa haben wir eine große Tradition in Bezug auf Menschenrechte. Wir stellen den Menschen ins Zentrum, und mit dem ‚AI Act‘ ist eine große Diskussion entstanden. Der ‚AI Act‘ wird eine gute Auswirkung haben, weil er Plattformen dazu zwingt, über die Auswirkungen nachzudenken.“

Gernot Schödl, Geschäftsführer Verwertungsgesellschaft der Filmschaffenden (VdFS) und Vorstand der Initiative Urheberrecht, sieht das differenzierter. Während er die darin vorgesehene Offenlegungs- und Transparenzpflicht gegenüber den Konsument:innen gutheißt, kritisiert er, dass im Entwurf urheberrechtlich rein gar nichts drinstehe. Der Regelungsbedarf aber sei ein riesiger. Das Problem, das Schödl nun umreißt, entstand mit der Urheberrechtsrichtlinie 2019, in der eine Ausnahme von der grundsätzlichen Vergütungspflicht für Text- und Data-Mining vorgesehen wurde. Vereinfacht gesagt, ist die zum Zwecke des Text- und Data-Minings vorgenommene Vervielfältigung oder Entnahme von rechtmäßig zugänglichen Werken eine freie Nutzung. Erst in letzter Sekunde und als Kompromiss wurde damals in die Richtlinie eingefügt, dass auch kommerzielle Anbieter von dieser freien Werknutzung Gebrauch machen können.

Das Problem sei nun, so Schödl, dass manche glauben, dass sich KI bzw. KI-Betreiber:innen auf diese Data-Mining-Ausnahme berufen können. Die Konsequenzen wären weitreichend, denn die Nutzung von Werken durch KI wäre dann frei und unentgeltlich. Aber zu diesem Zeitpunkt, 2019 also, sei generative KI, sagt Schödl, noch gar kein Thema gewesen. Die freie Werknutzung für Text- und Data-Mining sollte nur für den wissenschaftlichen Bereich und für den Forschungsbetrieb gelten. Die Lösung, dass Rechteinhaber:innen auswählen können, dass die Maschine ihre Werke nicht einliest, sei für KI-Fälle unpraktikabel. „Aus Sicht der Rechteinhaber:innen ist es schwer herauszufinden, wenn ihre Werke gescannt, genutzt oder bearbeitet wurden, denn kein Mensch weiß, ob und wenn ja, wie und wie oft das Werk in der großen Wurstmaschine verwurstet wurde.“

Aber Urheber:innen und ausübende Künstler:innen müssen die Kontrolle behalten und gegebenenfalls die Verwendung ihrer Werke untersagen können bzw. eine angemessene Vergütung für die Nutzung im Wege einer Lizenzgebühr verlangen können. Eine freie, von der Bestimmung des Data-Minings umfasste Werknutzung würde aber, so Schödl, dem sogenannten „Dreistufentest“ nicht standhalten, denn jede freie Werknutzung hat dort ihre Grenze, wo erhebliche Interessen der Rechteinhaber:innen beeinträchtigt sind. Das wäre hier ganz klar der Fall. Der:die Rechteinhaber:in muss immer nachvollziehen können, ob, und wenn ja, wie sein:ihr Werk benutzt wurde und dann muss er:sie einen Anspruch durchsetzen können, so Schödl. Es dürfe keinen Missbrauch geben.

Eine von mir daraufhin durchgeführte Anfrage bei der EU-Kommission führt allerdings zu einer eher frustrierenden Antwort: „Newly created Text and Data Mining exceptions provided for in Articles 3 and 4 of the Directive (EU) 2019/790 on copyright and related rights in the Digital Single Market is the most relevant exception that could apply to AI“ [Die neu geschaffene Ausnahmeregelung für Text- und Data-Mining gemäß Artikel 3 und 4 der Richtlinie (EU) 2019/790 über Urheberrecht und verwandte Schutzrechte im digitalen Binnenmarkt ist die wichtigste Ausnahmeregelung, die für KI gelten könnte. Übersetzt mithilfe von KI und leicht abgeändert.], wird mir da beschieden. Die Data-Mining-Bestimmung könnte also auch auf KI Anwendung finden, so der lapidare Text. Die durch die Richtlinie aufgemachte Tür ist also trotz berechtigter Bedenken immer noch weit offen.

Jeannette Gorzala sieht das ähnlich wie Schödl. Es sei tatsächlich die Frage, ob man das Ausmaß generativer KI, das wir heute haben, damals bereits vor Augen hatte. Allenfalls die Tech-Industrie, die mit den Dingen gespielt hat, die Betroffenen hingegen, die von künftigen Entwicklungen keine Ahnung hatten, sicher nicht. Denn: „Wer hätte vor fünf Jahren gedacht, dass man eine Stimme schon 1:1 klonen kann, wenn man mich nur zehn Minuten lang beim Sprechen aufnimmt und dann ein Modell damit trainiert?“

Am Ende eine Kompensationsfrage?

Durch die Medien ging in den letzten Wochen ein Prozess, den US-amerikanische Schriftseller, allen voran der Bestseller-Autor Jonathan Franzen, gegen OpenAI angestrengt haben, um genau dagegen vorzugehen, dass nämlich ihre Werke ohne Berechtigung dem KI-System bereits einverleibt wurden. Und die Vermutung, dass es in der Musik bereits genauso gehandhabt wird, liegt nahe, denn wenn ich Chat GPT damit beauftrage, ein Stück im Stile von Nick Cave zu komponieren, dann werde ich sie vorher wohl mit Stücken von Nick Cave oder Ähnlichem gefüttert haben müssen – sonst ergäbe die Anfrage wenig Sinn.

Die Frage ist laut Gorzala also: „Wo haben diese Modelle all die Datenlage, mit der sie trainiert wurden, her?“ In den anhängigen Klagen wird genau das, der Vorwurf nämlich verhandelt, dass unbefugterweise urheberrechtlich geschütztes Material verwendet wurde, um diese Modelle zu trainieren. „Da gab es schon die ersten Schadenersatzklagen, vor allem im Bildbereich; und Ähnliches, vermute ich, wird es bald auch im Videobereich und im Audiobereich geben.“ Das Problem sei aber: „Die Dinge, die in diesen Systemen drinnen sind, kann man im Nachhinein nicht mehr rausnehmen.“ Wie Schödl gesagt hat: Ein Opting-out funktioniert hier nicht. Was ist die Konsequenz dessen? Heißt das, wenn KI-Modelle auf Grundlage einer bestimmten Datenlage unrechtmäßig trainiert wurden, hilft nur noch eine Lizenzierung? Die Berechtigten bzw. Geschädigten müssen entsprechend vergütet bzw. entschädigt werden? „Genau das“, sagt Gorzala. „Am Ende ist es eine Kompensationsfrage.“

Die Schwierigkeit aber liege in der Nachweisbarkeit: Diejenigen, deren Rechte verletzt wurden, müssen nachweisen, dass die Werke illegal verwendet wurden. Kompensiert werden kann nur im Wege des Schadenersatzes oder durch Lizenzierung. Dazu braucht es aber erst einmal entsprechende Transparenz. Die könnte durch den „AI Act“ der EU für den europäischen Bereich gesetzlich festgelegt werden. Aber eigentlich entsteht dadurch eine merkwürdige Schräglage, denn: Einem Label, das meine Aufnahme illegal auf Tonträger presst, kann ich das per einstweiliger Verfügung untersagen. Die Verwendung des Werkes kann also auf dem Rechtsweg untersagt werden. Aber im Falle einer unrechtmäßigen Nutzung durch KI ist das geschützte Werk – ob es nun ein Musikstück, eine vom Instrument gespielte Tonfolge, oder die eigene Stimme, das eigene Instrument sozusagen – wie eine Prise Salz im Daten-Meer aufgegangen. Ich kann die Verwendung nicht mehr untersagen, weil es technisch nicht möglich ist, die jeweiligen Daten wieder zu entnehmen bzw. unzumutbar ist, die Maschine ganz abzuschalten. Es bleibt nur die Kompensation.

Praktikable Transparenz

In puncto Transparenz sei die Idee laut Gorzala nun, dass man bei generativen KI-Modellen in einer zusammengefassten Form offenlegen muss, welche Daten beim Trainieren der KI verwendet wurden. „Wenn wir jetzt überlegen, was alles urheberrechtlich geschützt ist, dann haben wir Kompositionen, Gemälde, Skulpturen, Texte, Fotografien, Filme, Musik- und Tonaufnahmen etc. Was aber nicht umfasst wäre, ist die Stimme – die ist urheberrechtlich nicht geschützt. Da müsste man die Verpflichtung entsprechend erweitern.“ Dann sei die Frage, wie man das für alle Beteiligten praktikabel löst. „Wenn ich für eine Stimme, die ich verwendet habe, die URL eines YouTube-Videos reinhänge, wird das niemandem nützen. Da wird es also notwendig sein, die Industrien, die Sprecherverbände, die Künstler:innen einzubringen. Es braucht einen Nachweis, der auch wirklich ein Nachweis ist, eine praktikable Lösung.“

Neben der Transparenz, dem Urheber- und Persönlichkeitsrecht gibt es noch eine weitere rechtlich relevante Dimension: die zivilrechtliche nämlich. Gorzala schildert einen Fall, bei dem jemand in einem Vertrag mit einem großen Technologiekonzern die Rechte an seiner Stimme unbegrenzt und für alle Zwecke übertragen hatte. Die Stimme wurde dann verwendet, um ein synthetisiertes Produkt zu erzeugen. In der Kultur-, Media- und Entertainmentindustrie müsse man sich daher ab sofort genau anschauen, für welche Zwecke der:die Künstler:in die Rechte an seiner:ihrer Stimme überträgt.

Genau das hat auch Schauspielerin Nina Hoss in einem Interview als Grund genannt, weshalb sie den Streik der Drehbuchautor:innen in Hollywood unterstütze. Sie wolle nicht „eines Tages in einem dieser stapeldicken Verträge unter dem Kleingedruckten finden, dass mit der Rolle Gesicht und Körper verkauft werden – und dann in jeder Szene alles, was den Produzent:innen nicht gefällt, digital verändert werden kann.“ Was Hoss befürchtet, findet laut Gorzala also längst statt. Und das Gesagte ist 1:1 auf Musik übertragbar. Das bedeutet: Musiker:innen werden in Zukunft bei Rechteabtretungen besonders gut aufpassen müssen, ob die meist ohnehin schon zu weit gefassten Klauseln nicht auch die Verwendung für KI beinhalten.

Laut Schödl werde es schon bald zwei Versionen jedes Songs geben: ein Original und eine KI-Version. Den Meinungsschwenk der großen Labels, die sich zunächst mit einem klaren „Nein“ gegen die Verwendung von KI-Versionen aussprachen, um sich gleich darauf still und heimlich auf eine offenere Position zurückzuziehen, interpretiere er jedenfalls so. Dass er damit wohl richtig liegt, zeigt ein Blick in Richtung Streamingdienste und Amazon, die schon von KI-generierten Bots und Fake-Rezensionen geflutet werden. Der Nachteil für Musiker:innen liegt dabei auf der Hand: Abrechnungen, die aus Künstler:innensicht ohnehin schon marginal sind, werden künftig wohl noch bitterer, weil ein immer größer werdender Anteil auf KI-generierten, durch Fake-Bots hochgejazzten Content entfällt.


Dieser Artikel erschien erstmals auf mica - music information center austria am 4. Dezember 2023. Da das Thema Musik und KI für Sounding Future von besonderem Interesse ist, haben wir den Artikel im Rahmen einer Kooperation zwischen mica und Sounding Future hier nochmals veröffentlicht.

Markus Deisenberger

Markus Deisenberger, geboren 1971 in Salzburg, ist Jurist, freier Journalist, lebt und arbeitet in Salzburg und Wien. Er ist Chefredakteur eines Salzburger Stadt-Magazins und veröffentlicht regelmäßig in deutschen und österreichischen Zeitschriften. Darüber hinaus schreibt er Romane, zuletzt „Winter in Wien".