47 Minuten
Die Beziehung zwischen Computer und Komponist*in ist durch ein dichtes Netz kreativer Interaktionen gekennzeichnet, die sich nicht einfach auf eine hierarchische Reihenfolge von Anweisungen und Ausführung reduzieren lassen. Es besteht keine Notwendigkeit, sich auf ausgefeilte Algorithmen der künstlichen Intelligenz zu berufen, um die Rolle des Computers als einfaches Utensil zur Umsetzung kompositorischer Strategien zu behandeln. Die Wahl eines bestimmten Werkzeugs, aber auch die Arbeit innerhalb selbst auferlegter oder vorgegebener Beschränkungen, erzeugt an sich schon Nebeneffekte, die auf den Kompositionsprozess zurückwirken. Ganz allgemein gesagt: Kompositorische Perspektiven bedingen systematische Ansätze, die wiederum die Perspektiven weiter beeinflussen – und der Computer spielt in diesem Wechselspiel eine entscheidende Rolle. Dafür gibt es zahlreiche paradigmatische Beispiele, die sich als Dichotomien darstellen lassen: Zeitbasierte versus hierarchische Ansätze zur algorithmischen Komposition; wissensbasierte versus nicht-wissensbasierte Systeme zur musikalischen Analyse; sogar grafische versus textbasierte Computermusiksprachen, die jeweils unterschiedliche Ansätze im Kompositionsprozess bedingen.
Unabhängig davon, wie der Computer im kreativen Prozess eingesetzt wird, gibt es meist eine Gemeinsamkeit: Aus der erforderlichen algorithmischen Beschreibung entsteht ein vom Einzelfall abstrahiertes Modell und damit ein Metasystem zur Erzeugung oder Transformation einer ganzen Klasse von musikalischen Strukturen, seien es Klänge oder symbolische Daten.
Allein diese Eigenschaft der Abstraktion zeigt einen Unterschied zum traditionellen Kompositionsprozess: Komponist*innen haben es bei der Arbeit mit dem Computer nicht nur mit einer einzelnen musikalischen Instanz als Gegenüber zu tun, sondern mit einem System, mit dem er auf unterschiedliche Weise interagieren und über dessen Generierungen er reflektieren kann, wobei die eigenen kompositorische Prämissen und generierte Strukturen jederzeit hinterfragt und verändert werden können.
Wenn wir uns in den folgenden Abschnitten die verschiedenen Ansätze der kreativen Arbeit mit dem Computer genauer ansehen, wird auch deutlich, dass die Vielfalt der Verfahren und ästhetischen Implikationen zu einer unvermeidlichen Unschärfe bei der Abgrenzung von Kategorien führt. Als eine Form der kreativen Grenzüberschreitung kann diese Unbestimmtheit jedoch selbst zu einem entscheidenden und reizvollen Element des kompositorischen Prozesses werden.
Genesis
Im Jahr 1936 definierte Alan Mathison Turing Algorithmus und Berechenbarkeit als formale mathematische Begriffe, die auch in Gestalt der sogenannten Turing-Maschine formuliert wurde (Turing 1937). In der theoretischen Informatik erlaubt dieses Modell eines Automaten die Berechnung jedes beliebigen Algorithmus, vorausgesetzt, er ist überhaupt berechenbar. Die Turing-Maschine definiert eine Klasse von Funktionen, deren Verarbeitungsweise als Anregung für die Entwicklung moderner imperativer Programmiersprachen diente. Ein äquivalentes Modell für Berechenbarkeit wurde bereits 1932 von Alonzo Church entwickelt. Sein Lambda-Kalkül wurde wesentlich für die Entwicklung funktionaler Programmiersprachen. Schließlich lieferte John von Neumann 1945 mit dem „First draft of a report on the EDVAC“ (Neumann et al. 1945) einen konkreten Systementwurf für den Bau eines Computers zur (theoretisch) universellen Problemlösung. Dieser Artikel beinhaltet theoretische Überlegungen zur Konstruktion eines Digitalcomputers, die die Ideen von von Neumann, aber auch von J. Presper Eckert, John Mauchly und Herman Goldstine zusammenfassen.
Bereits 1942 entwickelte Konrad Zuse mit „Plankalkül“ einen ersten Entwurf für eine Programmierhochsprache, die sich am Lambda-Kalkül orientierte. Plankalkül enthielt bahnbrechende Konstrukte wie Zuweisungen, Funktionsaufrufe, bedingte Schleifen und zusammengesetzte Datentypen. Obwohl diese Programmiersprache damals aufgrund technischer Beschränkungen nicht realisiert werden konnte, wurde das Konzept im Jahr 2000 erfolgreich implementiert (Rojas et al. 2004).
Die ersten Programmiersprachen, die in einem musikalischen Kontext relevant wurden, entstanden in den 1950er Jahren in den Vereinigten Staaten. Im Jahr 1956 fand die erste „Dartmouth Conference“ zum Thema künstliche Intelligenz statt, eine neue Disziplin, deren Name von John McCarthy geprägt wurde, der auch als Autor von Lisp bekannt ist. Diese funktionale Programmiersprache wurde 1958 am MIT entwickelt und basiert ebenfalls auf dem Lambda-Kalkül. Ihr imperatives Gegenstück, Fortran, wurde bereits 1953 von John W. Backus konzipiert und im folgenden Jahr bei IBM realisiert.
Lisp wurde zu einer der wichtigsten Programmiersprachen der künstlichen Intelligenz und später, zusammen mit zahlreichen Dialekten, zu einer wichtigen Sprache für Systeme der algorithmischen Komposition. Dazu gehören „FORMES“ (Rodet und Cointe 1984), das „Crime environment“ (Assayag, Castellengo und Malherbe 1985) und „Patchwork“(Laurson 1996), das als Vorläufer von „OpenMusic" (Agon, Delerue und Rueda 1998) betrachtet werden kann. Während diese Systeme am IRCAM entwickelt wurden, begann Rick Taube 1989 während eines Aufenthalts in Stanford mit der Entwicklung von „Common Music“ (Taube 1991; Taube 2004), einer weiteren Lisp-basierten Programmierumgebung für algorithmische Komposition, die noch heute verwendet wird.1
Die Verwendung von Fortran für musikalische Anwendungen wurde vor allem von Iannis Xenakis2vorangetrieben, der 1961 in der Pariser IBM-Niederlassung Zugang zu einem IBM 7090 Computer erhielt. Mit seinem Fortran-basierten "Stochastic Music Program" realisierte er im folgenden Jahr die bekannten Stücke seiner "ST-Serie". 1963 schufen Lejaren Hiller und Robert Baker mit dem Fortran-basierten "MUSICOMP" (Music Simulator Interpreter for Compositional Procedures) die erste Software zur Simulation von musikalischen Kompositionsverfahren.
Die 1950er und frühen 1960er Jahre brachten neben der Entwicklung der ersten höheren Programmiersprachen auch eine Reihe von einflussreichen und bahnbrechenden Fortschritten in der Computermusik hervor. Während Edgard Varèse und Iannis Xenakis an ihren Kompositionen für den Philips-Pavillon auf der Brüsseler Weltausstellung (1958) arbeiteten, erschufen Lejaren Hiller und Leonard Isaacson 1957 die „Illiac Suite“ an der Universität von Illinois. Dieses Streichquartett gilt gemeinhin als die erste, von einem Computer erstellte algorithmische Komposition – allerdings wurde auch in diesem Jahr ein Computer in Harvard von Frederick Brooks eingesetzt wurde, um mit Hilfe von Markov-Modellen bis zur achten Ordnung Melodien von Kirchenliedern zu analysieren und zu synthetisieren (Brooks et al. 1957). Doch bereits 1956 wurden Markov Modelle für kompositorische Anwendungen von Richard Pinkerton in einem Artikel für Scientific American vorgeschlagen, implementiert in seiner software „banal tunemaker“ (Pinkerton 1956). Nach Hiller waren es vor allem Pierre Barbaud3 und Roger Blanchard, die ab 1959 in Frankreich ebenfalls computergestützte algorithmische Komposition entwickelten.
Mit seinem, in den Bell Laboratories entwickelten Programm, „Music I“ synthetisierte Max Mathews 1957 zum ersten Mal eine kurze Melodie mit einem Computer. In den folgenden Jahren entwickelte sich dieses Programm zu den so genannten „Music N“-Computermusiksprachen und führte zur Entwicklung von „Csound“ (1986) durch Barry Vercoe im elektronischen Studio des MIT. „Csound“ wiederum wurde zum Ausgangspunkt von Computermusiksprachen, die sowohl für die algorithmische Komposition als auch für die Klangverarbeitung und -synthese verwendet werden konnten. Dazu gehörten „MAX“, Ende der 1980er Jahre von Miller Puckette am IRCAM entwickelt, und in der Open-Source-Variante „Pure Data“ (1996), ebenfalls von Puckette, sowie „SuperCollider“ (1996) von James McCartney (McCartney 1996). Die Entwicklung wurde nicht nur durch neue Software vorangetrieben, sondern auch durch die Schaffung neuer Datenprotokolle (MIDI 1983, OSC 1997), sowie neuer Interfaces. Das Zusammenspiel dieser Faktoren, aber auch einfach die Entscheidung, den Computer als vollwertiges Medium in den Kompositionsprozess zu integrieren, führte zu einer Reihe von Seiteneffekten und weitreichenden Konsequenzen, die sich spürbar auf die kreative Arbeit auswirkten.
Sound und/oder Symbol
Bei der Verwendung von Computern im Kompositionsprozess wird üblicherweise zwischen der Erzeugung von Klang und der Erzeugung von Struktur unterschieden. Dies entspricht einerseits der Unterscheidung zwischen Klangtransformation und Klangbearbeitung, sowie andererseits der Erzeugung von symbolischen Werten, die als musikalische Parameter wie Tonhöhe, Lautstärke und Dauer interpretiert werden. Obwohl in diesem Kapitel die Algorithmen zur Erzeugung von Strukturen gegenüber jenen zur Klangerzeugung im Vordergrund stehen, sind die Grenzen zwischen den beiden Bereichen fließend. Die Verschmelzung dieser Pole findet sich in der prinzipiellen Architektur heutiger Computermusiksprachen, die sowohl für algorithmische Komposition als auch für Klangsynthese eingesetzt werden können. Darüber hinaus wird eine vereinheitlichende Perspektive in Bezug auf diese Zugänge schon wesentlich früher artikuliert:
Das erste prominente Beispiel findet sich bei Karlheinz Stockhausen in seinem Aufsatz „Wie die Zeit vergeht“ (Stockhausen 1956). Hier schlägt er eine neue musikalische Perspektive vor, in der die Bereiche Form, Rhythmus und Klangfarbe nahtlos ineinander überführt werden können. Diese Idee findet sich auch 1972 in seinem Vortrag „Die vier Kriterien der elektronischen Musik“.
Analoge Positionen finden sich aber auch bereits in einem Vortrag von John Cage aus dem Jahr 1937:
"Der Komponist (Organisator des Klangs) wird nicht nur mit dem gesamten Bereich des Klangs, sondern auch mit dem gesamten Bereich der Zeit konfrontiert sein. Der ‘Rahmen‘ oder Bruchteil einer Sekunde ... wird wahrscheinlich die Grundeinheit bei der Messung der Zeit sein. Kein Rhythmus wird außerhalb der Reichweite des Komponisten liegen." (frei übersetzt aus: Cage 1937, 5)
Für den zeitgenössischen Komponisten Horacio Vaggione wird der Unterschied zwischen Klang und Struktur fast obsolet:
"Ich gehe davon aus, dass es keinen Wesensunterschied zwischen Struktur- und Klangmaterialien gibt; wir haben es nur mit unterschiedlichen Arbeitsebenen zu tun, die mit unterschiedlichen Zeitskalen für die Komposition korrespondieren." (frei übersetzt aus: Roads 2015, 109)
Diesen Standpunkt vertritt auch Curtis Roads mit seinem Ansatz des „multiscaling“ bei dem sowohl Formbestandteile, als auch einzelne Klänge einer Komposition gestaltet werden können.
Komposition: Traditionell und computergestützt
Unabhängig von der Art und Weise, wie der Computer im Kompositionsprozess eingesetzt wird, hat allein dessen Verwendung eine Reihe von Auswirkungen, die zu interessanten Alternativen und Erweiterungen im Vergleich zu einer traditionellen Herangehensweise führen.
Im traditionellen Kompositionsprozess wird in der Regel eine symbolische Notation eines vorgestellten Klangergebnisses erstellt, die für ein einziges Werk bestimmt ist. Im Gegensatz dazu verwendet ein computergestützter Ansatz oft ein System von Rahmenbedingungen, um eine ganze Klasse möglicher Kompositionen zu erstellen, und innerhalb dieses Prozesses können einzelne Instanzen oft sofort hörbar gemacht werden. Natürlich ist dies eine Verallgemeinerung, da es auch im konventionellen Kontext möglich ist, z. B. aleatorische Partituren zu schreiben, die verschiedene Realisierungen zulassen, als auch computergestützte Komposition die Verwendung eines deterministischen Algorithmus zur Erzeugung einer festen musikalischen Struktur erlaubt.
Gestiegene Rechenleistung ermöglichte in weiterer Folge auch den Ansatz eines „trial-and error“, im Sinne eines unmittelbaren auditiven feedbacks zu den generierten Strukturen – eine Möglichkeit die neue ästhetische Ansätze im kompositorischen Prozess eröffnet. Andererseits kann auch das Komponieren mit traditionellen Mitteln auf auditivem Feedback beruhen, etwa beim Komponieren am Klavier, wofür Igor Strawinsky in seiner Autobiographie plädierte:
"Es ist tausendmal besser, in direktem Kontakt mit dem physischen Medium des Klangs zu komponieren, als in einem abstrakten Medium zu arbeiten, das von der eigenen Vorstellungskraft erzeugt wird." (frei übersetzt aus: Strawinsky 1936, 5)
Wenn der Computer zur Erzeugung von Klängen oder Symbolen verwendet wird, so geschieht dies meist im Rahmen einer Reihe von Regeln, die entweder vom Komponist*innen oder als Teil einer Standardklasse von Algorithmen definiert wurden. Im Gegensatz dazu wird die traditionelle Art des Komponierens eher eine Reihe von vorgegebenen Bedingungen (s.u.) bestimmt, wenn auch zusätzlich Regeln bewusst oder auch unbewusst angewendet werden können. Selbst wenn ein „regelfreier“, intuitiver kompositorischer Zugang gewählt wird, sind Komponist*innen dennoch mit verschiedenen Rahmenbedingungen konfrontiert, die die kompositorische Struktur bis zu einem gewissen Grad bestimmen, wie bspw. Einschränkungen in Bezug auf Dynamik, Tonhöhenbereich der unterschiedlichen Instrumente, als auch Freiheitsgrade einer gewählten Notationsform und vieles mehr. Abgesehen von diesen offensichtlichen Einschränkungen können derlei Rahmenbedingungen auch als verinnerlichte kompositorische Prämissen und Beschränkungen im traditionellen Rahmen verstanden werden. Eine überzeugende Definition dazu liefert Vaggione:
"Ich verwende den Ausdruck "constraint" im Sinne seiner Etymologie: Grenze, Bedingung, Zwang, und, im weiteren Sinne, als Definition der Freiheitsgrade, die ein Akteur in einer gegebenen Situation innerhalb selbst auferlegter Grenzen annimmt. In diesem weiteren Sinne sind die Beschränkungen des Komponisten spezifische Annahmen über musikalische Beziehungen: mehrstufige Annahmen, die in einigen Fällen in endliche berechenbare Funktionen (Algorithmen) übersetzt werden können, ..." (frei übersetzt aus: Vaggione 2001, 57)
Unabhängig davon, ob der Computer nun zur Generierung von „Stilimitationen“ oder eigener musikalischer Struktur genutzt wird, wird in jedem Fall ein Dialog initiiert, der zu mehreren Möglichkeiten der Interaktion (sowie zu Seiteneffekten) führt und sich hier stark von der traditionellen Arbeitsweise unterscheidet.
Analytische und generative Ansätze
Der Einsatz von Computern im musikalischen Kontext lässt sich grob in analytische und generative Ansätze einteilen, die sich in einer Reihe unterschiedlicher Disziplinen wie algorithmischer Komposition, Klangsynthese, Klanganalyse oder der Modellierung bestimmter Musikstile manifestieren.4 Dennoch sind analytische und generative Ansätze oft miteinander verknüpft, vor allem, wenn man mit Klassen von Algorithmen arbeitet, die beide Perspektiven zulassen, wie etwa generative Grammatiken (vgl. Laske 1974; Roads und Wieneke 1979; Steedman 1984; Hughes 1991; Chemellier 2004; Rohrmeier 2011) als auch Markov-Modelle (vgl. Chai und Vercoe 2001; Allen 2002; Allen und Williams 2005; Schulze und van der Merwe 2011). In diesen Fällen ergibt sich aus einer vorhergehenden Analyse der eigenen „notierten“ oder improvisierten Musik ein Regelwerk, das eine ganze Klasse von Kompositionen beschreibt, die per se „stilistische Kopien“ einer gemeinsamen Strukturidee darstellen. Ein Paradebeispiel für eine solche zweifache Anwendung ist die Computermusiksoftware „Bol Processor“. Sie basiert auf dem Formalismus generativer Grammatiken und wurde ursprünglich in den 1980er Jahren für die Analyse von Tabla-Musik entwickelt (Kippen und Bel 1989) und etablierte sich später als System für algorithmische Komposition (Bel 1998).
Unabhängig davon, ob Resynthese durch Analyse oder ein „rein“ generativer Ansatz gewählt wird, lassen sich zwei grundsätzliche Zugangsmodi unterscheiden. Der wissensbasierte Modus erfordert problemspezifisches Wissen über die jeweilige musikalische Domäne, wie bspw. harmonische Rahmenbedingungen oder Stimmführungsregeln. Im nicht-wissensbasierten Modus wird hingegen ein Regelsystem z.B. autonom und allein auf der Basis von Musikbeispielen erstellt.
Der erste Ansatz umfasst all jene Strategien, die darauf abzielen, musikalische Strukturen durch ein regelbasiertes System, welcher Art auch immer, zu erzeugen. Im Prinzip kann der Output des Systems in dieser Kategorie weitgehend vorhergesagt werden, und der Computer wird in erster Linie zur Automatisierung und Beschleunigung von Prozessen eingesetzt, die theoretisch auch mit Bleistift und Papier durchgeführt werden könnten. Beispiele für diesen Ansatz sind alle Arten von Systemen, bei denen das Wissen über den musikalischen Bereich in Form von Regeln und Einschränkungen ausgedrückt wird, die dann auf stochastische oder deterministische Weise angewandt werden, um entweder musikalische Strukturen zu erzeugen oder „Stilkopien“ durch Resynthese zu generieren. Neben einer Reihe üblicher Techniken algorithmische Komposition lassen sich auch viele historische Beispiele dieser Kategorie zuordnen, wie die bereits erwähnten musikalischen Würfelspiele, als auch Aspekte der Zwölftontechnik und des Serialismus, die sowohl eine manuelle als auch eine computergestützte Berechnung ermöglichen.
Der zweite Ansatz umfasst all jene Strategien, bei denen zum einen musikalisches Material autonom produziert wird, das strukturell einem zugrunde liegenden Korpus ähnelt. Dazu gehören Markov-Modelle, Verfahren der grammatikalischen Inferenz (vgl. Kohonen 1987; Kohonen 1989; Pachet 1999) oder Transitionsnetze, wie die von David Cope, der mit seinem System „EMI“ (Experiments in Musical Intelligence) Kompositionen im Stil verschiedener Genres erzeugt (vgl. Cope 1987; Cope 2001; Cope 2014). Andererseits können einige nicht wissensbasierte Systeme, wie genetische Algorithmen, ohne einen zugrundegelegten Korpus arbeiten und auch unerwartete Ergebnisse produzieren (vgl. Horner und Goldberg 1991; Biles 1994; Papadopoulos und Wiggins 1998; Gartland-Jones und Copley 2003; Nierhaus 2015, 165-187).
Ein interessanter Vergleich zwischen Algorithmen dieser beiden Kategorien wird von Phon-Amnuaisuk und Geraint Wiggins angestellt, die die Effektivität eines regelbasierten Systems im Vergleich zu der eines genetischen Algorithmus anhand des Szenarios der automatischen Harmonisierung eines Chors untersucht haben.5
Selbst Systeme, die durch einfache Regeln und vollständig deterministisches Verhalten definiert sind, können zu unerwarteten Ergebnissen führen, wenn die Interaktion der einzelnen Komponenten zu einem emergenten Systemverhalten und somit zu komplexen und unvorhersehbaren Ergebnissen führt, wie z. B. beim zellulären Automaten.
Häufig wird zwischen probabilistischen und deterministischen Systemen unterschieden, während im Kompositionsprozess eine konzeptionelle Entscheidung zwischen der ausdrücklichen Bevorzugung oder Ablehnung von Zufallsoperationen getroffen werden kann, wird auf der Ebene von Algorithmenklassen diese Unterscheidung zu einer komplexen Angelegenheit. Abgesehen von der Tatsache, dass ein Digitalcomputer Zufallswerte nur durch Pseudozufall simulieren kann,6 kann es schwierig sein, die Ergebnisse komplexer Systeme oder deterministischer nichtlinearer chaotischer Algorithmen von zufälligem Verhalten zu unterscheiden. Schließlich ist der Zufall ein wesentlicher Bestandteil der meisten generativen computerbasierten Verfahren, da die Implementierung von Algorithmen fast immer einen „stochastischen Freiraum“ definiert, der die Erzeugung verschiedener Kompositionen einer gemeinsamen strukturellen Idee ermöglicht.
Algorithmische Komposition
Die Begriffe algorithmische Komposition und generative Musik können synonym verwendet oder verschiedenen Kategorien zugeordnet werden. Hier unterscheiden wir sie wie folgt: "Ansätze der algorithmischen Komposition erzeugen als Ergebnis einer Berechnung eine musikalische Struktur, die eine ganze Komposition oder Teile davon bestimmt. Generative Musikansätze erzeugen die Rahmenbedingungen für ein System, das sich dann innerhalb bestimmter Grenzen autonom weiterentwickeln kann." Der generative Ansatz wird auch oft mit einem Akt der Ko-Kreation verbunden, bei dem die Urheberschaft einer Komposition nicht mehr allein Komponist*innen zugeschrieben werden kann – oder soll.
Es gibt unterschiedliche Definitionen der algorithmischen Komposition, was sich bereits in den unterschiedlichen, aber oft synonym verwendeten Begriffen der algorithmischen Komposition und der computergestützten Komposition (CAC) widerspiegelt, die unterschiedliche Geltungsbereiche für die kompositionsrelevanten, algorithmisch erzeugten Strukturen nahelegen: Entweder wird eine Komposition als Ganzes algorithmisch bestimmt, oder algorithmische Verfahren werden nur zur Erzeugung ausgewählter Aspekte oder Abschnitte einer Komposition eingesetzt.
Die Strategien der algorithmischen Komposition können entweder durch „persönliche Strategien“ der Komponist*innen oder durch eine Reihe allgemeiner Algorithmusklassen, z. B. genetische Algorithmen oder Markov-Modelle, modelliert werden. Erstere bezeichnen Ansätze, die in der Arbeit von Komponist*innen sehr idiosynkratisch sind und nicht einfach unter allgemeinen Algorithmusklassen subsumiert werden können. Natürlich können persönliche Herangehensweisen auch durch standardisierte Algorithmenklassen modelliert werden, dennoch ist es sinnvoll, hier eine Differenzierung vorzunehmen, da die persönliche Wahl einer bestimmten Herangehensweise auch mit einer bestimmten Sichtweise auf das musikalische Material einhergeht. Der gleiche Vorbehalt gilt für die theoretische Gleichwertigkeit bestimmter Algorithmenklassen: Zum Beispiel können einige Lindenmayer-Systeme durch zelluläre Automaten dargestellt werden. Trotz dieser theoretischen Austauschbarkeit, wird die Entscheidung für einen der beiden Formalismen zu einem wesentlichen Aspekt der kreativen Arbeit und hängt oft mit bestimmten ästhetischen Positionen zusammen. Einige charakteristische Klassen von Algorithmen legen ihren Status als Paradigmen der algorithmischen Komposition geradezu nahe (vgl. Nierhaus 2009, 3-6), da sie auch eine spezifische Perspektive auf das musikalische Material implizieren:
Markov-Modelle, die aus der Linguistik stammen, sowie generative Grammatiken sind im Prinzip sehr gut für die Verarbeitung von eindimensionalen kontextbasierten Symbolfolgen geeignet. Allerdings sind sie nicht gut geeignet, um Abhängigkeiten zwischen horizontalen und vertikalen musikalischen Merkmalen (oder allgemein über mehrere Dimensionen hinweg) zu berücksichtigen. Im Gegensatz dazu wurden neuronale Netze ursprünglich für die Bildverarbeitung und -klassifizierung entwickelt. Hier bedingt die Verarbeitung eines sich zeitlich entwickelnden Kontextes die Modifikation von Netzwerktopologien und die Suche nach geeigneten Repräsentationen musikalischer Informationen. Die Art und Weise, wie ein generatives System mit der Zeit umgeht, spiegelt sich jedoch nicht nur in der Verarbeitung der musikalischen Eingangsdaten wider, sondern auch in der Art der Datenausgabe. So produziert eine generative Grammatik typischerweise das Endresultat erst am Ende aller Ersetzungen, während ein genetischer Algorithmus kontinuierlich Daten ausgibt, solange bis der Prozess unterbrochen wird oder die Fitnesskriterien erfüllt sind. Zelluläre Automaten hingegen mutieren ihre Zellzustände in unterschiedlich langen Zyklen, ohne dass eine zeitliche Grenze oder ein bestimmter Zielwert vorgegeben ist.
Daher spiegelt sich der zeitliche Fluss der Musik nicht unbedingt in der Arbeitsweise der generativen Algorithmen wider. Die ihnen zugrundeliegenden Konzepte sind entweder prozessorientiert, indem sie einen konstanten Strom musikalischer Informationen ausgeben, oder zielorientiert, indem sie die Lösung einer bestimmten Aufgabe liefern. Abgesehen vom Umgang mit der Zeit nehmen die verschiedenen Algorithmenklassen auch sehr unterschiedliche Haltungen zur strukturellen Bedeutung des analysierten oder generierten Materials ein: Heinrich Schenkers Annahme eines imaginären Ursatzes (Grundstruktur), der durch eine mehrschichtige Auskomponierung zu einer Komposition führt, oder Fred Lerdahls und Ray Jackendoffs „Generative Theory of Tonal Music“ (Lerdahl und Jackendoff 2010), bei der aus einer generativen Sichtweise ein umfassendes Modell der Darstellung tonaler Musik folgt. Diese und ähnliche Ansätze werden natürlich am besten durch eine generative Grammatik modelliert, die eine hierarchische Behandlung des musikalischen Materials vornimmt. Eine gegenteilige Sichtweise spiegelt sich in der Informationsverarbeitung eines zellulären Automaten wider, bei dem die Zellen ihre Zustände entsprechend ihrem eigenen Zustand und den Zuständen der benachbarten Zellen aktualisieren. Diese und andere Eigenschaften von Algorithmusklassen bestimmen also nicht nur den Modus Operandi der Erzeugung und Transformation musikalischer Information, sondern auch bestimmte Herangehensweisen innerhalb des Kompositionsprozesses, die bestimmte ästhetische Positionen nahelegen.
Schließlich sind Enkodierung, Repräsentation und insbesondere die gesamte Mapping-Strategie von großer Bedeutung, da sie die Schnittstelle zwischen Informationsverarbeitung und musikalischer Struktur definieren. Die Begriffe „Enkodierung“ und „Repräsentation“ werden unterschiedlich interpretiert.7 Um ihre jeweiligen Implikationen zu beschreiben, verwenden wir die folgende Definition: "Eine Enkodierung wandelt musikalische Informationen in ein Format um, das für die interne Verarbeitung durch einen Algorithmus geeignet ist, während eine Repräsentation das musikalische Material aus einem oder mehreren Blickwinkeln darstellt"8.
Die Art der Enkodierung der musikalischen Information kann deutliche Auswirkungen auf den Kompositionsprozess haben. Ob beispielsweise die Architektur des Computermusiksystems eine binäre oder eine dezimale Wertedarstellung verwendet, hat in der Regel wenig Einfluss auf die erzeugte musikalische Struktur. Die Enkodierung musikalischer Informationen durch Datenprotokolle wie XML (Extensible Markup Language) (vgl. Steyn 2013), MIDI (vgl. Roads 1996, 969-1016) oder OSC (Open Sound Control) (vgl. Wright 2005) bringt dagegen eine Reihe divergierender Möglichkeiten und Rahmenbedingungen zur Verarbeitung und Darstellung musikalischer Strukturen mit sich. Eine starke Einflussnahme auf den Kompositionsprozess ergibt sich vor allem dann, wenn die Wahl der Enkodierung die zentrale Art der Informationsverarbeitung impliziert, wie es bei einigen Arten der Datenkompression der Fall ist.9
Ein anschauliches Beispiel hierzu ist es, Zahlen entweder als Intervalle oder absolute Tonhöhen zu interpretieren. Diese Wahl führt einerseits zu unterschiedlichen Abstraktionsniveaus, aber andererseits auch zu unterschiedlicher Fehleranfälligkeit.10 Darüber hinaus ermöglichen mehrdimensionale Darstellungen einen differenzierteren Blick auf das musikalische Material, da ein Parameter aus verschiedenen Blickwinkeln dargestellt werden kann. Eine solche Darstellung findet sich in einem generativen System von Michael Mozer (Mozer 1994), der ein neuronales Netz mit einer mehrdimensionalen Repräsentation für den Parameter Tonhöhe nach einem Modell von Roger Shepard (Shepard 1989) enkodiert.11
Von entscheidender Bedeutung ist letztlich die Mapping-Strategie, d.h. die spezifische Vorstellung davon, wie die Eigenschaften eines generativen Systems in der musikalischen Struktur manifest werden sollen. Natürlich können im Zusammenspiel von Algorithmus und musikalischem Output alle Lösungen gewählt werden, die zu einem zufriedenstellenden kompositorischen Ergebnis führen. Wenn jedoch das Ziel darin besteht, die Besonderheiten einer Algorithmusklasse in der musikalischen Struktur angemessen widerzuspiegeln, sollten Strategien vermieden werden, die entweder das Systemverhalten des jeweiligen Algorithmus außer Acht lassen oder die bei der musikalischen Übersetzung „ein Mapping eines Mappings“ verwenden. Ein Beispiel dafür ist die Zuweisung einer Tonhöhenskala zu den „Rasterkoordinaten“ der Zellen eines zellulären Automaten. Indem man diesen Koordinaten spezifische Bedeutung zuordnet, wird das Systemverhalten des Automaten verschleiert, das eigentlich ausschließlich vom internen Zustand einer Zelle und ihrer Nachbarzellen abhängt, also unabhängig von ihrer Position in einer Matrix. Dennoch ist diese Tonhöhenzuordnung sehr verbreitet und wurde bereits in einigen der frühen Ansätze zellulärer Automaten im Rahmen der algorithmischen Komposition verwendet.12 Ein reizvoller Ansatz zur Erzeugung polyrhythmischer Strukturen, die auf ortsabhängigen Zustandsänderungen der Zellen eines booleschen Netzwerks (einem mit CA verwandten Netzwerk) basieren, wurde von Alan Dorin vorgestellt (Dorin 2000). Problematische Situationen können sich weiters ergeben, wenn das besondere und mitunter komplexe Verhalten einer Algorithmenklasse auf die Erzeugung von mehr oder weniger zufälligen Werten reduziert wird (Beyls 1989; Beyls 1991; Millen 1990; Hunt und Orton 1991), oder das Systemverhalten durch das Mapping eines bereits erfolgten Mappings unkenntlich gemacht wird.13
Generative Musik
In der Diskussion um den Begriff der generativen Musik finden sich sehr unterschiedliche Definitionen, die vor allem aus den Kategorisierungen der generativen Kunst stammen, die im Folgenden als eine Metaklasse verwendet wird, dessen Definitionen dann analog für Musik angewendet werden. Margaret Boden und Ernest Edmonds verorten in ihrem vielzitierten Aufsatz „What is Generative Art“ (Boden und Edmonds 2010) eine Reihe von Strömungen, meist beginnend in den 1950er Jahren, in elf Kategorien.14 Diese Taxonomie zeigt zwar einige interessante Beispiele auf, ist aber aufgrund der vielfachen Überschneidungen zwischen den Kategorien sowie ihrer unklaren hierarchischen Ordnung für eine präzise Bestimmung des Bereichs der generativen Kunst und der generativen Musik weitgehend unbrauchbar.
Philip Galanter bietet eine Unterteilung in „Simple Highly Ordered Systems” wie Mosaike, numerische Reihen, Goldener Schnitt und Fibonacci-Reihen. „Simple Highly Disordered Systems” einschließlich Zufallsoperationen und Wahrscheinlichkeitstheorie, Rauschen und Zufallsgeneratoren und „Complex Systems” wie von ihm genannt Fraktale, Lindenmayer-Systeme, neuronale Netze und zelluläre Automaten. Diese Unterteilung nach Algorithmusklassen erscheint für eine Taxonomie der verschiedenen Ansätze sowohl der algorithmischen Komposition als auch der generativen Musik nützlich. Noch wichtiger ist jedoch, dass seine viel zitierte allgemeine Definition der generativen Kunst eine Spezifizierung des Bereichs der generativen Musik ermöglicht:
„Generative Kunst bezieht sich auf jede künstlerische Praxis, bei der der Künstler ein System verwendet, wie z.B. eine Reihe von Regeln der natürlichen Sprache, ein Computerprogramm, eine Maschine oder eine andere prozedurale Erfindung, die mit einem gewissen Grad an Autonomie in Bewegung gesetzt wird und zu einem Kunstwerk beiträgt oder es hervorbringt." (frei übersetzt aus: Galanter 2003, 4)
Eine noch stringentere Definition liefert Matt Pearson, der zu dem von Galanter genannten Kriterium der Autonomie die Kriterien der Unvorhersehbarkeit und der Zusammenarbeit hinzufügt:
„Um eine Methodik als generativ bezeichnen zu können, muss unsere erste Regel lauten, dass Autonomie im Spiel sein muss. Der Künstler erstellt Grundregeln und Formeln, die in der Regel zufällige oder teilweise zufällige Elemente enthalten, und setzt dann einen autonomen Prozess in Gang, um das Kunstwerk zu erschaffen ... Die zweite Regel lautet daher, dass ein gewisses Maß an Unvorhersehbarkeit gegeben sein muss. Es muss möglich sein, dass der Künstler vom Ergebnis genauso überrascht wird wie jeder andere ... Die Schaffung eines generativen Kunstwerks ist immer eine Zusammenarbeit, auch wenn der Künstler allein arbeitet.“ (frei übersetzt aus: Pearson 2011, 6)
Sowohl die Kriterien von Galanter als auch die von Pearson sind nützlich für eine Definition von Strategien generativer Musik, die die spezifische Einbettung in einen kompositorischen Kontext hervorhebt, ungeachtet der Verwendung einer bestimmten Algorithmusklasse.
Die generative Musik könnte auch poetischer umschrieben werden, wie bei Allen Watts in „Nature, Man, and Woman“; hier verglich er die Ästhetik der Schöpfung aus der Perspektive des Christentums bzw. des Taoismus:
"Denn vom Standpunkt der taoistischen Philosophie aus sind natürliche Formen nicht gemacht, sondern gewachsen ... Aber Dinge, die wachsen, formen sich von innen nach außen. Sie sind keine Ansammlungen von ursprünglich getrennten Teilen; sie teilen sich selbst auf und entwickeln ihre eigene Struktur vom Ganzen zu den Teilen, vom Einfachen zum Komplexen." (frei übersetzt aus: Watts 1970, 36)
Seiteneffekte
Die Besonderheiten von Algorithmusklassen, das Design von Computermusiksprachen, die Strategien der Enkodierung, Repräsentation und des Mappings: all dies zeigt, dass der Computer im kreativen Prozess nicht auf ein neutrales Werkzeug zur Ausführung von Anweisungen reduziert werden kann. Vielmehr setzt er einen dialogischen Prozess in Gang, der zu einer Reihe von unerwünschten, aber auch erwünschten Seiteneffekten führt. Die notwendige Übersetzung kompositorischer und analytischer Strategien in einen informatischen Kontext stellt alles andere als einen „neutralen“ Kommunikationskanal dar. Hier wird Information nicht übertragen, sondern transformiert, und zwar auch und gerade durch die Gestaltung15 der verwendeten Computermusiksprachen.
In Systemen mit grafischen Oberflächen wie „MAX“, „Pure Data“ oder „Open Music“ werden Objekte miteinander zu einem virtuellen Signalfluss „verdrahtet“ und suggerieren damit einen transformativen Prozess mit einer zeitlich gerichteten Bewegung von A nach B. Andererseits suggerieren textbasierte Systeme wie „Common Music“ oder „SuperCollider“ eine andere Perspektive auf das musikalische Material, in denen z.B. Funktionen als Argumente an andere Funktionsaufrufe weitergegeben werden können, was den kompositorischen Prozess eher als ein dichtes Netzwerk miteinander verbundener generierender Bestandteile darstellt.
Neben der Software kann auch die Art der Hardware und des Interface16 für ihre Steuerung zu unterschiedlichen ästhetischen Positionen und kompositorischen Ansätzen führen. So hat in der Geschichte der Computermusik die zunehmende Leistungsfähigkeit der Hardware den Übergang vom sogenannten „batch mode“17 zur Echtzeit-Interaktion ermöglicht. Dies sind zwei Ansätze, die schon auf Grundlage technischer Gegebenheiten ästhetisch divergierende Positionen darstellen können. Einerseits können die musikalischen Ergebnisse eines generativen Prozesses ausschließlich durch die Bearbeitung der Algorithmen verändert, oder es wird aber eine freie Modifikation des outputs in Betracht gezogen. Der erste Ansatz wurde beispielsweise von Hiller und Barbaud angewendet und wird heute mit Verweis auf Komponisten wie Xenakis zugunsten der freien Manipulation von algorithmisch generierten Ergebnissen oft in Frage gestellt oder gar abgelehnt (vgl. Roads 2015, 348). Ein weiteres beliebtes, aber auch überspitztes Argument zitiert Debussy: „Kunstwerke machen Regeln, aber Regeln machen keine Kunstwerke.“ (frei zitiert nach Paynter 1992, 590). Diese Aussage hat sicherlich ihre Berechtigung im Hinblick auf Regeln und Rahmenbedingungen, wie sie sich aus einer Analyse meist historischer Musikgattungen ergeben, muss aber in Frage gestellt werden, wenn es sich um Regeln handelt, die ein Künstler für die Schaffung seiner eigenen Kunstwerke aufgestellt hat. Zahlreiche Beispiele finden sich auch in außermusikalischen Bereichen, etwa in den Arbeiten von A. Michael Noll, Frieder Nake, Georg Nees und anderen Pionieren der generativen Computergrafik, Vertretern der kybernetischen Kunst wie Nicolas Schöffer und Gordon Pask, aber auch den Vertretern der Konzeptkunst, wobei Sol LeWitts Diktum „the idea becomes a machine that makes the art.“ (LeWitt 1967, 1) ebenfalls treffend die Entstehung von Werken im Kontext musikalisch-generativer Ansätze beschreibt. Curtis Roads plädiert für den freien Eingriff in algorithmisch generierte Strukturen und argumentiert: „Computerprogramme sind nichts anderes als menschliche Entscheidungen in kodierter Form. Warum sollte eine Entscheidung, die in einem Programm kodiert ist, wichtiger sein als eine Entscheidung, die nicht kodiert ist?“ (frei Übersetzt aus: Roads 2015, 348). Man kann Roads' Position kaum widersprechen, da sowohl kodierte als auch nicht kodierte Entscheidungen – letztere umfassen den gesamten Bereich der traditionellen Komposition – zufriedenstellende musikalische Ergebnisse hervorbringen können. Die beiden Varianten können also in Bezug auf das Werk als gleichwertig betrachtet werden, doch gibt es einen wesentlichen Unterschied hinsichtlich der Produktionsbedingungen: Im Gegensatz zu einer nicht codierten Entscheidung setzt die codierte Entscheidung das Bewusstsein der eigenen musikalischen „Rahmenbedingungen“ voraus, so dass diese auf einer Metaebene formalisiert werden können. Es ist diese Eigenschaft, die den Computer zu einem Instrument der Objektivierung und Reflexion kompositorischer Strategien macht und damit neue Perspektiven der musikalischen Selbstreflexion und Analyse eröffnet.
Eine Analyse in diesem Sinne war auch ein wesentlicher Aspekt des künstlerischen Forschungsprojekts „Patterns of Intuition“ (Nierhaus 2015), dessen Ziel es war, unbewusste Kompositionsstrategien durch eine zyklische Methode der persönlichen Auswertung und computergestützten Modellierung sichtbar zu machen und zu objektivieren. Generell war das Vorgehen wie folgt: Vorstellung eines kompositorischen Prinzips. Formalisierung des Ansatzes und Umsetzung in Form eines Computerprogramms. Computergenerierung von musikalischem Material. Bewertung der Ergebnisse durch Komponist*innen. Modifizierung der Formalisierungsstrategie im Hinblick auf die festgestellten Einwände. Eintritt in neue und weitere Zyklen der Generierung und Bewertung, bis die Korrelation zwischen den computergenerierten Ergebnissen und den ästhetischen Präferenzen der Komponist*innen ausreichend hoch ist oder die Grenzen der Formalisierung erreicht sind. Ziel dieses Projekts war es nicht, die musikalische Intuition als Ganzes und in vollständig formalisierbaren Begriffen zu behandeln, sondern vielmehr die besonderen Aspekte intuitiv getroffener Entscheidungen zu beleuchten, die sich auf implizite Regeln oder Rahmenbedingungen zurückführen lassen, die Komponist*innen anwenden.
Computer Kreativität?
Die zuvor diskutierten Implikationen der Verwendung eines Computers spiegeln sich auch in einem interessanten Diskurs über Ko-Kreation, Autorenschaft und die Frage der Einzigartigkeit digitaler Kunstwerke wider (vgl. Galanter 2012 sowie Ward und Cox 1999). Die Behandlung solcher Themen in einem computergestützten Kontext führt unweigerlich zu der Frage, ob der Schaffensprozess, der sich in verschiedenen Formen der Interaktion mit dem Computer manifestiert, auch von der Maschine selbst autonom vollzogen werden kann. Auf der Grundlage der aktuellen Forschung zu künstlicher Intelligenz und Kreativität lässt sich die Diskussion dieser Frage nicht eindeutig beantworten, da die relevanten Begriffe mangels allgemeiner Übereinstimmung nicht klar definiert sind und oft auch vage oder selbstreferentielle Definitionen enthalten. So wird Intelligenz beispielsweise als „... die Fähigkeit, Probleme zu lösen oder Produkte zu schaffen, die in einem oder mehreren kulturellen Umfeldern geschätzt werden.“ (frei übersetzt aus: Gardner 2011, xxviii), „... zielgerichtetes adaptives Verhalten.“ (frei übersetzt aus: Sternberg und Salter 1982, 24-25), „... die aggregierte oder globale Fähigkeit des Individuums, zielgerichtet zu handeln, rational zu denken und effektiv mit seiner Umwelt umzugehen.“ (frei übersetzt aus: Wechsler 1958, 7) – oder einfach und rekursiv formuliert: „...die Fähigkeit, in einem Intelligenztest gut abzuschneiden“ (frei übersetzt aus: Boring 1923, 35). Der Bereich der künstlichen Intelligenz ist keineswegs aufschlussreicher: „Das Erreichen komplexer Ziele in komplexen Umgebungen.“ (frei übersetzt aus: Goertzel 2006, 15), oder: „Künstliche Intelligenz (KI) ist der Teil der Informatik, der sich mit dem Entwurf intelligenter Computersysteme befasst, d.h. mit Systemen, die die Eigenschaften aufweisen, die wir mit Intelligenz im menschlichen Verhalten verbinden ...“ (frei übersetzt aus: Barr und Feigenbaum 1981, 3). Shane und Hutter (2006) bieten nicht weniger als 71 Begriffe von Intelligenz an. Bei der Definition von Kreativität (z. B. Sternberg 1999) sind die Probleme vergleichbar: Margaret Boden meint: „Kreativität ist die Fähigkeit, Ideen oder Artefakte zu entwickeln, die neu, überraschend und wertvoll sind.“ (frei übersetzt aus: Boden 2003, 1). Rob Pope entfaltet seinen Begriff von Kreativität durch „... eine ausgedehnte Meditation über einen einzigen Satz: Kreativität ist extra/ordinär, originell und passend, erfüllend, in(ter)ventiv, kooperativ, un/bewusst, fe<>male, re ... Schöpfung.“ (frei übersetzt aus: Pope 2005, 52).
Es ist auch möglich, sich diesem Thema ex negativo zu nähern, wie bei Roads: „Computer sind hervorragend für die Lösungen eines gegebenen Satzes von Rahmenbedingungen geeignet. Dies hat zu einer optimalen Leistung bei klar definierten Aufgaben wie dem Spiel Dame geführt..." und später: „Das Komponieren von Musik ist kein Spiel mit endlichen Zuständen; sie hat keine einfache, wohldefinierte Lösung wie bei einem Schachmatt.“ (frei übersetzt aus: Roads 2015, 354-55).
Offensichtlich ist der einzige gemeinsame Nenner dieser Definitionen und Begriffe ihre Vielfalt, und gerade diese Vielfalt kann das Dilemma auflösen. Mihaly Csikszentmihalyi stellt Kreativität als ein Produkt sozialer Interaktion und ästhetischer Urteile dar:
„Was wir als Kreativität bezeichnen, ist ein Phänomen, das durch eine Interaktion zwischen Künstlern und Publikum entsteht. Kreativität ist nicht das Produkt einzelner Individuen, sondern von sozialen Systemen, die über die Schöpfungen von Individuen urteilen.“ (frei übersetzt aus: Csikszentmihalyi 1999, 313).
Von hier aus lässt sich eine Analogie zur kompositorischen Arbeit mit der Maschine ziehen: „In der Interaktion mit dem Computer zeigt sich Kreativität nicht unbedingt als inhärente Qualität einer generierten Struktur, sondern vielmehr durch die Bewertung im Hinblick auf ihr musikalisches Potential.“
Diese mehr offene Definition kann auch durch eine genauere Betrachtung des Subjekts und des Objekts des Bewertungsprozesses präzisiert werden, indem man die „sozialen Systeme“ (die Urteile fällen) und die „Schöpfungen der Individuen“ (die beurteilt werden) voneinander trennt, wobei man davon ausgeht, dass derlei Werturteile von Menschen getroffen werden und Computer somit implizit beurteilt werden. Wir könnten weiters spezifizieren, dass individuelle Schöpfungen die von einer Software erzeugt werden als „Artefakte“ betrachtet werden, und weiters ein „soziales System“ als eine Verbindung aus einem Benutzer (der auch der Programmierer sein kann) und dem Publikum oder der Gesellschaft, für die die computererzeugten Artefakte relevant werden.
Um Computermusik (hier verstanden als Oberbegriff für Klangsynthese, algorithmische Komposition und generative Musik) innerhalb dieser Kategorien zu betrachten, ist es sinnvoll, die Perspektive auf einen metamusikalischen Bereich zu verlagern, nämlich die Computerkreativität, die verschiedene künstlerische und wissenschaftliche Ansätze ins Spiel bringt. Erstens, weil die meisten Algorithmen zur musikalischen Strukturgenese nicht immer musikspezifisch sind(sowohl ein Gedichtgenerator als auch ein Algorithmus zur Generierung von Melodien können auf einem Markov-Modell basieren). Zweitens, weil die computergestützte Kreativität schlüssige Klassifizierungsmodelle liefert, die auch auf musikspezifische Aspekte angewendet werden können.
Man könnte die Ansätze der Computerkreativität in drei miteinander verbundene Kategorien einteilen (frei übersetzt aus: Davies et al. 2015): „Werkzeuge, die die menschliche Kreativität unterstützen“ (Tools zur Unterstützung der Kreativität), „Programme, die kreative Artefakte erzeugen“, und Ansätze wie „computer colleagues", die eine improvisierte Interaktion mit einem Benutzer beinhalten und im Kontext der Ko-Kreativität verortet werden können.
Kreativitätsunterstützende Werkzeuge „erweitern die Fähigkeit der Nutzer, Entdeckungen oder Erfindungen zu machen, von den frühen Stadien des Sammelns von Informationen, der Hypothesenbildung und der anfänglichen Produktion bis hin zu den späteren Phasen der Verfeinerung, Validierung und Verbreitung“. (frei übersetzt aus: Schneiderman 2007, 22). Nach drei von Kumiyo Nakakoji (Nakakoji 2006) entlehnten Metaphern können kreativitätsunterstützende Werkzeuge:
- bereits bekannte kreative Fähigkeiten verbessern (sie sind "Laufschuhe").
- Einem Benutzer helfen, Wissen über einen bestimmten Bereich zu erlangen und kreative Fähigkeiten zu entwickeln ( „Hanteln“).
- Sie ermöglichen eine Erfahrung, die ohne das Werkzeug nicht möglich ist ("Skier").
Beispiele für kreativitätsunterstützende Tools sind „iCanDraw“, das dem Nutzer Feedback und Vorschläge für das Zeichnen eines menschlichen Gesichts aus einem vorhandenen Bild gibt (Dixon, Prasad und Hammond 2010), oder „MILA-S“, mit dem Schüler konzeptionelle Modelle über ökologische Phänomene entwickeln und bewerten können (Goel und Joyner 2015.18 Kreativitätsunterstützende Werkzeuge im musikalischen Bereich können von einfachen Gehörbildungsprogrammen ("Laufschuhe") bis hin zu ausgefeilten Anwendungen wie dem "Continuator" (Pachet 2003) oder "Flow Machines" (Pachet, Roy und Ghedini 2013) reichen, die durch komplexe Anwendung von Markov-Modellen (Pachet und Roy 2011) darauf abzielen, die individuelle Kreativität durch Mensch-Maschine-Interaktionen zu steigern und den Stil eines Nutzers zu imitieren ("Skier"). Die Verwendung solcher erweiterter Formalismen, wie Variable Markov Models (VMM), führte auch zu Systemen der computergestützten Improvisation (vgl. Assayag und Dubnov 2004), die schließlich – um ein aktuelles Paradebeispiel zu nennen – in OMax mündeten, das "eine Kooperation zwischen mehreren heterogenen Komponenten schafft, die auf Echtzeit-Audiosignalverarbeitung, High-Level-Musikrepräsentationen und formale Wissensstrukturen spezialisiert sind." (frei übersetzt aus: Assayag 2016, 62).
Diese vielfältigen Ansätze zeigen, dass die oben genannten Kategorien eher als unscharfe Mengen zu sehen sind und nicht als einfach zu trennende Bereiche.
Nicholas Davis et al. stufen Computerkollegen als „neuestes und vielleicht ehrgeizigstes Unterfangen im Bereich der Computerkreativität“ (frei übersetzt aus: Davis et al. 2015, 213) ein, da sie komplexe Methoden zur Steuerung der improvisierten Interaktion mit dem Nutzer und der Erzeugung kreativer Beiträge zum gemeinsamen Artefakt erfordern. Beispielhafte Ansätze sind der „Drawing Apprentice“ (Davis et al., 2014), der mit einem Benutzer beim abstrakten Zeichnen auf einer gemeinsamen Leinwand zusammenarbeitet, und „Shimon“ (Hoffman und Weinberg 2010), ein Marimba-spielender Roboter, der seine Improvisation und Choreografie kontinuierlich anpasst, während er einem menschlichen Co-Darsteller zuhört.
Programme zur Erzeugung kreativer Artefakte außerhalb des musikalischen Bereichs begannen mit Anwendungen wie dem Vorläufer aller Chatbots, „ELIZA“ (Weizenbaum 1966), und decken heute ein breites Spektrum kreativer Bereiche ab. Zu den jüngsten Anwendungen gehören Malen (Colton 2012), die Generierung von Gedichten (Misztal und Indurkhya 2014), das Erzählen von Geschichten (Laclaustra et al. 2014), die Generierung von Slogans (Tomašič, Žnidaršič und Papa 2014), die Erzeugung von humorvollen Wortspielen (Valitutti, Stock und Strappavara 2009) und Internet-Memes (Olivera, Costa und Pinto 2016), Tanz (Infantino et al. 2016) und sogar Kochen (Shao, Murali und Sheopuri 2014). Ansätze der Computerkreativität werden auch für die automatische Erstellung von Vermutungen und den Beweis von Theoremen in der Mathematik entwickelt, vgl. (Lenat 1977) und (Colton 2002).
Unabhängig von ihrem Anwendungsbereich können computergestützte Kreativitätsansätze auch im Hinblick auf Konzepte der Kreativität betrachtet werden, die vor allem von Margaret Boden entwickelt wurden.
Boden19 unterscheidet zwischen „psychologischer Kreativität“ (P-Kreativität), die Kreativität bewertet, die in Bezug auf ihren Schöpfer neu ist, während „historische Kreativität“ (H-Kreativität) als neu in Bezug auf die menschliche Geschichte anerkannt wird. Boden unterscheidet außerdem zwischen „explorativer Kreativität“, die aus einem klar definierten „konzeptionellen Raum“ entsteht, und „transformatorischer Kreativität“, die entsteht, wenn dieser konzeptionelle Raum radikal verändert wird. Bodens Begriff des konzeptuellen Raums kann in Analogie zu einem Suchraum in der künstlichen Intelligenz gesehen werden, der die Menge aller möglichen Lösungen darstellt. Graeme Ritchie (Ritchie 2006) weist darauf hin, dass Boden diesen Begriff (den konzeptuellen Raum) nicht genau definiert hat, und schlägt unter anderem ein hierarchisches Modell vor, in dem dieser Raum, der aus „typischen Elementen“ besteht, eine Teilmenge der „wohlgeformten und logisch möglichen Elemente“ ist, die wiederum eine Teilmenge aller Elemente ist, die durch den Basisdatentyp dargestellt werden können. Eine Transformation findet hier statt, wenn der Begriff in die Menge der logischen Elemente erweitert wird, natürlich nur, wenn die typischen Elemente eine echte Teilmenge der logischen Elemente sind, d. h. somit nicht identisch sind. Ritchie veranschaulicht dieses Modell am Beispiel des Schachspiels: Wenn „typische Spiele“ (d. h. der begriffliche Raum) eine Teilmenge der „logisch möglichen Spiele“ sind, findet die Transformation immer noch im Kontext gültiger Schachzüge statt. Wenn der begriffliche Raum mit der logisch möglichen Menge von Spielen identisch ist, kann die Transformation nur dann stattfinden, wenn neue Züge eingeführt werden, die unweigerlich zu einer Umgestaltung des Schachspiels führen.20
Eine weithin anwendbare Kategorie von Boden ist die „kombinatorische Kreativität“, die neue Konzepte durch die Kombination bekannter Konzepte auf ungewohnte Weise hervorbringt. Ein neuartiger Ansatz für computergestützte Kreativität kann als Analogie zur „kombinatorischen Kreativität“, d. h. zum „Conceptual Blending“, betrachtet werden. Conceptual Blending wurde von Gilles Fauconnier und Mark Turner als eine kognitive Theorie entwickelt (Fauconnier und Turner 1998; Fauconnier und Turner 2010) und wurde zu einem fixen Bestandteil der Computerkreativität.
Francisco Câmara Pereira gibt folgende Definition:
"Blending wird im Allgemeinen so beschrieben, dass es zwei Input-Wissensstrukturen (die mentalen Räume) umfasst, die gemäß einer gegebenen Strukturzuordnung eine dritte Struktur, Blend genannt, erzeugen. Diese neue Domäne behält partielle Strukturen aus den Eingangsdomänen bei und fügt eigene emergente Strukturen hinzu." (frei übersetzt aus: Pereira 2007, 54)
Ein Beispiel im musikalischen Bereich ist das System von Maximos Kaliakatsos-Papakostasa et al. (2016), bei dem die Verschmelzung zweier harmonischer Räume (d. h. Akkordprogressionen) zur Erzeugung neuer harmonischer Räume führt, die entsprechend der Bewertung eines musikalischen Experten, der mit dem System über eine grafische Benutzeroberfläche (GUI) interagiert, angepasst werden.21
Diese Konzepte ermöglichen eine detailliertere Bewertung der Kreativität in der algorithmischen Komposition und der generativen Musik, wenn wir sie nun auf unsere vorherige Unterteilung der einfachen Beziehung eines Subjekts (Mensch), das ein Objekt (Computer) bewertet, in die komplexere Beziehung eines Benutzers und/oder der Gesellschaft, die ein Artefakt und/oder das Programm, das es produziert, bewertet, anwenden.
Aus der Sicht von Komponist*innen kann die Bewertung der Computerkreativität also im Kontext der P-Kreativität gesehen werden, während aus der Sicht des Publikums/der Gesellschaft die Bewertung auf der Ebene der H-Kreativität erfolgen würde. Dementsprechend könnte ein computergeneriertes Artefakt im Stil der Minimal Music P-kreativ sein, obwohl einem solchen Artefakt, das nach dem Aufkommen des Minimalismus in den frühen 1970er Jahren entstanden ist, keine H-Kreativität zugeschrieben werden könnte.
Computerkreativität bietet viele Bewertungskriterien, die oft auf bestimmten Eigenschaften der erzeugten Artefakte beruhen. Ritchie unterscheidet zwischen „Typizität“, „Qualität“ und „Neuartigkeit“, die anhand der folgenden Fragen bewertet werden sollten. Typizität: Inwieweit ist der erzeugte Gegenstand ein Beispiel für die betreffende Artefaktklasse? Qualität: Inwieweit ist der produzierte Gegenstand ein qualitativ hochwertiges Beispiel für seine Gattung? Neuartigkeit: Inwieweit unterscheidet sich der produzierte Gegenstand von bestehenden Beispielen seines Genres? (frei übersetzt aus: Ritchie 2007, 72). Simon Colton (Colton 2008) stützt die Bewertung eines Systems nicht nur auf seine Artefakte, sondern auch auf die zugrundeliegende Software (das Programm), die nach seinem „creative tripod“ ein „geschicktes“, „wertschätzendes“ und „fantasievolles“ Verhalten aufweisen sollte. Er weist auch darauf hin, dass bei der Bewertung von Kreativität in den meisten Fällen drei Parteien beteiligt sind, nämlich der Computer, der Programmierer und der Konsument, während „es üblich ist, dem Programmierer zusätzlich [zur] Software (oder anstelle der Software) Kreativität zuzuschreiben.“ (frei übersetzt aus: Colton 2008, 17). Dieser Gedanke wird auch von Martin Mumford und Dan Ventura thematisiert, die in einer Fallstudie untersucht haben, wie Menschen die Kreativität von Programmen und generierten Artefakten wahrnehmen und einschätzen (Mumford und Ventura 2015).
Wir können Programme und Artefakte der Computermusik auch innerhalb der vier von Diarmuid P. O'Donoghue, James Power, Sian O'Briain, Feng Dong, Aidan Mooney, Donny Hurley, Yalemisew Abgaz und Charles Markham definierten Ebenen der Computerkreativität verorten (O'Donoghue et al. 2012, 152): "Direct Computational Creativity" (DCC), wobei "... die Outputs (Artefakte oder Prozesse) die mit Kreativität assoziierten Neuartigkeits- und Qualitätsmerkmale aufweisen." "Direct Self-Sustaining Creativity" (DSC), wobei "... die die Ergebnisse dem inspirierenden Set hinzugefügt werden und dazu dienen, nachfolgende kreative Episoden voranzutreiben." "Indirekte Computerkreativität" (ICC), die "... einen kreativen Prozess ausgibt – und dieser kreative Prozess ist selbst kreativ." Und auf der anspruchsvollsten Ebene, der "Recursively Sustainable Creativity" (RSC), "... wo RCC von seinen eigenen Ergebnissen lernt, um seine eigene Kreativität aufrechtzuerhalten."22
Die Betrachtung der Computermusik unter diesen vielfältigen Kriterien ermöglicht es auch, einzelne Faktoren des kreativen Prozesses herauszuarbeiten und sie als ein emergentes Phänomen zu begreifen, das aus einem komplexen Zusammenspiel und oft auch einer bewussten Grenzüberschreitung der vielfältigen Aspekte der Interaktion von Komponist*innen und Computern entsteht.
Nierhaus, Gerhard, "On Composers and Computers", in Nicolas Donin (Hrsg.), The Oxford Handbook of the Creative Process in Music (Online-Ausgabe, Oxford Academic, 8. Mai 2018), https://doi.org/10.1093/oxfordhb/9780190636197.013.27, abgerufen am 14. März 2024. Mit freundlicher Genehmigung von Oxford University Press.
- 1
Lisp kann auch für die Steuerung der Klangsynthese verwendet werden, zum Beispiel in der Sprache Nyquist, siehe (Dannenberg 1997).
- 2
Für einen grundlegenden Überblick über einige seiner - nicht nur stochastischen - Ansätze siehe (Xenakis 1992).
- 3
Eine umfassende Studie über seine Konzepte findet sich in seinen Büchern (Barbaud 1971; Barbaud 1991).
- 4
Dazu gehört auch die Stilimitation, die hier als die Modellierung eines Stils definiert wird, der in historischer oder ethnologischer Perspektive als eigenes Genre verstanden wird.
- 5
Wie erwartet war der wissensbasierte Ansatz bei der Lösung der Aufgabe überlegen, siehe (Phon-Amnuaisuk und Wiggins 1999).
- 6
Da es mathematisch unmöglich ist, reine Zufallszahlen zu erzeugen (vgl. Chaitin 1975), greift man wieder auf deterministische Algorithmen mit komplexem Systemverhalten wie zelluläre Automaten zurück, um Zufallseigenschaften zu simulieren.
- 7
Häufig wird der Begriff Repräsentation anstelle von Kodierung verwendet: „Ein einzelnes Mitglied einer Population wird als eine Kette von Symbolen dargestellt“ (Biles 1995, 1), und umgekehrt: "Die Tonhöhenkodierungen in ESAC ähneln „Solfege“: Skalengradzahlen werden verwendet, um die beweglichen Silben „do“, „re“, „mi“ usw. zu ersetzen“. (frei übersetzt aus: Bod 2002, 198).
- 8
Aus der Perspektive der computergestützten Musikwissenschaft kann das Konzept der „Repräsentation“ - im weiteren Sinne - auch eng mit dem der Formalisierung verknüpft werden, wie in (Acotto und Andreatta 2012) dargelegt.
- 9
Z.B. Generierung von Jazz-Akkordfolgen über Lempel-ZIV-Bäume, vgl. (Pachet 1999); ein anderer Ansatz, der auf Kontextsensitivität beruht, ist Kohonen's „Self Learning Musical Grammar“, siehe (Kohonen 1987), (Kohonen 1989).
- 10
Die Darstellung der absoluten Tonhöhe ist im Vergleich zu einer Intervalldarstellung, bei der sich der numerische Fehler über alle aufeinanderfolgenden Werte ausbreitet, robuster.
- 11
Für andere Anwendungen neuronaler Netze in der algorithmischen Komposition siehe (Todd 1989), (Bellgrad und Tsang 1994), (Schmidthuber 2002), (Sturm, Santos und Korshunova 2015).
- 12
Vgl. (Beyls 1989), (Beyls 1991), (Millen 1990) und (Hunt und Orton 1991).
- 13
Beispiele für Mehrfachzuordnungen finden sich dort, wo Visualisierungen von Algorithmen nachträglich in musikalische Daten übersetzt werden, z.B. bei der musikalischen Adaption der Turtle-Grafik von Lindenmayer-Systemen. Bei dieser doppelten Übersetzung geht der Aspekt der Selbstähnlichkeit, der für diese Algorithmenklasse wesentlich ist, völlig verloren (vgl. Prusinkiewicz 1986).
- 14
Dazu gehören elektronische Kunst, Computerkunst, digitale Kunst, computergestützte Kunst, generative Kunst, computergenerierte generative Kunst, evolutionäre Kunst, Roboterkunst, mechanische Kunst, interaktive Kunst, computerinteraktive Kunst und Kunst der virtuellen Realität.
- 15
Das Design bezieht sich hier ausdrücklich auf die Benutzeroberfläche und nicht auf die zugrunde liegende Architektur der jeweiligen Computermusiksprachen. Diese Abhängigkeiten spiegeln sich auch in den Software Studies wider, einem neueren Feld, das sich dem Software-Design aus einer Medien- und Kulturperspektive widmet (vgl. Fuller 2008).
- 16
Die Schnittstellen reichen von herkömmlichen Interfaces bis hin zu Konzepten wie dem Monitoring und Mapping von Gehirnströmen, ganz im Sinne von Varèses Vision: „Ich träume von Instrumenten, die meinen Gedanken gehorchen...“ (frei übersetzt aus: Varèse und Wen-chung 1966, 11). Diese Interfaces stellen mehr oder weniger ernsthafte Versuche dar, die Maschine als Vermittler zu transzendieren und es zu ermöglichen, musikalische Strukturen direkt aus der Vorstellungskraft heraus zu gestalten. Für Interfaces siehe (Paradiso 1997); für „direct mind access“ siehe Alvin Luciers „Music for Solo Performer“ von 1965 (vgl. Straebel und Thoben 2014); neuere Ansätze finden sich z.B. in (Miranda und Brouse 2005) oder (Mullen 2011).
- 17
Der Batch-Modus oder die Batch-Verarbeitung bezeichnet einen Verarbeitungsmodus, bei dem eine Reihe von Anweisungen ohne die Möglichkeit einer Interaktion oder eines manuellen Eingriffs sequentiell ausgeführt wird. Dadurch entsteht der folgende Zyklus: 1. Kodierung des Algorithmus. 2. Eingeben der Eingabedaten. 3. Ausführen des Programms. 4. Entweder Übernahme des Ergebnisses oder Neustart des Prozesses.
- 18
„Konzeptuelle Modelle sind abstrakte Darstellungen der Elemente, Beziehungen und Prozesse eines komplexen Phänomens oder Systems.“ (frei übersetzt aus: Goel und Joyner 2015, 285).
- 19
Für die folgenden Kategorien von Boden, siehe (Boden 2003) und (Boden 1999).
- 20
Für einen formalisierten Ansatz zu diesen Kategorien von Boden siehe (Wiggins 2001) und (Wiggins 2003).
- 21
Für einen weiteren theoretischen Rahmen des kreativen Prozesses im musikalischen Bereich und eine allgemeine Diskussion über konzeptionelle Vermischung, siehe (Andreatta et al. 2013). Für Beispiele aus anderen Bereichen, siehe (Li et al. 2012, 11).
- 22
Wie bei der genetischen Programmierung (vgl. Koza 2003).
Gerhard Nierhaus
Gerhard Nierhaus studierte Komposition bei Peter Michael Hamel, Gerd Kühr und Beat Furrer. Er arbeitet sowohl mit traditionellen als auch mit zeitgenössischen digitalen und intermedialen Formaten. Sein künstlerisches Schaffen umfasst zahlreiche Werke der akustischen und elektronischen Musik sowie der visuellen Medien. Er arbeitet am Institut für Elektronische Musik und Akustik (IEM) an der Universität für Musik und darstellende Kunst Graz (link wenn gewünscht auf meiner Seite an der KUG), Österreich, und unterrichtet Computermusik und Multimedia.
Artikelthemen
Artikelübersetzungen erfolgen maschinell und redigiert.