Das Medium Klang als Partitur

In den 1950erJahren gründete Pierre Schaeffer die Groupe de recherches musicales (GRM) die sogenannten Solfège, um einen Katalog an Klangobjekten und deren Spezifikationen zu erstellen. Das Ergebnis dieser Forschung führte zu neuen Überlegungen kompositorischer Methoden mit einem Fokus auf das Medium Klang und Hören. Der technologische Fortschritt ermöglicht es heutigen Komponist*innen, das Medium Klang im Gegensatz zur Schrift als prozessorientierte Partitur für Musiker*innen zu verwenden.

Elisabeth Schimana Profilfoto Elisabeth Schimana
Veröffentlichung
Lesezeit
6 Minuten
Artikel anhören
Loading the Elevenlabs Text to Speech AudioNative Player...

Die Reise

Seit den 1980er Jahren arbeite ich als Komponistin und Musikerin elektronischer Musik mit dem Medium Klang. Als ich 2009 gebeten wurde, ein Stück für das RSO (Radio-Symphonieorchester) Wien zu komponieren, musste ich mir überlegen wie ich mit diesem Orchester kommunizieren könnte. Ich entschied mich für das, was ich am besten kann – direkt am Klang zu arbeiten und Hören. Seit diesem Jahr entwickle ich zwei verschiedene Methoden der Kommunikation mit den Musiker*innen:

a) die live generierte Audiopartitur, bei der die Musiker*innen die live generierten elektronischen Klänge, die sie über einen Lautsprecher hören, imitieren müssen

b) und die auf dem akustischen Gedächtnis basierende Audiopartitur, bei der die Musiker*innen eine Reihe von zu interpretierenden Klangsampels erhalten, die sie bei der Aufführung in Kombination mit einer synchronisierten Timeline Partitur aus dem Gedächtnis zu spielen haben. 

Die Forschungsreise geht weiter. In einem PEEK Projekt an der mdw (Universität für Musik und darstellende Kunst Wien) werden in Kooperation mit Piotr Majdak (Institut für Schallforschung / Akademie der Wissenschaften) und Susanne Kogler (Institut für Musikwissenschaft / Universität Graz) sowohl die psychoakustischen wie ästhetischen Merkmale und Auswirkungen von Audiopartituren dieser und anderer Methoden erforscht. Gleichzeitig soll im Rahmen dieses Projektes ein globaler Überblick über Komponist*innen und ihre unterschiedlichen Herangehensweisen in der Kreation von Audiopartituren entstehen.

Das Potenzial

In der elektroakustischen und akusmatischen Musik ist das auf einem Medium gespeicherte Stück selbst die perfekte Partitur, das – historisch gesehen – von niemandem außer den Komponist*innen selbst interpretiert werden sollte. In den letzten zehn Jahren hat eine neue Generation von Komponist*innen akusmatischer Musik begonnen, das Potenzial der Interpretation neu zu entdecken. Die Tatsache, dass immer mehr elektroakustische und akusmatische Komponist*innen sterben, mag ein Grund dafür sein, aber es gibt sicher auch den Wunsch, die Stücke auf neue Art und Weise zu gestalten – und das nennen wir Interpretation.

Ein nächster Schritt bestand darin, das Medium Klang auch als Partitur für die Interpretation durch Musiker*innen zu verwenden. Die dadurch entstandenen neuen Kompositionstechniken gilt es nun einer genaueren Betrachtung und Erforschung zu unterziehen.

Audiopartituren vermitteln selbst  äußerst komplexe kompositorische Strukturen auf unmittelbare Weise und können dadurch von den Musiker*innen mittels einfacher Anweisungen interpretiert werden. Dies steht im Gegensatz zu einer visuellen Partitur, bei der die Musiker*innen erst die visuellen Zeichen entschlüsseln und dann in Klang umsetzen müssen. Um dieses Potenzial zu nutzen, müssen wir uns mit den Instrumenten der musikwissenschaftlichen und psychoakustischen Analyse und den Erfahrungen der Komponist*innen und Musiker*innen, mit den "ways of hearing”, um hier Maryanne Amacher zu zitieren, auseinandersetzen. 

Die Methoden

a) Die live generierte Audiopartitur

Die Virus Serie 

Die Methode einer live generierten Audiopartitur entwickelte ich für die Virus Serie, beginnend 2011 mit Virus #1.0 für Streichquintett. Zu Beginn gab es mehrere wichtige Fragen: Wie sollte eine live generierte Audiopartitur gestaltet sein? Wie sollte das Set-up organisiert werden? Wer hört was, und warum wählt jemand eine bestimmte Interpretation? Wo sind meine eigenen Hörgrenzen? Und wie ist es möglich, die digitale, live generierte Partitur mit der Interpretation durch die akustischen Instrumente zu verschmelzen?

Der elektronische Klangkörper wird live während der Aufführung generiert und ist die Audiopartitur für die akustischen Instrumente, er entspricht dem Bild einer Wirtszelle. Der akustische Klangkörper entspricht dem Bild eines Virus, denn die Musiker*innen müssen an den elektronischen Klangkörper andocken, sich an ihn anpassen, in ihn eindringen, wodurch eine Synthese der beiden Klangkörper entsteht. Die Virus Serie ist eine Forschungsreise in die akustische Wahrnehmung, ein Ausloten von Reaktionen unserer Gehirne im Millisekundenbereich, ein Plädoyer für den akustischen Augenblick in höchster Präzision. Sie beschäftigt sich mit der Frage "Und was hören Sie?" Diese Frage richtet sich an das Publikum, die Musiker*innen und an mich selbst. Sie impliziert, dass jede/r etwas anderes erlebt.

Set-up: 

Die Musiker*innen sitzen oder stehen verteilt im Raum vor einem Lautsprecher und versuchen das Gehörte so präzise wie möglich auf ihren Instrumenten zu spielen. Die elektronischen Klänge – die aus dem Lautsprecher kommende Partitur – sowie die Interpretation der Musiker*innen sind hörbar. Die Instrumente sind nicht verstärkt, die Lautsprecher geben nur die Audiopartitur wieder. Es ist wichtig, die Abstände zwischen den Musiker*innen zu berücksichtigen, um allen Mitwirkenden die Möglichkeit zu geben, sich auf den eigenen Part der Audiopartitur zu konzentrieren. Ein Mindestabstand von 3 m für Instrumente mit mittleren oder hohen Frequenzen und ein Mindestabstand von 5 m für Instrumente mit tiefen Frequenzen ist erforderlich. Die Komponistin erzeugt die Partitur live, ist somit Teil des reagierenden Systems und bildet zusammen mit den Musiker*innen eine Feedbackschleife. Wie die Musiker*innen hört die Komponistin zu, reagiert auf das Gehörte und trifft im Mikrobreich der Partitur Entscheidungen für den weiteren Verlauf der Komposition. Das Publikum sitzt zwischen den Musiker*innen.

Video URL
Virus #3.0 RSO Wien, ORF musikprotokoll, Dom im Berg, Graz 2013
Video URL
Virus #3.4 Ensemble Liminar, Museo Ex Teresa Arte Actual, Mexico City 2019

b) Die auf dem akustischen Gedächtnis basierende Audiopartitur

Ich habe diesen sehr unterschiedlichen Ansatz erstmals 2017 für das Stück Vast Territory. Episode 1 Lily Pond verwendet. Dieser erste Versuch für Streicher und Bläser dauerte nur 7 Minuten. Die wichtigste Frage war: Wie funktioniert unser akustisches Gedächtnis, und welche Dauer ist möglich, ohne zusätztliche Verwendung einer schriftlichen Partitur? Im Jahr 2018 komponierte ich das Musiktheaterstück Gestochen und weg und arbeitete mit dieser Methode für den Ensembleteil des Stücks.

Die Musiker*innen knüpfen an orale Traditionen an, indem sie einer aus dem Gedächtnis gespielten Partitur folgen, gleich dem Erzählen einer Geschichte aus dem akustischen Gedächtnis. Die Audiopartitur besteht aus 15 bis 45 Sekunden langen Feldaufnahmen, die die Musiker*innen vorab zum Memorieren der Interpretation erhalten. Die Arbeit mit Feldaufnahmen in Audiopartituren ist durchaus üblich, aber in der Regel werden sie den Musiker*innen während der Aufführung über Kopfhörer zur Interpretation zugespielt. Der einzige Ansatz den ich kenne, der in der zeitgenössischen Musik an eine mündliche Überlieferung anknüpft, ist die Art und Weise, wie Eliane Radigue ihre kompositorischen Ideen Musiker*innen vermittelt, und diese sogar bittet, das Stück durch mündliche Überlieferung an andere Musiker*innen weiterzugeben. Diese anderen müssen sich dann auf jene Musiker*innen beziehen, von denen die Information stammt. Auf diese Weise wird eine Reihe von Referenzen geschaffen. 

Feldaufnahmen sind ein sehr komplexer Klangmaterialtypus, sie regen die Fantasie an oder lösen Erinnerungen an eine bestimmte Umgebung aus, die meist mit ganz bestimmten Emotionen einhergehen. Gleichzeitig bestehen Feldaufnahmen aus vielschichtigen Klangereignissen, und meist ist es nicht möglich, all diese akustischen Informationen für die Interpretation auf dem akustischen Instrument eins zu eins zu übersetzen. Als Menschen filtern wir diese Informationen in einer akustischen Umgebung und konzentrieren uns auf das, was für uns in einem bestimmten Moment relevant erscheint. Ein Mikrofon ist ziemlich dumm und überträgt alle akustischen Informationen, die vorhanden sind. Die Musiker*innen müssen dann entscheiden, welche akustischen Informationen für die Interpretation relevant sind, und das kann von Musiker*in zu Musiker*in sehr unterschiedlich sein!

Set-up:

Bezugnehmend auf eine Timeline-Partitur folgen die Musiker*innen ihrer ganz persönlichen Interpretation der Soundfiles. Bei einem kurzen Stück hat jede/r Musiker*in eine Stoppuhr zur Hilfe, um der Timeline synchron mit den anderen Musiker*innen zu folgen. In einem langen Stück muss die Timeline eine sich bewegende visuelle Partitur mit einem Cursor sein, der die genaue Zeit anzeigt, wobei die individuellen Partituren der Musiker*innen synchronisiert werden. Alle Klänge – die Interpretationen der Feldaufnahmen –  werden aus dem Gedächtnis abgespielt, die ursprüngliche Audiopartitur – die Feldaufnahmen – ist nicht hörbar.

Gestochen und weg, Zeitpartitur, Teil 1

Video URL
Gestochen und weg. Airborne Extended, Dschungel Wien, Wien Modern 2018

Fortsetzung folgt.

Elisabeth Schimana

Elisabeth Schimana arbeitet als Komponistin, Performerin und Radio Künstlerin seit 1983. Sie studierte Elektroakustische und Experimentelle Musik an der Hochschule für Musik und darstellende Kunst in Wien, Computermusik - Komposition am IEM, Graz und Musikwissenschaften und Ethnologie an der Universität Wien. In ihren Arbeiten beschäftigt sie sich seit vielen Jahren mit Raum / Körper / Elektronik. Elisabeth Schimana hält international Vorträge und Kompositionsworkshops und gründete 2005 IMA Institut für Medienarchäologie.

Originalsprache: Deutsch
Artikelübersetzungen erfolgen maschinell und redigiert.
Artikel von Elisabeth Schimana