Technologien als Lebensformen

Nutzen wir Technologie oder nutzt sie uns? Erweitert sie unseren Möglichkeitsraum oder versklavt sie uns? Im Zeitalter der omnipräsenten, smarten Geräte, die Dienste für alle Lebenslagen bereitstellen, aber auch persönliche Daten aller Lebenslagen verarbeiten und monetarisieren, haben diese Erkenntnisse von vor 40 Jahren rapide an Brisanz gewonnen.

Thomas Grill Profilfoto Thomas Grill
Veröffentlichung
Lesezeit
4 Minuten
Artikel anhören
Loading the Elevenlabs Text to Speech AudioNative Player...

Der titelgebende Artikel von Langdon Winner aus dem Jahr 1983 beschreibt die “trügerische Qualität technischer Objekte und Prozesse – […] die Tatsache , dass sie auf diese oder jene Weise ‘genutzt’ werden können, macht uns blind für die Art und Weise, wie sie strukturieren, was wir tun können” (Winner 1983, Übersetzung des Autors).

Dies gilt auch für Technologie im Audiobereich. Die normative Kraft populärer Technologien und ihrer medialen Verstärkung (z.B. mit Video-Tutorials in Social Media) strukturiert die künstlerischen Ergebnisse mehr und mehr, mit einem Fluchtpunkt in Klischeehaftigkeit. Die Kanonisierung von Prozessen und Werkzeugen (man denke an Resonanzmodelle oder Granularsynthese) gaukelt dabei einen trügerischen Komfort vor, der automatisch einen Verlust an Individualität und damit ästhetische Einengung mit sich bringt.

Es liegt auf der Hand, dass mit Allround-Produktionsumgebungen wie Ableton Live eine Effizienzsteigerung im Hinblick auf die generierte Musikmenge pro eingesetzter Kompositionszeit erreicht werden kann, wenn man das als Maßstab anlegen möchte. Die Fülle an vorhandenen Werkzeugen und Presets lässt kaum Wünsche übrig, die Software-Systeme sind stabil und wenig störrisch. Neben (auch vom Interface her) aufwendig gestalteten Effekten und “Instrumenten” werden mehr und mehr auch AI-Algorithmen eingesetzt, die mittels Daten anderer Künstler*innen trainiert wurden, um eine bestimmte Arbeitsweise oder musikalische Stilistik abzubilden.

Für Anwender*innen dieser Technologien ist es aufgrund deren Komplexität typischerweise unmöglich, die Funktionsweisen im Detail zu verstehen bzw. tiefgehend (also jenseits eines vordefinierten User-Interfaces) zu beeinflussen. Bei AI-Systemen auf der Basis gelernter Daten werden akustisch-musikalische Parameter in “latente Räume” projiziert, die einen hohen Abstraktionsgrad aufweisen und die direkte Identifikation mit physischen Prozessen verloren haben. Man hat es effektiv mit Black-Box-Systemen in unterschiedlichen Schwärzungsgraden zu tun, denen man sich eher explorativ-suchend, als mit einem Anspruch auf analytisches Verständnis und Kontrolle annähern kann.

Die Arbeitsweise verlagert sich von einem durch fundamentale Synthesealgorithmen bestimmten Aufbau oder einem kleinteiligen Arbeiten mit Klangschnipseln à la Musique Concrète hin zu einem Dirigieren von kuratierten Instrumenten auf einer Metaebene. Die idiosynkratischen Softwaresysteme von Herbert Brün, Gottfried Michael Koenig oder auch Günther Rabl erscheinen vor diesem Hintergrund als Fossile, die zwar hin und wieder ausgegraben werden, aber eher aus einer sicheren Distanz betrachtet werden.

Ich halte das für schade. Das relativ distanzierte Arbeiten mit Klang durch vor- bzw. fremddefinierte Systeme lässt in seinen Ergebnissen sehr oft das Spezifische, Kantige, Schmutzige, Menschliche vermissen. Das Wiedererstarken von modularen Synthesizern (insbesondere des Eurorack-Formats) lässt sich wohl auf das Verlangen nach Individualisierung bzw. Hands-On-Musizieren zurückführen.

Ich möchte die Möglichkeiten der sounding-Future-Plattform zukünftig nutzen, regelmäßig über Aspekte des Verhältnisses zwischen Menschen und Klangmaschinen zu reflektieren, manchmal von einer eher philosophisch-theoretischen Seite, manchmal von einer praktisch-handwerklichen Seite, und folge dabei dem Imperativ von Lewis u. a. (2018): 

As we manufacture more machines with increasing levels of sentient-like behaviour, we must consider how such entities fit within the kin-network. (Jason Edward Lewis)

Dies ist auch der Leitgedanke des künstlerischen Forschungsprojekts Spirits in Complexity – Making kin with experimental music systems, das vom Österreichischen Wissenschaftsfonds (FWF) gefördert im April 2024 starten wird und sich als Kooperation zwischen der Universität für Musik und darstellende Kunst Wien (mdw) und der Johannes-Kepler-Universität Linz (JKU) mit Partnerschaftsbeziehungen zwischen Menschen (human) und Musiktechnologie (non-human) und damit verbundenen Strategien und Dynamiken beschäftigen wird. Die methodischen Annäherungen durch künstlerische Experimentalsysteme werden die Bandbreite von instrumentalen Technologien über Elektroakustik und Installationskunst hin zu generativen AI-Systemen abdecken.

Andererseits läuft bereits seit Mitte 2023 ein Kooperationsprojekt zwischen der Universität für Angewandte Kunst, der mdw und dem Phonogrammarchiv der Akademie der Wissenschaften unter dem Namen Applied/Experimental Sound Research Lab (AESRL). In dem von der mdw betreuten Teilprojekt Sound Projection Lab geht es ganz explizit um Individualisierung, Niederschwelligkeit und DIY/Maker-Kultur. Eingebettet in universitäre Forschung und Lehre entwickeln wir ein flexibles, modulares und mobiles Klangprojektionssystem, das für (künstlerische) Forschungszwecke auch ausleihbar sein wird. 16 Module à 16.1 Lautsprecherkanäle sollen in einer Grundausbaustufe zur Verfügung stehen, wobei alle Aspekte von Lautsprecher- und Verstärkerbau, System- und Klangprojektions-Software selbst entwickelt und nachvollziehbar (quelloffen) dokumentiert werden. Das Ziel ist eine leicht zugängliche, reproduzierbare und erschwingliche Plattform für die experimentelle Arbeit mit Klang in Umgebung.

Es erscheint mir wesentlich, sich im Umgang mit komplexen Technologien nicht auf eine passive Nutzung zurückzuziehen, sondern selbst zu definieren, wie wir mit diesen Systemen umgehen und aktiv und kritisch unser Leben mit ihnen gestalten – diskursiv statt beherrschend. Nach Grüny (2022) gilt dies insbesondere für die immer präsenter werdenden AI-Systeme: 

Statt um die größtmögliche Kontrolle geht es nun darum, sich durch den Widerstand und den Einspruch nicht kontrollierbarer Instanzen gezielt beirren zu lassen, um Resultate hervorzubringen, die man selbst nicht hätte produzieren können und die hoffentlich über das hinausgehen, was das eigene Können erreichen kann, statt hinter es zurückzufallen. (Christian Grüny)

  • Grüny, Christian. 2022. „Seltsam attraktiv. KI und Musikproduktion“. In Begegnungen mit künstlicher Intelligenz, 174–204. Velbrück Wissenschaft.
  • Lewis, Jason Edward, Noelani Arista, Archer Pechawis, und Suzanne Kite. 2018. „Making kin with the machines“. Journal of Design and Science.
  • Winner, Langdon. 1983. „Technologies as forms of life“. In Epistemology, methodology, and the social sciences, herausgegeben von Robert S. Cohen und Marx W. Wartofsky, 249 – 63. Springer.

Thomas Grill

Thomas Grill arbeitet als künstlerischer und wissenschaftlicher Forscher zu Klang und seinem Kontext. Als Komponist und Performer konzentriert er sich auf konzeptorientierte Klangkunst, elektroinstrumentale Improvisation und Kompositionen für Lautsprecher. Er forscht und lehrt an der Universität für Musik und darstellende Kunst in Wien, wo er den Lehrgang für Elektroakustische und Experimentelle Musik (ELAK) leitet und stellvertretender Leiter des Artistic Research Center (ARC) ist.

Artikel von Thomas Grill
Originalsprache: Deutsch
Artikelübersetzungen erfolgen maschinell und redigiert.