Der Tag ist absehbar, an dem uns ein rotznasiger Erstklässler eine untertassengroße Kunststoffscheibe vor die Nase hält und wissen will, was das ist. Die CD, die Anfang der achtziger Jahre die analoge Langspielplatte mit dem Versprechen brillanter digitaler Klangqualität verdrängt und Musikliebhaber ihren gesamten Plattenbestand hat austauschen lassen, wird bald genauso sentimental bestaunt werden wie Schallplatten aus Vinyl und Audiokassetten. Was das bedeutet? Auch die Digitalisierung ist in die Jahre gekommen, aber alles andere als beendet.

Seit im Jahr 1992 das komprimierte MP3- Format vorgestellt wurde und sich Musik einfacher speichern und teilen lässt, kämpft der Musikmarkt ums Überleben. Inzwischen wird (meist legal) gestreamt, allerdings in so reduzierter und alles andere als brillanter Klangqualität, dass Hi-Fi-Freaks verzweifeln. Auf sie hört aber gerade niemand, weil Musikhören noch nie so einfach und bequem war und weil die Übersetzung von Musikaufnahmen in digitale Einsen und Nullen eine so gewaltige Welle weiterer Veränderungen ausgelöst hat, dass sie noch ganz andere Bereiche der Musikproduktion und -rezeption mit sich reißt.

Die digitale Revolution ist nicht nur eine technische, sondern betrifft alle Bereiche der Musik. Musiksammlungen heißen heute Playlists und werden nicht gekauft, sondern gemietet, was natürlich auch bedeutet: Der Vermieter hört mit. Es bedeutet aber auch, dass Plattenläden schließen, Labels aufgeben und den Künstlern eine Einkommensquelle wegbricht. Die Veränderungen gehen aber noch viel weiter. Sie betreffen auch den Kompositionsprozess, angefangen bei der Arbeit mit digitalen Werkzeugen bis hin zur Unterstützung durch künstliche Intelligenz und nicht zuletzt wandelt sich auch die Musik selbst.

Keine technologische Entwicklung hat diese Kunstform in jüngster Zeit stärker verändert. Noch gibt es Kompositionsklassen an realen Orten und es spielt auch noch eine Rolle, ob man in Frankfurt, San Francisco oder Zagreb studiert, aber nationale, geografische und ästhetische Grenzen sind überwindbar geworden. Stile lösen sich auf oder existieren nebeneinander wie in den Arbeiten der Komponistin Jennifer Walshe, wo all das, was in vordigitalen Zeiten nie zueinander gefunden hätte, wie in einer entfesselten Youtube-Vision kollidiert (The Total Mountain, 2014). Ihre sprunghafte Ästhetik entsteht nicht zufällig nach dem Web 2.0 und der Erfindung von Videoplattformen und sozialen Medien. "Wenn ich meinen Computer starte, warten dort jeden Tag Millionen Dinge", bekennt die Irin, aus deren Leben das Internet nicht mehr wegzudenken ist. "Ich höre erst mal zehn ästhetisch vollkommen verschiedene Stücke, die unterschiedlich klingen und Verschiedenes wollen. Damit zu arbeiten, fühlt sich für mich in diesem historischen Augenblick sehr natürlich an." [1]

Im Zeitalter der digitalen Vernetzung kann es auch als "natürlich" empfunden werden, noch einen Schritt weiter zu gehen und die individuelle Arbeit des Künstlers grundsätzlich in Frage zu stellen. Im April 2018 geht eine Website online, auf der seither eine kollektive Komposition entsteht. Wiki-Piano.net heißt das offene Kunstwerk, zu dem der Komponist Alexander Schubert einlädt. Jeder kann Noten schreiben, Kommentare einfügen, Videos, Bilder oder Audiodateien hochladen. Wie kommt die als "Klavierstück" bezeichnete Gruppenkomposition auf die Bühne und wer übernimmt die Verantwortung für die Phantasie der Schwarmintelligenz, die bereits gefordert hat, das Klavier in Flammen aufgehen zu lassen? Mit dieser Frage muss sich Schubert wie jeder Betreiber einer offenen Plattform auseinandersetzen. Sein Projekt spiegelt das Netz.

Neue Medien und Werkzeuge verlangen neue Arbeitsweisen. Die Digitalisierung verändert die romantisch verklärte Schöpfung von Musik durch den göttlich erwählten Genius. Während in Europa die ersten elektronischen Studios gegründet werden und die Szene mit analogen Produktionen in Erstaunen versetzen, stellen im Jahr 1957 — nur gut 10 Jahre nach der Entwicklung der ersten Rechner — Lejaren A. Hiller und Leonard M. Isaacson an der University of Illinois die weltweit erste Computerkomposition vor. Gespielt wird die Partitur der Illiac Suite von einem Streichquartett. Größer könnte der Gegensatz kaum sein. Die digitale Technik bemächtigt sich der Kernbesetzung der klassischen abendländischen Musikkultur. Konkurrenz bekommt allerdings nicht nur die schöpferische Intelligenz der — bis dahin fast ausschließlich männlichen — Komponisten. Schon um 1960 macht sich Max Mathews in den Bell Laboratories daran, dem Computer das Sprechen und Singen beizubringen. Während Software zur Sprachsynthese heute sogar mit psychoakustischen Parametern spielt und der von Menschen gesprochenen Sprache erstaunlich nahekommt [2], klingen die frühen Experimente noch rudimentär. Dennoch ist der Eindruck, den die ersten Versuche hinterlassen, gewaltig. Auch die ersten artifiziellen Geigensounds aus digitalen Synthesizern weisen aus heutiger Sicht mit akustischen Geigen eine nur entfernte Verwandtschaft auf. Dennoch werden die digitalen Synthesizer und Sampler bejubelt. Die anfangs horrend teuren Geräte bestimmen den Sound der Achtziger. Michael Jackson, Jean Michel Jarre oder Peter Gabriel erobern die Charts mit Explosionen, Tonleitern aus splitterndem Glas und künstlichen Schlagzeugsounds, aber auch mit Kunstklängen, die sich von realen Vorbildern verabschieden. Digital produzierte Synthetik ist das Material der Zeit und die Verheißung einer Zukunft, in der sich alles künstlich herstellen lässt.

In der E-Musik sind die digitalen Produktionsmittel nicht minder begehrt. Während sich die Ikonen des Pop die Geräte aus eigener Tasche leisten, sind die Komponisten aus der Klassik bis in die neunziger Jahre fast ausschließlich auf Studios angewiesen. Heute wird nicht mehr am Klavier und immer seltener mit Stift und Papier, sondern am eigenen Computer komponiert, wo sich Instrumentalwerke notieren und in Echtzeit akustisch simulieren lassen. Zu den alltäglichen Werkzeugen gehören auch Tools zur Klanganalyse, Programme, mit denen sich Klang im Konzert in Echtzeit bearbeiten lässt sowie Sound- und Musikdatenbanken.

Die Verbreitung der digitalen Techniken fällt mit der schier grenzenlosen Verfügbarkeit von Daten und damit auch von Musik zusammen. Zum Material, mit dem Künstler arbeiten, zählen heute auch die in Soundfiles verwandelten Tonkonserven der Musikgeschichte. Eine kompositorische Praxis, die juristisch für Streit sorgt. Als der Komponist Johannes Kreidler am 12. September 2008 seinen Kleinlaster vor der GEMA-Generaldirektion in Berlin parkt, türmen sich auf der Ladefläche die Papierstapel mit Anträgen für seine neue Komposition. Das 33-sekündige Werk mit dem Titel product placements enthält 70.200 Zitate aus fremden Werken. Mit der analogen Aktion befeuert Kreidler die ästhetische Debatte um die Arbeit des Künstlers im digitalen Zeitalter und führt das Verwaltungssystem ad absurdum. Was darf ich samplen und vor allem wie lange und wie viel? Das Urheberrecht ist bis heute nicht der veränderten digitalen und globalen Ära des Teilens angepasst.

Wie sehr der digitale Wandel in der Musik an grundlegende moralische, juristische und ethische Fragen rührt, zeigt auch die Diskussion um künstliche Intelligenz. 2018 produziert die Popmusikerin Taryn Southern mit IAMAI ein mit künstlicher Intelligenz komponiertes Album und begleitet die Veröffentlichung mit Fragen, die auch die Mondlandung hätten begleiten können: "Wer sind wir? Was werden wir? ... und sind wir bereit?" Tatsächlich hat ihr Computer die Tracks aber nicht allein produziert. Die neue Software braucht immer noch ein menschliches Subjekt, das mit ihr spielt, Vorschläge annimmt oder ablehnt. Dennoch hat das Programm Taryn Southern in die Lage versetzt, ihre Songs ohne harmonische Kenntnisse (mit-) zukomponieren. "Man kann so oft, wie man will, etwas verändern, um am Ende das zu bekommen, wonach man sucht. Das finde ich toll", freut sich die Sängerin, der das Spielfeld innerhalb der ästhetischen Grenzen und des stilistischen Horizonts ihrer Tools beziehungsweise ihrer Programmierer nicht zu klein ist. Auf größere Überraschungen als die Tatsache, dass sie nun ohne Hilfe anderer Menschen komponieren kann, muss sie, solange sie mit den kommerziellen Programmen für den musikalischen Mainstream arbeitet, nicht gefasst sein. Kaum anders als in den Blasen der sozialen Medien wird die künstliche Intelligenz sie davor bewahren, mit allzu fremden musikalischen Soziotopen in Kontakt zu treten.

Allerdings könnte künstliche Intelligenz genau das ermöglichen, sofern es die Entwickler wollen. Das in Berlin arbeitende Künstlerpaar Holly Herndon und Matt Dryhurst hat eine künstliche Intelligenz entwickelt, die sie auf dem schmalen Grat zwischen Objekt und Subjekt inszenieren. Ihr künstliches Baby, das sie auf den Namen Spawn getauft haben und als Mädchen deklarieren, integriert Herndon in ihr Vokalensemble: "Ich suche nach einem neuen Klang und einer neuen Ästhetik. Der Unterschied besteht darin, dass wir Spawn als ein Ensemblemitglied betrachten und nicht als Komponistin. Obwohl sie ebenso wie die Performer improvisiert, schreibt sie das Stück nicht. Ich will die Musik schreiben!" Obwohl sie ihre Autonomie unterstreicht, muss sich die Komponistin und Sängerin, die an der Grenze von Avantgarde-Pop und experimenteller elektronischer Musik arbeitet, bei der Arbeit mit Spawn jedoch mit einer künstlichen Intelligenz auseinandersetzen, die nicht nur mit Hybridstimmen singt, sondern auch von ihrer Umwelt lernt. Diesen Entwicklungsprozess erklären Herndon und Dryhurst zum Teil des Kunstwerks. Spawn, die im Gehäuse eines alten Gaming-Computers steckt, lernte 2018 bei Live-Trainingszeremonien in Berlin von hunderten Menschen in "Call-and-Response"- Sessions, wie man unbekannte Geräusche identifiziert und neu interpretiert. "Es gibt eine allgegenwärtige Erzählung von Technologie als das, was uns entmenschlicht. Wir positionieren uns im Kontrast dazu. Wir laufen nicht weg; wir laufen darauf zu, aber zu unseren Bedingungen", sagt Holly Herndon. Und das ist — neben der aufklärerischen Haltung — die einzige und vielleicht wichtigste Lehre, die sich aus der Digitalisierung ziehen lässt, die noch viele technologische Neuerungen verspricht. Wenn man keine eigenen Visionen für die musikalische Zukunft entwickelt, tun es die anderen, und das sind heute die großen Konzerne, die ganz andere Träume haben.

 

Hinweis: Die AR-Inhalte dieses Artikels können Sie in der gedruckten Ausgabe oder über die issuu-Ausgabe dieses Magazins abrufen.

 

[1] Interview mit der Autorin 27.11.2015

[2] Tacotron 2

Martina Seeber

Martina Seeber lebt als freie Autorin, Rundfunkjournalistin und Moderatorin in Stuttgart. Ihre Beiträge zu zeitgenössischer Musik erscheinen u.a. in der Neuen Zeitschrift für Musik und sind im WDR, hr, SWR und Deutschlandfunk zu hören.