Specials

Immer schön die Töne treffen

Immer schön die Töne treffen
Foto: © Jens Thomas
Geschmeidiges KI-Duo: Eric Eitel und Dr. Julia Schneider

Die Digitalisierung krempelt Musikmarkt und -kultur komplett um. Mit allem Für  und Wider. Schon jetzt kreieren Algorithmen tanzbaren Sound, schon jetzt beeinflussen sie, was wir hören wollen. Künstliche Intelligenz (KI) ist die Klammer, Heilsbringer und Angstmacher zugleich. Multipliziert der Fortschritt die Alter-nativen oder entstehen dadurch gerade erst neue Monokulturen? Und wer verdient zum Schluss daran?

 

Von ERIC EITEL und Dr. JULIA SCHNEIDER (Eric Eitel kuratiert Technologie-, Kunst- und Kulturprojekte und ist Gründungsmitglied von Music Pool Berlin. Dr. Julia Schneider ist unabhängige Beraterin für Künstliche Intelligenz (KI) und Mitglied des wissenschaftlichen Ausschusses des VDEI Verbandes der Exoskelettindustrie e. V.)

 

Die gute Nachricht zuerst: Die Kassette lebt immer noch. In den USA wurden 2017 sogar 174.000 Kassetten verkauft – eine Verfünffachung gegenüber 2010. Die CD hat es dage-gen erdrutschartig erwischt, in zehn Jahren werden wir uns vermutlich an diese glitzernde Mini-Frisbee-Scheibe, die 1982 erstmals das Licht der Welt erblickte, kaum mehr erinnern. Auch sonst hat die Digitalisierung den Musikmarkt ordentlich umgekrempelt. Audio-Streaming macht in der Musikindustrie mittlerweile einen Anteil von knapp 50 Prozent am Gesamterlös aus. Musikschaffende verdienen ihr Geld zunehmend mit Live-Gigs – und werden, wie wir wissen, von den großen Streaming-Plattformen und den Plattenfirmen nur geringfügig entlohnt.Neben diesen Veränderungen in der Art, wie wir Musik konsumieren, schafft die Digitalisierung vor allem eines: neue Musikformate, neue Kompositionsmöglichkeiten, insgesamt mehr Spielerei. Immer mehr Musikschaffende experimentieren inzwischen auch mit KI.

No Dark Future, sondern vielmehr Realität

Der Reihe nach: Was passiert hier gerade? Der Diskurs um KI-generierte Musik wirft zunächst die Frage auf, ob es den Menschen in der Musikproduktion in Zukunft überhaupt noch braucht. Welche Legitimation werde ich als Musikerin oder Musiker noch haben, wenn KI-Systeme erfolgreichere Songs produzieren können, als ich es selbst vermag? Schon jetzt können KI-Systeme wie beispielsweise Flow Machines von Sony CSL Research Laboratory komplexe Kompositionen ersinnen – hier kann man tatsächlich von eigens KI-komponierten Songs sprechen. 2017 wurde medienwirksam mit dem vermeintlich ersten KI-komponierten Pop-Song der Welt getrumpft – „Daddy’s Car“, ein Song, der an Beatles und Oasis erinnert. Und im Jahr darauf folgte, basierend auf derselben Tech-Plattform, „Hello World“ von Skygge aka Benoit Carré, das wohl erste KI-produzierte Popalbum der Musikgeschichte.

Das zeigt: Insbesondere Funktionsmusik – Musik für Film, TV und Games –, aber auch Unterhaltungsmusik könnte zukünftig größtenteils von KI-Systemen produziert werden. Wer heute auf der Suche nach Hintergrundmusik für ein Video ist, wird schon jetzt problemlos bei Jukedeck fündig. Dort existiert seit einigen Jahren ein Genre, wo sich eine Stimmung und eine Länge eingeben lässt – beispielsweise „Pop“, „melancholisch“ und „15 Sekunden“ – und eine KI liefert in wenigen Sekunden das ab, was gebraucht wird. Kein Ärger mehr mit dem Urheberrecht, und das für gerade mal ein paar Cent. Ähnliches gilt auch für „adaptive Musik“. Man stelle sich hier ein Computerspiel vor mit einem musikalischen Grundthema und vielen Variationen. Mit Systemen von Anbietern wie Melodrive können „immersive“ Soundtracks originell und in Echtzeit produziert werden. Immersiv bedeutet, dass Nutzer allumfassend in eine virtuelle Umgebung eintauchen können – visuell und akustisch. Diese Technologie steckt zwar immer noch in den Kinderschuhen, entwickelt sich aber rasant.

Auf der einen Seite sind die ursprünglichen Erlösmodelle der Musikindustrie seit den letzten Jahren durch den digitalen Umbruch ins Wanken geraten, die Eigenverantwortung für Musikschaffende steigt, aber auch die Experimentierfreude dank digitaler Durchdringung. Auf der anderen Seite nimmt die Gleichförmigkeit gerade darüber zu

Kreativität, Kohle, KI

Aber bringt all das mehr Vielfalt? Multipliziert es die Alternativen oder entstehen dadurch gerade erst neue Monokulturen? Und wer verdient daran? Auf der einen Seite sind die ursprünglichen Erlösmodelle der Musikindustrie seit den letzten Jahren durch den digitalen Umbruch ins Wanken geraten, die Eigenverantwortung für Musikschaffende steigt, aber auch die Experimentierfreude dank digitaler Durchdringung. Auf der anderen Seite nimmt die Gleichförmigkeit gerade darüber zu – und das hat viel mit dem digitalisierten Markt zu tun. Denn schon jetzt entscheiden über Erfolg oder Misserfolg beim Streaming die ersten 30 Sekunden. Die großen Streaming-Anbieter bauen darum aktuell viele kleine Radiostationen für ihre Hörerschaften auf, allein Spotify hat aktuell 4.500 kuratierte Playlisten. Nur: Das Alternative oder weniger Bekannte flutscht meist durch den digitalen Suchlauf. Und gerade darum verdienen Kunstschaffende kaum daran. Schuld sind aber nicht nur die Streaming-Dienste und die Plattenfirmen, weil sie Künstler schlecht entlohnen. Schuld daran sind auch wir als Musikkonsumierende. So fanden die Wirtschaftswissenschaftler Nils Wlömert und Dominik Papies in einer Studie heraus, dass Spotify-User weniger Geld für CDs und Downloads ausgeben, sobald sie Spotify abonnieren – wer ein Spotify-Premium-Abo für 9,99 Euro pro Monat abschließt, gibt knapp ein Viertel weniger für Alben, Singles und einzelne Songs aus. Digitalisierung heißt also auch, dass keinesfalls alle davon profitieren und dass sich Monokulturen erst festsetzen können. Immer mehr Musikschaffende und Manager passen Musik auch schon jetzt den Hörgewohnheiten und dem Nutzerverhalten im Netz an. Außerdem investiert Spotify gerade selbst massiv in KI, was dazu führen könnte, dass wir zukünftig von den Plattform-Betreibern immer mehr KI-Musik in unsere Playlisten eingebaut bekommen. Daher könnte – im Umkehrschluss – das bestehende Urheberrecht ein wichtiger Promoter für die Entwicklung von künstlich erzeugter Musik werden. 

 

Könnte auch E.T. on KI sein, sind aber Screenshots aus dem Video "Magic Man" des Albums "Hello World" von Skygge aka Benoit Carré, dem wohl ersten KI-produzierten Popalbum der Musikgeschichte. Directed by Jean-François Robert

Was heißt das? Wird kreative Eigenleistung am Ende damit auf dem Altar KI-generierter Musik geopfert? Jein. Denn was aktuell tatsächlich eine Neuerung verspricht, ist das sogenannte „Deep Learning“ – und hier sind wir erst am Anfang. Es arbeitet als eine Unterform des maschinellen Lernens mit künstlichen neuronalen Netzen, die Strukturen selbst erkennen, die Ergebnisse evaluieren und sich in vielen Durchläufen, während der laufenden Anwendung, verbessern, „selbst lernen“ – ohne menschliches Zutun. Bezogen auf die Musikproduktion bedeutet das, dass künstliches Wissen heute aus alten Songs generiert werden kann. Das können bestimmte Datenpunkte eines Songs sein – oder dieSongstruktur. Dieses Wissen wiederum kann erneut verallgemeinert werden und für neue Songs Anwendung finden. Musikkulturell könnte der flächendeckende Einsatz von KI perspektivisch damit einerseits zu mehr gleichförmiger KI-generierter,„generischer“ Musik führen, andererseits aber auch eine Renaissance von experimenteller Musik bedeuten, die bis auf Weiteres eine Domäne des Menschen bleiben dürfte. Denn selbst wenn eine Musik-KI zufällig so etwas wie die Zwölftonmusik komponieren würde, könnte sie nicht den soziokulturellen Kontext beisteuern, der allerdings notwendig wäre, um andere Menschen davon zu überzeugen, diese als Kunst zu akzeptieren. Der Mensch wird vorerst Gatekeeper dessen bleiben, was andere Menschen als Kunst akzeptieren.

Digitalisierung heißt auch, dass keinesfalls alle davon profitieren und dass sich Monokulturen erst festsetzen können. Immer mehr Musikschaffende und Manager passen Musik auch schon jetzt den Hörgewohnheiten und dem Nutzerverhalten im Netz an. Was aktuell aber tatsächlich eine Neuerung verspricht, ist das sogenannte „Deep Learning“ – und hier sind wir erst  am Anfang

Auch andere Technologien werden die Musik als ganzheitlich sinnliche Erfahrung revolutionieren können. Vor allem der Bereich der Musik-Performance wird in nächster Zeit unter dem Stichwort „Gestural Music“ massiv von der Entwicklung und dem Einsatz neuer Mensch-Maschine-Schnittstellen profitieren. Spannend sind hier vor allem neue Wearables, die mit Bewegungssensoren bestückt werden, mit deren Hilfe elektronische Musik per Körperbewegungen oder Gesten gesteuert und manipuliert wird. „Mi.Mu Gloves“ sind beispielsweise komplexe und hoch sensible Sensorhandschuhe, mit der die holländische Musikerin Chagall ihre eigene Stimme live verfremdet. Wer einmal einem Elektronik-Live-Act beigewohnt hat und sich über die Anti-Show von verkopften Knöpfchendrehern aufgeregt hat, versteht sofort, welchen Zugewinn diese Technologie für zukünftige Bühnenshows bedeuten könnte. Im nächsten Entwicklungsschritt werden Gehirn-Computer-Schnittstellen (Brain Computer Interfaces, kurz BCI) nicht nur im performativen Bereich die Steuerung von Geräten oder Effekten revolutionieren.

Das wäre dann ein in der Tat für die Zukunft nicht nur experimenteller Hörgenuss. Es wäre eine Vervielfältigung in der Breite. Denn es würde nicht nur Hörgenuss maximieren. Es würde auch in puncto Barrierefreiheit für Menschen mit schweren körperlichen Einschränkungen die Möglichkeit schaffen, Musik künftig qua Gehirnwellen zu komponieren und auch zu performen. Und mehr Inklusion durch Digitalisierung zu schaffen, das wäre zur Abwechslung mal ein echter Game-Changer.

Kategorie: Specials

rss

Schon gelesen?

schließen
schließen