Digital killed the Radio Star: Warum irgendwann alle Popsongs gleich klingen werden

Jeder, der schon einmal den kommerziellen Musiksendern im Radio gelauscht hat, ist sicherlich dem Eindruck erlegen, dass die Pop-Musik größtenteils sehr ähnlich klingt. Es wäre doch dann aber zu einfach, diese Beschwerde als das bloße Nörgeln der Alten und der Zyniker abzutun, doch tatsächlich bestätigt die Wissenschaft: Die Pop-Musik ist im Laufe ihrer Geschichte sehr homogen gewesen – und wird es sogar immer mehr. In einer Studie aus dem Jahr 2014 untersuchten Wissenschaftler aus den USA und Österreich über 500 000 Alben über 15 Genres und 374 Sub-Genres. Die Komplexität jedes Musik-Genres im Laufe der Zeit wurde mit seinen Verkäufen verglichen. Und fast immer war es so, dass Genres mit zunehmender Popularität immer ähnlicher klangen. Für sich genommen bedeutet dies jedoch nicht viel, da Genres und Sub-Genres immer wieder auseinander hervorgehen. Es mag als Binsenweisheit betrachtet werden, dass ein Genre als etabliert gilt, sobald seine Regeln definiert sind – und dass, sobald das Genre etabliert ist, Abweichungen davon in neuen Genres oder Sub-Genres resultieren. So entwickelte sich beispielsweise Funk als ein neues Genre aus dem Soul und R’n‘B heraus, mit einem weit stärkeren Fokus auf den Bass und den rhythmischen Groove. Eine andere Studie aus dem Jahr 2012 untersuchte die Entwicklung der westlichen Popmusik, indem sie auf ein großes Archiv zurückgriff, das als das ‚Million-Song-Dataset‘ bekannt ist, und das eine gewaltige Menge an Daten über den Inhalt jedes Songs enthält. Sie fand heraus, dass zwischen 1955 und 2010 die Songs lauter und weniger vielfältig in Bezug auf ihre musikalische Struktur geworden sind. Dies sind Trends – doch die Wahrnehmung vieler Zuhörer ist, dass diese Homogenisierung der Musik in den letzten Jahren einen großen Sprung vorwärts gemacht hat. Und es gibt eine Reihe wichtiger, technologischer Entwicklungen, die dies möglich gemacht hat.

Der Krieg der Lautstärke

Kompression über einen großen Dynamik-Bereich ist das (meist automatisierte) kontinuierliche Anpassen der Level eines Audio-Signals mit dem primären Ziel, die Variationen in der Laustärke zu reduzieren. Ihre übermäßige Anwendung hat zu einem „Krieg der Lautstärke“ geführt. Der Musiker, der eine laute Aufnahme haben möchte, der Produzent, der eine Klangmauer haben möchte, die Techniker, die sich mit den wechselnden Lautstärke-Leveln während der Aufnahme befassen, die Ingenieure, die die Inhalte für die Veröffentlichung vorbereiten und die Sendeanstalten, die um Zuhörer kämpfen, sind alle Kämpfer in diesem Krieg der Lautstärke. Doch der Krieg der Lautstärke ist möglicherweise bereits an seinem Höhepunkt angelangt. Audiowissenschaftler äußern sich besorgt darüber, dass die anhaltende Lautstärke neuer Platten Hörschäden produzieren könnte und Musiker heben das Problem mit der Klangqualität hervor. Es wurde einmal jährlich der Tag des dynamischen Ausgleichs ins Leben gerufen, um das Bewusstsein dafür zu stärken. Es entstand die Non-Profit-Organisation ‚Turn Me Up!‘, um Aufnahmen mit einer größeren dynamischen Bandbreite zu bewerben. Normierungsorganisationen haben Empfehlungen dafür bereitgestellt, wie Lautstärke und Lautstärke-Bereiche für die zu veröffentlichenden Inhalte gemessen werden können. Sie haben auch die jeweils angemessenen Bereiche für jene Werte empfohlen. Zu den Entwicklungen mit dem Ziel, einen Waffenstillstand im Krieg der Lautstärke zu etablieren, war es ein weiter Weg.

Und dann kam der Autotune

Doch es gibt noch einen anderen technologischen Trend, der keine Anzeichen des Niedergangs zeigt. Autotune, von einer überraschend hohen Anzahl der Plattenfirmen heutzutage benutzt, um die Tonhöhe ihrer Sänger zu korrigieren, entstammt ursprünglich einem Nebenprodukt in der Bergbauindustrie. Von 1976 bis 1989 arbeitete Andy Hildebrand in der Ölindustrie und wertete seismische Daten aus. Durch das Senden von Schallwellen in den Boden konnte er die Reflexionen aufdecken und potentielle Bohr-Standorte ausmachen. Er untersuchte die Benutzung von Schallwellen, um unter der Erde Öl aufzuspüren. Hildebrand, allgemein bekannt als Dr. Andy, hatte Komposition an der Rice University in Houston, Texas, studiert und wandte sein Wissen in beiden Bereichen an, um Audioverarbeitungsprogramme zu entwickeln. Das berühmteste ist eben jenes Autotune. Bei einer Abendgesellschaft forderte ihn ein Gast heraus, ein Werkzeug zu entwickeln, das dabei helfen würde, richtig zu singen. Basierend auf dem ‚Phase Vocoder‘, der eine Reihe mathematischer Methoden anwendet, um die Frequenzdarstellung eines Signals zu manipulieren, entwickelte Hildebrand Techniken, um Töne auf musikalisch relevante Art und Weise zu analysieren und zu bearbeiten. Hildebrands Kollege, Antares Audio Technologies, veröffentlichte Autotune Ende des Jahres 1996. Autotune war darauf ausgerichtet, falsche Töne zu finden und zu kaschieren.  Es bewegte die Höhe einer Note zum nächstmöglichen, korrekten Halbton (das nächste musikalische Intervall in der traditionellen, oktavenbasierten westlichen Tonmusik), und ermöglichte so, dass die Gesangsleistung für die Ohren einigermaßen gefällig war. Das ursprüngliche Autotune besaß einen Geschwindigkeits-Parameter, der zwischen 0 und 400 Millisekunden eingestellt werden konnte. Dieser bestimmte, wie schnell die Note zur Zielhöhe bewegt wurde. Techniker erkannten schnell, dass dies als ein Effekt genutzt werden könnte, um Töne zu verfälschen und es klingen zu lassen, als ob der Ton von Note zu Note springe, während er dabei perfekt und unnatürlich im Einklang bleibt. Es gibt der Stimme außerdem einen künstlichen, synthesizerartigen Klang, der je nach persönlichem Geschmack irritierend oder angenehm sein kann. Dieser unübliche Effekt wurde der Markenzeichen-Sound von Chers Song ‚Believe‘ vom Dezember 1998, der die erste kommerzielle Aufnahme darstellte, die den hörbaren Nebeneffekt von Autotune bewusst anwendete. Techniker und Interpreten fanden eine kreative Möglichkeit, Autotune zu nutzen, der von der intendierten Nutzung deutlich abwich. Wie Hildebrand sagte: „Ich hätte niemals erwartet, dass jemand bei klarem Verstand so etwas wollen würde“. Dennoch sind Autotune und konkurrierende tonhöhenkorrigierende Technologien, wie beispielsweise ,Celemony’s Melodyne‘, mittlerweile bei Amateur- und bei professionellen Aufnahmen – sowie über viele Genres hinweg verbreitet und werden künstlerisch angewendet – egal, ob dies nun so gedacht war oder nicht. Es ist sogar so vorherrschend, dass es heutzutage beinahe universell bei kommerzieller Pop-Musik erwartet wird. Kritiker sagen, dies sei einer der Hauptgründe, warum heutzutage so viele Aufnahmen gleich klängen (obwohl der Lautstärke-Krieg und die generelle Überproduktion auch bedeutende Faktoren sind). Und einige junge Zuhörer, die damit aufgewachsen sind, mit Autotune bearbeitete Musik zu hören, glauben sogar, dass ein Sänger mangelndes Talent hat, wenn sie eine unbearbeitete Stimme hören. Autotune wurde in der Musik, beim Fernsehen und in den sozialen Medien verspottet. Das Time Magazine bezeichnete es sogar als eine der „50 Schlimmsten Erfindungen“. Dennoch, wenn auch dezent, wächst die korrigierende und kreative Nutzung weiterhin. Und wenn Sie Chris Brown nicht mehr von Kanye West unterscheiden können, dann könnte dies an Dr. Andy liegen. Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Rihanna“ by avrilllllla (CC BY 2.0)


ist Lektor im Zentrum für digitale Musik an der Queen-Mary-Universität in London. Er beschäftigt sich vor allem mit dem Gebrauch hochmoderner Verarbeitungsverfahren für Tontechnik.


Artikel per E-Mail verschicken
Schlagwörter: , , , , , , , , ,

2 comments

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert