Translate

Freitag, 23. Oktober 2009

Digitale Klangästhetik wird zur Popkultur

Die aktuelle Arbeitsweise der Produzenten entgleist immer mehr in einen Wahn der perfekten Musik. Wo früher noch MIDI-Spuren hin und hergeschoben wurden, sind es heute live eingespielte Takes, die vom Sänger über die Gitarren bis zum Schlagzeug alle tonal und zeitlich begradigt und aufpoliert werden. Selbst die schägsten und schiefsten Töne werden wieder auf Kurs gebracht. Unglaublich?

Für normale Rezipienten vielleicht, für Studiotechniker und Toningenieure ist es die alltägliche, reale Welt der Musikproduktion. Die technischen Möglichkeiten liegen inzwischen weit hinter den Vorstellungen der Radiohörern und Musikkonsumenten. Die moderne Technik lässt die gezielte Korrektur von Stimmen, ganzen Akkorden und eingespielten Schlagzeugspuren schon seit längerem zu - und das (fast) ohne hörbare Artefakte.



Melodyne: SängerIn ist nur noch Lieferant des Rohstoffes "Stimme"


Nur das geschulte Ohr erkennt bei neu erscheinenden Popalben den zunehmenden Einsatz von Melodyne, Autotune und vergleichbare Programme/PlugIns. Denn sie hinterlassen Artefakte. Das Signal klingt metallisch, statisch und irgendwie "glattgebügelt". Das Tremolo zum Ende vieler längeren Gesangspassagen (wenn der Ton durch der/die SängerIn gehalten wird) weißt eine Regelmäßigkeit in der tonalen Schwankung auf. Auf die Frage warum denn im Produktionsprozess Fehler digital korrigiert werden statt es den Künstlern zu überlassen, folgt als Begründung der Musikindustrie:

"Erfolgsdruck, gestiegenen Ansprüche der Rezipienten an einen tonal sauberen Klang und (wen wundert es noch) den gestiegenen Zeitdruck in der Produktion."

Kein Toningenieur hat mehr Zeit dafür, den Sänger hundert Takes singen zu lassen und danach die besten Passagen auszuwählen, wohlmöglich noch durch den/die SängerIn selbst!
Aussehen ist Gold, Singen ist Plastik!

Heute heißt es: "Einsingen und weg!" Unterstützt wird die Beschleunigung des Produktions- und Verwertungskreislaufes durch Casting-Formate wie "DSDS" oder "Popstars". Hier wird gezielt nach Stereotypen gesucht, die hauptsächlich gut aussehen und passabel singen können. Diese Ansprüche erfordern den Zwang, immer wieder neue Künstler zu casten, neue Titel zu produzieren, diese crossmedial (auf vielen Kanälen) zu hypen und zeitig wieder fallen zu lassen. Für eine langfristige Investition in die Marke "Künstler" wird keine Zeit verschwendet - diese Methodiken haben sich in der Vergangenheit nicht gerechnet, da ein zu hohes Investitionsvolumen aufgebracht werden muss und der "Return on Investment"(Erfolg des eingesetzten Kapitals / Investitionszinssatz) erst nach Jahren erkennbar ist.

Das in ProTools verfügbare PlugIn "BeatDetective" lässt ebenso wie das Programm "Recycle" von Propellerheads ganze Audiospuren bearbeiten und quantisieren. So sind eingespielte Bässe, Gitarren oder Klavierakkorde zeitlich korrigierbar und neu arrangierbar.

ProTools: BeatDetective - Untalentierte Schlagzeuger werden digital zu tightesten Profis
Auch Aufnahmen von betrunkenen Schlagzeugern können nachträglich korrigiert werden. Hat der Drummer die Snare nicht sauber getroffen, können mit PlugIns wie "iDrum" oder "Drumagog" gezielt diese Stellen erkannt und automatisiert durch andere Samples ausgetauscht werden! Was bleibt ist ein gesunkener Anspruch an professionelle Musiker, unendliche Möglichkeiten der Perfektionierung und Optimierung und erhebliche Einsparungen inden Produktionskosten durch kürzere Produktionszeiten (Profimusiker und Studios verdienen pro Stunde, nicht pro Song!).
Der Quantisierungswahn geht bei Polarkreis 18 bis an die Grenzen ertragbaren. Live eingespieltes Schlagzeug tickert so syncron wie ein analoger Sequenzer aus alten Zeiten - Save the last Drummer!
Früher war Playback verpöhnt, heute ist es Live geschönt!

Der Einsatz der PlugIns lässt besonders im Popbusiness nicht nur gecastete Popsternchen wie perfekt ausgebildete Popdiven klingen, auch bereits etablierte Künstler lassen sich durch ihren eigenen Perfektionismus oder den Kontrollwahn des Produzenten beeinflussen. Sogar das Liveerlebnis vor der Bühne wird durch Korrektur und Quantisierung in Echtzeit terrorisiert. Das Mikrofonsignal des Sängers kommt nicht direkt auf die Boxen zum Hörer - es durchläuft einen Computer, der mit einem Haufen PlugIns und den Einstellungen aus dem Studio bestückt ist. So klingt die Live-Performance perfekt wie im Studio - keine Ausrutscher, kein schiefes Gequieke, jeder Ton ist gerade und perfekt. Was bleibt ist eine erhebliche Veränderung der Klangästhetik beim Hörer. Regte sich früher die ganze Republik über Playback-Skandale wie bei Milli Vanilli auf, wird heute das Livesignal einfach in Echtzeit korrigiert. Damit wird dem Künstler aber auch der Raum für Spontanität genommen, ein Konzert gleicht dem anderen, der Sound klingt wie direkt aus dem Studio. Schon Kraftwerk hatte 1978 mit der Performance zum Lied "Die Mensch-Maschine" den Einfluss der Digitalisierung in die Musik geahnt. Sie waren mit ihrer Vision dem üblichen Verständnis von Musik als Produkt weit voraus.
Die Klangästhetik der Popkultur verkommt zur fehlerfreien, perfekten Musik.


Dieser Prozess bleibt bei den Rezipienten nicht ohne Folgen. Die Hörgewohnheiten verändern sich, die Nachfrage nach kurzlebigen, perfekten und quantisierten Songs steigt. Leichte Abweichungen von der gleichstufigen Chromatik werden als äußerst schief und falsch interpretiert - das Gehör wird empfindlicher gegenüber Klängen, die nicht in das Schema der von Bach angeregten wohltemperierten Stimmung passen. Musiker die noch ohne Korrektur und Quantisierung arbeiten, haben auf dem Popmarkt keine Chance mehr.
Die Chance für elektronische revolutionäre Musik.

Die Konsequenz daraus wäre eine Gegenbewegung, deren Potential schon Theodor W. Adorno mit dem Buch "Philosophie der neuen Musik" 1949 erkannte. Was er als allgemeine Ästhetik definierte, sollte durch atonale Musik gebrochen werden. Die deutsche Band "Einstürzende Neubauten" realisierte Musik jenseits von festen tonalen Skalen und Chromatiken. Die Umsetzung atonaler Musik für den Homerecording-Musiker fällt dagegen schwer. Sämtliche Einstellungen des Computers verbieten eine Neudefinition der genutzten Chromatik - die 12-Ton-Musik mit ihren gleichmäßigen Abständen steht als feststehendes Gesetzt über dem musikalischen Freidenker.


Was bleibt ist die Nutzung bestimmter Synthesizer, deren (meist unbekannte) Möglichkeit in der Definition eigener Chromatiken/ Tonalitäten besteht. Ein äußert interessanter Ansatz, einfach mal 24-Ton-Musik zu machen, oder sogar 30-Ton-Musik. (Vgl. KORG Z-1) Die Frequenzverteilungen nach Zufallsprinzip unterstützen die meisten Synthesizer, wobei ein LFO nach dem Zufallsprinzip dem VCO einen Grundton vergibt. Durch eine zusätzliche Steuerung des LFO-Tempos durch die Tasten (Note an/Note aus) sollte der LFO bei Note an still stehen, während bei Note aus der LFO schwingt und so einen neuen Ton wählt. Als letztes können Störgeräusche aufgenommen werden und mit einfachen Samplern abgespielt werden. Dies ist die einfachste Art atonal zu arbeiten und so dem "Gesicht der festgefahrenen Hörgewohnheiten" den (pardon) ausgestreckten Mittelfinger entgegenzuhalten.

Keine Kommentare: