Freitag, 6. März 2015

Was wir Musiker wirklich brauchen

Es gibt immer wieder Hürden und Hindernisse, die den kreativen Workflow im eigenen Studio unterbrechen. Hürden und Hindernisse, die in jeder DAW stecken oder dann auftreten, wenn ein externer Klangerzeuger oder ein Hardware-Controller mit der DAW verbunden wird.
Woran es liegt? Vielleicht daran, das sich die Producer-Gemeinschaft schon an die Unzulänglichkeiten gewöhnt hat. Und das wir für diese Hürden und Hindernisse unsere eigenen Workarounds gefunden haben.


Dennoch frage ich mich an manchen Tagen, warum es immer noch keine Lösung für einige dieser Probleme gibt. Wenn man die Zeitfresser erkennt und genauer betrachtet, ist eine Lösung gar nicht mehr so schwierig. Ich nenne hier mal ein paar meiner größten Zeitfresser, die immer wieder meinen kreativen Flow unterbrechen, und ich Zeit mit unnötigen Tätigkeiten verschwenden muss.


Zuweisung von Plugin-Parametern für Hardware Controller

Ich weiß nicht, wie oft der normale Producer unter uns seine Hardware Controller wechselt. Ich bisher eher selten - mit meiner NI Maschine und einem USB-Keyboard habe ich alle Controller zur Hand, die ich benötige um schnell und effektiv zu arbeiten. Aber auch wenn man regelmäßig seine Controller austauschen würde - ist es wirklich notwendig, das ich jedes Mal in einem neuen Projekt oder für neu hinzugefügte VST-Instrumente (und Effekte) per MIDI-Learn die Parameter mit meinem Hardware Controller verknüpfen muss? Eigentlich nutze ich nur eine Handvoll von VST-Instrumenten und Effekten, daher sollte es doch möglich sein, das meine Einstellungen als Presets in der DAW gespeichert werden - und wenn ich das VST-Instrument neu lade, kann die DAW doch mein Regler-Zuweisungs-Set einfach als "Standard" wieder abrufen.


Was ich mir für die Zukunft wünsche, ist eine separate Preset-Liste für meine Hardware-Controller-Einstellungen, die pro VST-Instrument (oder Effekt) gespeichert werden können. Diese Liste befindet sich neben der Sound-Preset-Liste. Ein Preset kann als Standard eingerichtet werden und wird mit dem bestehenden oder einem neuen Projekt geladen.




OSC-Protokoll neben MIDI

Die Verbindung zwischen externen Synthesizern und der DAW wird meistens über MIDI erstellt. MIDI - ein Standard der seit 1982 besteht und seit dem nicht wirklich großartig geändert wurde.


Doch es gibt einige Kritikpunkte an dem über 30 Jahre alten Standard:

  • Die Auflösung: Es gibt nur 128 Stufen pro Controller - somit kann ein Parameter, der in der DAW aufgenommen wird, nur maximal 128 unterschiedliche Zustände besitzen. Bei manchen Parametern ist dies durchaus ausreichend, aber für die Steuerung von Filterfrequenzen oder LFO-Frequenzen ist diese Einteilung zu grob.

    Ein Vergleich zwischen der Parameter-Steuerungen direkt am Synthesizer und der Parameter-Steuerungen per DAW zeigt, das Pegelsprünge bei MID definitiv bemerkbar sind. Bei solch einem Vergleich ist allerdings darauf zu achten, das das Synthesizer nicht auch intern mit nur 127 Schritten arbeiten. Am Besten ist es, wenn der Vergleich mit einem midifizierten Analog-Synthesizer stattfindet.

  • Die Latenz: Das Auslösen eines Tons benötigt 3 Byte. Die Übertragung dauert im Idealfall 0,960 Milisekunden. Kein Problem, solange nur eine Taste gedrückt wird. Wenn aber eine Groovebox mit mehreren Instrumenten vor sich her rappelt, und man noch zusätzliche Parameter automatisiert hat, dann tritt der Effekt deutlich hervor - ärgerlich für LIVE-Auftritte. Auch die MIDI-Clock oder MTC-Sync-Informationen sind von der Latenz betroffen, wenn diese über die gleiche Leitung laufen - und das ist Standard, denn die wenigsten Geräte besitzen mehrere MIDI-Eingänge.

  • Stimmungen und Skalen: Stimmungen und Skalen, die von der temperierten Stimmung abweichen, können nicht realisiert bzw. von der DAW erkannt werden. Es muss eine manuelle Anpassung beider miteinander verknüpften Geräte passieren. Das ist besonders bei der Arbeit mit orientalischen Klängen oder bei experimentelleren Skalen nervig und zeitraubend.

MIDI ist DER Standard geworden, fast jedes Instrument oder Interface hat inzwischen ein MIDI-Duo an Board. Aktuell wird USB für den Direktanschluss an einen Rechner immer beliebter. Das ist eine gute Alternative - allerdings nicht die Beste, denn damit kann das Gerät nur an einen Rechner angeschlossen werden. Das Verbinden zweier USB-Geräte ist nicht möglich!


Die MIDI-Alternative

Die Alternative zu MIDI gibt es schon länger, und ich bin davon überzeugt das die Integration der neuen Schnittstelle Gerätehersteller nicht vor unlösbare Probleme stellt. Das Open Sound Protokoll, kurz OSC genannt bietet für den multimedialen Bereich viele Vorteile die sich nicht nur auf die Übertragung von digitalen Steuersignalen beschränken.

Damit bei Nutzung von OSC die MIDI-Nutzung nicht komplett wegfällt, wäre eine Umstellung zwischen dem MIDI- und dem OSC-Protokoll direkt im jeweiligen Gerät eine durchweg realistische Möglichkeit, um die MIDI-Anschlüsse für beide Protokolle zu verwenden. Ein separater RJ-45 Anschluss (üblicher Netzwerk-Anschluss) ist daher nicht notwendig, wäre aber von Vorteil.

Es gibt wie überall auch hier Licht und Schatten.
Die Vorteile von OSC:

  • Eine höhere Geschwindigkeit bei der Datenübertragung - und somit keine Latenzprobleme, Sound-Dropouts oder stolpernde Soundausgabe

  • Keine Parametersprünge mehr - Gleitkommazahlen ermöglichen saubere, glatte Frequenzänderungen

  • OSC kann über ein Netzwerk übertragen werden - somit auch über das Internet, LAN, WLAN etc. Damit kann in Zukunft ein Endgerät das in Holland steht, durch ein Nutzer in Australien gesteuert werden. Damit wird der Traum eines weltweiten Internet-Jams Realität.

  • Kein separates MIDI-Interface - das Gerät kann einfach in das Netzwerk eingeklingt oder kabellos über WLAN integriert werden.

Höhere Geschwindigkeit, keine Parametersprünge, Datenübertragung per WLAN, eine Netzwerkkarte als Interface. Her damit! Das klingt ja traumhaft! Doch wo ist der Haken?

Die Nachteile von OSC - und mögliche Lösungsansätze:


  • Bezeichnungen der Nachrichten sind nicht standardisiert
    Das ist ein Hindernis, aber kein großartiges Problem.
    Ein Lösungsweg ist die Übernahme der bereits bekannten Bezeichnungen des MIDI-Protokolls in einen vorläufigen OSC2MIDI-Standard mit der Verbesserung der bekannten Auflösungsproblematik.

    Ein anderer Weg könnte ein Protokoll-Dolmetscher-Programm (Daten-Übersetzer) sein, in dem die OSC-Daten zweier Geräte analysiert und per Drag & Drop über virtuelle Kabel verbunden werden. Das bietet zudem eine wunderbare Spielwiese für Klangtüftler, denn so ist die Nutzung einer Modulationsmatrix über mehrere Geräte hinaus möglich. Für diese Idee ist noch nicht einmal OSC in allen Geräten zwingend notwendig.
    So kann OSC sehr einfach in MIDI-Daten umgewandelt werden - auch wenn die MIDI-Geräte ohne OSC weiterhin mit den MIDI-Unzulänglichkeiten zu kämpfen haben.
    Wichtiger ist der sofortige Start der OSC-Integration in neue Geräte und die Möglichkeit, neue OSC-Protokolle in die Geräte zu laden - von mir aus auch per MIDI System Exklusive Nachrichten :-)


  • Integration einer Netzwerkschnittstelle für Hardware-Hersteller zu teurer und umständlich
    Ja und? Wird denn für die Übertragung von OSC-Informationen zwingend UDP benötigt? NEIN! OSC ist unabhängig vom Transportprotokoll. Es kann also auch über eine serielle Schnittstelle (und damit auch über die MIDI-Buchsen) übertragen werden. Es muss nur im Gerät ein Chip integriert werden, der auf Basis des installierten OSC-Protokolls die Daten übersetzt und in Paketen überträgt, ebenso wie der Empfänger die Pakete lesen können muss. Wir reden hier somit nicht von der Integration eines ganzen Servers in einen Synthesizer, sondern von einem kleinen DSP-Chip.

    Wenn mehr Übertragungsbandbreite benötigt wird, können auch alle 5 Signalwege von MIDI genutzt werden - das sind aktuell bei MIDI bisher nur immer 3 Signalwege!

OSC in die DAW

Auch wenn der OSC-Standard nur von wenigen Leuten genutzt wird - eine Integration bzw. Unterstützung des Protokolls auf DAW-Ebene wäre ein erster Schritt, um den Geräteherstellern zu signalisieren, das OSC nicht länger ein experimentelles Protokoll aus der Berkley-Uni ist. Es wird bisher sehr stiefmütterlich behandelt und nur von einigen Multimedia-Nerds und "Audiovisualisten" (Künstler die Audio und Video in Kunstwerken verbinden) genutzt. Dort aber mit viel Erfolg und viel Freude!


Die Lösungen der Probleme liegen ist wie so oft direkt auf der Hand. Und um die beiden angesprochenen Themen - virtuelle Instrumente und OSC Protokoll - gedanklich zu verknüpfen, hier noch eine Anregung: Warum wird nicht OSC intern zur Kommunikation von virtuellen Instrumenten als Standard verwendet? Statt dessen muss ein Hersteller für virtuelle Instrumente alle Schnittstellen separat implementieren - VST, AudioUnit, DirectX, RTAS, AAX, LV2 und so weiter. Wäre nicht auch hier ein einheitlicher Standard endlich fällig?


Liebe Hersteller von Sequenzer-Programme, Synthesizern und Hardware-Controllern, macht bitte eure Hausaufgaben und setzt euch zusammen, damit wir Musiker und Producer uns wieder auf das konzentrieren können, was wir alle so lieben: das Musizieren!

Freitag, 31. Januar 2014

Zu viele Warp Marker killen Nuendo

Zu viele Warp Marker killen Nuendo

Bei einer extensiven Nutzung von Warp Markern kommt Nuendo definitiv ins Schleudern!

Wie stellt sich das Problem dar?
  • Ein Projekt mit einigen Audiospuren und Warpmarkern wird geladen.
  • das Projekt wird von Anfang an abgespielt - alles ok
  • Jetzt das Abspielen stoppen und in der Mitte oder am Ende das Projekt abspielen
  • Die Audio-Engine bzw. Nuendo hängt sich auf bzw. spielt keine Audio-Datei mehr ab
  • Nur ein Beenden und Neustart des Programms behebt den Fehler (manchmal)

Ich hatte den Fehler erst auf fehlerhafte/alte Installation von Windows und Nuendo zurückgeführt. Nach einer kompletten Neuinstallation von Windows und Nuendo war das Problem aber weiterhin vorhanden. Andere Projekte ohne Warpmarker funktionierten zudem einwandfrei.

Hintergrund war eine Bearbeitung 4 Spuren mit Warpmarkern. Die Spuren sind je ca. 5 Minuten lang und in einem Stück. Nuendo 4 spielt bei Neuladen des Projektes alle Spuren (VSTi und gewarpte Audiospuren) nur einmal. Bei erneutem Abspielen wurden keine der Audio-Spuren mehr abgespielt - nur noch die VST-Instrumente.

Auch mit meinem 64 Bit System reicht anscheinend die interne Speicherverwaltung von 4GB nicht aus, um 4 Spuren mit je 5 Minuten adäquat zu verwalten. Da ich die Warpmarker fast auf jede erste Zählzeit gesetzt habe, kommt da einiges zusammen. Grob kalkuliert bei 110 BPM * 5 Minuten sind das 550 Warpmarker pro Spur, auf 4 Spuren also 2200 Warpmarker. Besonders am Ende des Tracks setzt es immer aus - da eine der Spuren extrem gestaucht wurde, muss Nuendo das ganze File berechnen um am Ende des Files den richtigen Startpunkt zu erwischen - und kommt dabei so aus dem Tritt, das sich die komplette Audio-Engine aufhängt. Hier hilft nur noch Neustart.

Der Workaround

Das Problem kann wie folgt umgangen werden:

  • zerschneiden der einzelnen Audio-Spuren in kleinere Stücke + sofortiges Rendern als neue Datei (damit Nuendo kleinere Audiodateien verwalten muss)
  • sofortiges rendern der Audiospur, die mit Warpmarkern bearbeitet wurde
  • Update von Nuendo oder Wechsel auf Cubase 6 oder höher :-)

Da für mich die Warp-Marker in Nuendo immer noch ein Killerfeature ist, ist es schade, das die Größe/Länge der Dateien und die Anzahl der Warpmarker durch den Arbeitsspeicher begrenzt ist und Nuendo so extrem aus dem Tritt kommt - hier wäre ein Abfangen des Fehlers sehr wünschenswert gewesen. Ich denke das die neuen Versionen von Nuendo und Cubase dies besser können, da ich im Internet keinen Beitrag gefunden habe.

Andere DAW-Software wie Ableton haben hier weniger/keine Probleme mit dem warpen langer Dateien, allerdings hat Ableton einen ganz anderen Sequenzer-Ansatz der für mich im klassischen Mehrspur-Recording und Mixing nicht funktioniert - ehrlich, ich habe es schon probiert!

Freitag, 27. Dezember 2013

Mysterium Multiband Kompressor

Multiband Kompressoren

Ein Multiband-Kompressor wirkt wie ein dynamischer EQ und kann frequenzabhängig die Dynamik eines Signals bearbeiten.

Auch wenn man Standard-Kompressoren kennt und mit diesen gut arbeiten kann - ein Multiband-Kompressor ist nochmal eine ganz andere Nummer. Als erstes muss man sich für eine Aufteilung des gesamten Frequenzbandes (0Hz - 20kHz) in verschiedene Frequenzbänder entscheiden. Wo macht man hier den Schnitt zwischen Bässen, Mitten und Höhen? Und sollte der Mittenbereich nochmal aufgeteilt werden? Wie stelle ich optimal Threshold und Ratio ein? Was soll ich bei Attack und Release beachten? Alle Tipps und Beispiele beziehen sich auf den Waves C4 - die meisten Einstellungen können aber auch mit anderen Multibandkompressoren nachgestellt werden. Folgend eine kurze Liste der bekanntesten Multiband-Kompressoren.

Marktübersicht Multiband Kompressoren

Quelle: www.kvraudio.com


Die Liste ist natürlich nicht vollständig und beinhaltet nur einige VST-Effekte.

Komprimieren mit 3 Bändern

In einem Multiband Kompressor mit drei Bändern können wir das Frequenzspektrum zwischen Bässen, Mitten und Höhen unterteilen. Zwischen den Bändern liegen sogenannte Crossover-Bereiche. Die Crossover-Frequenzen können beispielhaft so angegeben werden:

  • Bass: 20-150 Hz
  • >Mitten: 150-6500 Hz
  • Höhen: 6500 bis 20.000 Hz

Wenn wir ein komplettes Standard-Musikstück einer Band (Drums, Gitarre, Bass, Gesang, keine Extras!) mal mit dem Waves C4 analysieren und das unterste Band mit der Crossover-Frequenz von 150 Hz einstellen sollte man im "SOLO" Mode nur die Bassdrum und etwas Bass hören. Je weiter die unterste Crossover-Frequenz nach oben geschoben wird, desto mehr untere Mitten werden hörbar. Hier kann der Bassbereich separat und unabhängig vom Rest der Frequenzen bearbeitet werden. Da in den unteren Frequenzen viel Energie steckt, verträgt der Bassbereich etwas mehr Kompression als die mittigen/hohen Frequenzen. Wichtig ist bei den Mitten, das die Einstellungen und die hörbaren Veränderungen sehr gering sein sollten, denn extreme Einstellungen verschlechtert eher der Sound. Dies soll lediglich einen ersten Eindruck geben, und bei der Einstellung der Crossover-Frequenzen helfen. Welche Kompressionseinstellungen genommen werden können, folgt.

Attack & Release (Waves C4)

Die Grundeinstellung mit der man starten kann ist:

  • De tiefen Bereich (1st Band) auf Solo stellen
  • Attack und Release auf 5ms stellen
  • Elektro-Modus aktivieren
  • Global Release auf "Manual" stellen
  • Range auf -10 einstellen
  • Threshold so einstellen, das sich in der grafischen Darstellung im ordentlich was bewegt

Jetzt wird der Bass sich sehr verzerrt anhören. Ein Vergleich kann über den Bypass-Knopf im 1st Band erreicht werden. Nun stellt man Attack & Release so ein, das die Transienten noch durchkommen (beim Bassband eher weniger davon vorhanden) und der Punch bleibt. Die Releasezeit sollte so eingestellt sein, das keine Verzerrung zu hören ist. Auch das Tempo des Songs ist hierbei wichtig, denn schnelle Songs (schnell gespielter Bass mit vielen, kurzen Noten) benötigt eher eine kurze Releasezeit, während Balladen mit lang stehenden oder ausklingenden Basstönen viel mehr Release benötigt.

Je höher die Frequenzen sind, desto weniger Verzerrungen sind bei extremen Einstellungen zu hören. Somit ist der Bassbereich ideal für einen Einstieg in die Multibandkompression. Zu kurze Attackzeit in dem mittleren und hohen Frequenzbändern erzeugt teilweise hohes Klicken der ersten Transienten beim Einsatz, zudem einen gequetschten Klang, die Musik wird richtig "heruntergedrückt" und kann "nicht mehr atmen". Zu lange Releasezeiten führen zu starken Verschiebungen in der tonalen Balance zwischen den hohen und den tiefen Frequenzen.

Der Peak-Cutter

Komprimieren - aber wie genau? Dafür gibt es zwei Extrem-Ansätze, die sozusagen die Ränder eines großen Einstell-Universums markieren. Den einen Rand nenne ich gerne den "Peak-Cutter", da mit diesen Einstellungen der Kompressor lediglich die Signal-Peaks wegschneidet. (Das gibt es übrigens auch als Plugin mit wenigen Knöpfen und nennt sich dann "Limiter")

Einstellungen:
  • Threshold: -3 bis -12 dB, eher weniger
  • Ratio: 5:1

Der Energizer

Das andere extrem ist ein Signalverdichter oder Energizer, der mit niedrigem Threshold ganz früh ansetzt und nur wenig komprimiert.

Einstellungen:
  • Threshold: -30 bis -40 dB, eher mehr
  • Ratio: 1,25:1 oder weniger

Zwischen den beiden Einstellungssets gibt es natürlich etliche Möglichkeiten.

Der Waves C4

Der Waves C4 hat in den Kompressor-Parameter ein paar Veränderungen ggü. dem "Standard" vorgenommen (damit meine ich klassische Kompressoren wie den Waves C1). Hier gibt es u.a. die Angabe einer "Range" statt einer "Ratio". Hier erklärt Waves die Einstellungen der Range wie folgt:

  • If Range is negative, you’ll have downward gain change.
  • If Range is positive, you’ll have upward gain change.
  • The real flexible fun happens when you offset this dynamic Range with a fixed Gain value.

Dabei ist eine "downward gain change" eine klassische Kompressor-Arbeit (wird es lauter, mach es leiser). Die "upward gain change" entspricht dem klassischen Expander. Mit "flexible fun" ist gemeint, das der C4 auch beides gleichzeitig kann - je nach Threshold und Range-Setting. Und wenn man mit dem C4 und dieser Einstellung etwas rumspielt, versteht man schnell das dies durchaus "flexible fun" sein kann, es aber auch schnell zur "flexible madness" wird. Darum wollen wir mal wieder zurück zu den Roots und schauen uns nacheinander die Anwendungsbeispiele des C4 an.

High-level Kompression

Dies ist der klassische Anwendungsbereich, um laute Passagen leiser zu machen und anschließend das ganze Signal per "Makeup Gain" lauter zu machen. Vorteil: Einfach und schnell, passt oft für die meisten Anwendungen. Nachteil: Wird zu oft falsch eingesetzt, erhöht das Grundrauschen, kann bei falschen Attack-Einstellungen die Transienten (Anschlag-Geräusche) zerstören und bei zu kurzen Release-Zeiten zu Verzerrungen oder zum Pump-Effekt hervorrufen.

C4 Einstellungen für High-level Kompression:

  • Threshold: -24 bis 0 dB
  • Range: -3 bis -9 (moderat)

High-level Expansion

Mit einem klassischen Expander kann leblosen Signalen mit wenig Dynamik (Lautstärkeschwankungen) etwas mehr Dynamik verliehen werden. Hier werden die lauten Passagen noch lauter gemacht - was zum Ziel hat, den Abstand zwischen den leisen und den lauten Passagen zu vergrößern. Dies kann u.a. Aufnahmen retten, die schon während der Aufnahme zu stark komprimiert werden. Hier genügt es beim C4, einfach der Range positive Werte zu geben.
C4 Einstellungen für High-level Expansion:

  • Threshold: -24 bis 0 dB
  • Range: +3 bis +9 (moderat)

Low-level Kompression

Aha - was ist denn das? Richtig, hier werden die leisen Passagen lauter, die lauten Passagen bleiben aber unberührt. Wo ist das sinnvoll? Nun wenn ich eine Akustikgitarre aufgenommen habe mit ordentlich Klang und Volumen, mir im Mix aber das Seitenanschlag-Geräusch zu leise ist, kann ich per low-level Kompression den Seitenanschlag verstärken, ohne das Klang und Volumen verloren geht (klar, geht auch mit anderen Mitteln). Oder die kleinen Tippser (Ghostnotes) der Snaredrum sind groovy aber zu leise - auch hier hilft der Low-level Kompressor.
C4 Einstellungen für Low-level Kompression:

  • Threshold: -24 bis 0 dB
  • Range: +3 bis +9 (moderat)

Low-level Expansion

Anders als der Name vermuten lässt, kann mit der Low-level Expansion ein Gate simuliert werden. Leise Passagen könne so noch leiser gemacht werden. Dies ist hilfreich, wenn es ein hohes Grundrauschen auf der Aufnahme gibt, das in den lauteren Passagen aber nicht weiter auffällt. Hiermit kann auch das Surren eines PC-Lüfters oder das Übersprechen der Kopfhörer-Signale bei Gesangsaufnahmen kompensiert werden.
C4 Einstellungen für Low-level Expansion:

  • Threshold: -60 dB
  • Range: +6
  • Gain: -6

The Power of Kombination

Richtig gut wird es erst, wenn man in einer Gruppen-/Busspur die verschiedenen Frequenzbereiche mit unterschiedlichen Ansätzen bearbeiten will: Limiting im Bassbereich, für die unteren Mitten ein Expander, für die oberen Mitten ein Low-level Expander und die Höhen etwas komprimieren. Das geht alles sehr gut mit einem Multiband-Kompressor. Für die klassische Anwendung einer Instrumentenspur kann aber auch ein Multikomp verwendet werden: So kann bei der Bassdrum der hochfrequente Schlegelanschlag auf dem Fell vom Basswummern der Kesselresonanzen für die Kompression getrennt werden, ohne das Kompressoren, EQs und verschiedenen Spuren verwendet werden müssen.

Weitere Internetlinks

Flickr.com - HTML Badge