„Du schaust dir ja auch keine verpixelten Pornos an, oder?“—Ein Interview mit Patrick Pulsinger

Wir haben mit dem Sound Wizard über Audioqualität, die Vor-und Nachteile von fetten Bässen und High-Res-Audio geredet.

|
Dez. 16 2014, 10:00am

Alle Fotos: Marko Mestrovic

Wenn es in unseren Landen jemanden gibt, der den furchtbaren Titel Sound Wizard verdient, dann ist es wohl Patrick Pulsinger. Seit gut 20 Jahren ist der DJ, Plattenlabelbetreiber und begnadete Musikproduzent von unzähligen Projekten und Künstlern in der österreichischen Musiklandschaft quasi omnipräsent. Wir haben Pulsinger in seinem Studio besucht, und uns dort mit dem Meister selbst über Soundqualität, fette Bässe und den Vorteil von High-Res-Audio geredet.

Noisey: Leute reden ja gerne über „guten Sound“. Gibt es so etwas wie guten Sound überhaupt tatsächlich?
Patrick Pulsinger:
Sicher gibt es so etwas. Es kommt nur immer darauf an, was wir darunter verstehen. „Guter Sound“ ist ein extrem persönlicher Begriff, genauso wie man unter guter Küche in England etwas ganz anderes versteht als in Frankreich. Aber die Klangästhetiken haben sich ja vor allem in der westlichen Welt in den letzten Jahren immer mehr angeglichen, es gibt ja fast so etwas wie einen „globalen“ Sound gibt. In der westlichen Welt scheint Konsens darüber zu herrschen, was guter Sound ist, aber ich glaube, dass es da fälschlicherweise mehr um technische Standards geht. Es geht aber nicht nur darum. Guter Sound ist ja ein Gefühl.

Was sind diese globalen Standards, von denen du redest?
Der Lautstärkekrieg bzw. Loundness War ist ja schon seit längerer Zeit ein Begriff. Das ist natürlich auch eine Folge von Vermarktung, von Airplay im Radio, aber mittlerweile auch von digitalen Playlists und so weiter — Musik wird da in Kontexte gebracht, die für den Schaffer der Musik im Vorhinein nicht vorhersehbar sind. In der Zeit des Albums wusste ich: „OK, ich platziere diesen Song an diese Stelle des Albums, denn nach dieser und jeder Nummer stinkt der Song nicht so ab.“. Wenn ich jetzt aber ein Album veröffentliche, dann greifen sich die Leute digital natürlich den Track heraus, der ihnen am besten gefällt und kompilieren ihn neu. Und plötzlich ist eine Playlist da, wo der Track in einem Kontext bestehen muss, der vorher vollkommen frei ist.

D.h. die Nummern müssen heute mehr für sich selbst stehen.
Genau, sie müssen performen. Ich mache ja auch Mixing und Mastering, wo man auf den musikalischen Aspekt dann nicht mehr so viel Einfluss hat, sondern ein eigentlich fertiges Stück Musik vor sich hat. Man schaut dann eben, dass man das so hinbiegt, wie die Leute es sich vorstellen. Das ist aber nicht immer einfach: Wenn ich eine Produktion hernehme, bei der jedes Instrument an seiner Stelle und im Kontext der Aufnahme sehr gut klingt, dann wird auch die Nummer gut klingen. Wenn das aber nicht der Fall ist, und ich versuche das Ganze durch reine Loudness oder das Pushen von Bässen und Höhen zu kompensieren, kann das zwar funktionieren, es kann aber auch schwer in die Hose gehen.

Gibt es neben der Loudness noch andere Parameter, die den Sound bestimmen?
Natürlich. Bass im Allgemeinen ist in den letzten Jahren wichtiger geworden. Früher war der Bass ein Begleitinstrument irgendwo zwischen Gitarre und Schlagzeug, heute ein völlig eigenständiges Stilmittel. Und Bass braucht in einer Nummer enorm viel Energie und Platz. Wenn ich Bassmanagement beherrsche, dann werde ich damit wahrscheinlich weniger Probleme haben, als wenn „Ein fetter Bass!“ mein einziges Ziel ist. Ich glaube, mit vielen technischen Parametern sind die Musiker selbst gar nicht richtig vertraut. Sie wissen zwar, wo sie letztendlich hinwollen und hätten eigentlich auch alle Mittel das zu machen—mit Ableton Live hat man ja mittlerweile ein komplettes Studio, zumindest virtuell. Viele setzten sich aber viel zu wenig mit den Fragen auseinander: Wie komprimiere ich etwas? Wie kann ich etwas im Mix weiter nach vorne rücken, ohne es totzubügeln?

Wir reden jetzt natürlich aus der Sicht eines Studiomenschen. Was ist jetzt wenn die Musik fertig rauskommt? Überlegst du dir, auf welchen Endgeräten die Leute die Musik letztendlich hören werden?
Natürlich hat man das Format immer im Hinterkopf. Bei einer Band, die eine Schallplatte in limitierter Auflage machen will, gehe ich von Anfang anders an sie Sache heran, und achte darauf, dass die Dynamik so lebhaft und so schön bleibt wie möglich. Wenn ich jetzt aber weiß: Das wir ein Dance Track, der kommt als 320 kbps –Mp3 raus und wird dann am Mischpult eh ohne Ende hochgeschoben, dann werde ich darauf achten, dass Präsenz und Loudness da sind—in so einem Fall sind dann die Obertöne wahrscheinlich egal. Bei Popmusik im weitesten Sinne muss ich im Studio eigentlich jegliche Art von Format bedenken. Die muss auf Macbook Air-Boxen genau so überzeugen wie auf der fettesten Anlage im Club. Da werden für die unterschiedlichen Formate auch oft unterschiedliche Mixes und Master-Files gemacht.

Diese verschiedenen Kompressionsstufen von MP3 — kannst du erklären was das eigentlich bedeutet?
Mp3 ist ein Reduktionformat, es geht um Datenreduktion. Eine Schallplattenseite hat auf einem Wandler, den der Durchschnittsverbraucher so verwendet, in Full Resolution etwa 1 GB. Wenn ich das verschicken will, muss ich die Datenmenge reduzieren, ohne den Sound zu sehr zu verändern. Ein digitales Format ist immer eine Annäherung an eine analoge Aufnahme, wobei die analoge Aufnahme ja schon eine Annäherung an den realen Sound ist. Wenn eine Aufnahme digital codiert ist, dann schaut ein Kompressions-Algorithmus, wo Dinge sind, die eigentlich nicht wirklich Information enthalten. Das Prinzip ist ein bisschen so wie bei ewig langen Gleichungen, die man kürzen kann. Mp3 wurde zur Kommunikation mit Satelliten entwickelt, wo man Datenmengen so reduzieren so muss, damit man die Nachricht noch versteht, die Übermittlung aber nicht ewig dauern darf. Und das ist der Punkt: Der Fokus liegt darauf, dass man die Nachricht gerade noch versteht. Bei der Musik ist da natürlich die Frage immer: Was fällt weg? Und es fallen natürlich als allererstes die Obertöne weg, und das verändert natürlich auch Hörverhalten. Wenn ich 14 Jahre alt bin, und mir im Leben ausschließlich gerippte Mp3s anzuhören, weiß ich eventuell gar nicht mehr, wie sich eine Aufnahme „wirklich“ anhört. Aber da gibt es natürlich auch die Gegenbewegung: Die großen Ketten wie Saturn haben plötzlich wieder Platten und Plattenspieler in ihren Regalen, obwohl es das ganze Zeug schon jahrelang weg war. Wenn etwas stirbt, wird es auch wiederentdeckt.

Warum ist die Annäherung an den Sound beim Vinyl höher als bei einer Mp3?
Es ist einfach viel mehr Information drauf, das ist von Medium zu Medium anders. Du kannst Vinyl nicht mit einer CD vergleichen, und du kannst MP3 nicht mit einem WAV-File vergleichen —das sind völlig andere Algorithmen und völlig andere Formen der Übertragung. Jedes Medium hat seine speziellen Charakter: Eine Vinylplatte hat zum Beispiel am Anfang, wo ich zum ersten Mal die Nadel drauflege, eine fast doppelt so gute Dynamik wie innen beim letzten Lied. Es ist eine Spirale, und je weiter ich mich mit der Nadel in dieser Spirale zum Mittelloch nähere, desto weniger Weg habe ich für die gleiche Information. Der Sound wird nach innen eigentlich immer schlechter—man merkt es nur nicht, weil das ja im Verlauf des Albums passiert. Nur beim Auflegen wurde es irgendwann zum Problem, weil man da ja die Songs auf verschiedenen Teilen von Platten direkt ineinander mischt. Da ist dann irgendwann mal wer draufgekommen: Wenn wir die Spieldauer dramatisch runterschrauben und das Ganz dafür auf 45 Umdrehungen pro Minute abspielen, dann ist dieser Verlust von Außen nach Innen viel geringer. Das war sozusagen die Geburt der Disco-45rpm-Single. Ähnlich ist es bei Mp3—wenn ich die ganze Zeit direkt zwischen 320 kbps oder 192 kbps hin und her switche, dann höre ich den Unterschied extrem. Höre ich mir jetzt aber ein Album einfach von vorne bis hinten in minderer Qualität durch, dann gewöhnen sich die Ohren an das.

Sind die 320 kbps aktuell die beste Übertragungsrate für Mp3?
Nein, aber die ökonomischste.

Was kann man sich unter Hi-Res Audio vorstellen?
Das sind hochauflösende Audioformate, so wie HD-TV für deine Musik. Mehr Details, mehr Dynamik, volles Frequenzband....So wie die Musik bei beim Mix im Studio klingt—voll und ohne unnötige Summenbearbeitung.

Und da gibt es ja all diese anderen Formate in höherer Qualität, wie FLAC.
Ja, und diese Formate werden ja auch immer besser—AAC zum Beispiel, das Apple verwendet. Die Leute arbeiten natürlich daran, diese Komprimierung immer besser zu machen, und die Qualität und die Rechnerleistungen steigern sich natürlich auch immer weiter. Das Decodieren wird durch die besseren Rechner immer einfacher, und die Rechner können auch viel kompliziertere Verfahren anwenden. Es wird daran gearbeitet wird, Daten zu komprimieren, aber gleichzeitig die Leute zufriedenzustellen, die keine 99 Cent für etwas auszugeben, das in ihren Ohren scheiße klingt. Da hat sich wirklich sehr, sehr viel getan in den letzten Jahren. Die Qualität von digitaler Musik und Streamings wird immer besser. Der Gedanke ist ja auch richtig: Wenn die Leute für etwas bezahlen, das sie auch gratis bekommen können, dann muss auch etwas Gutes geliefert werden. Das wirkt sich auf jeden Fall positiv aus. Ich kaufe mir auch Musik digital, das ist für mich überhaupt kein Problem. Das ist auch auf keinen Fall etwas, das man verteufeln sollte, denn es ist eben der logische Fortschritt. Es ist das Format der Zeit, in der wir leben. Ich finde diese Diskussion zwischen Analog und Digital persönlich müßig. Es ist jedes Format da, ich kann es mir aussuchen, es ist eine philosophische Frage.

Woher kommt das Interesse von Künstlern, ihre Musik in Hi-Res Audio zu produzieren?
Im Aufnahme und Produktionsprozess legen Engineer und Produzent natürlich viel Aufmerksamkeit aus jedes kleine Detail, den Raum, Panorama, und so weiter. Hier werden auch viel höhere Auflösungen als beim herkömmlichen finalen Master-File verwendet. Durch das "Runterrechnen" auf das gängige CD Format 16bit/44.1Khz gehen ganz am Ende einer aufwendigen Produktion viele dieser Details unwiederbringlich verloren. Obertöne und harmonische Verzerrungen werden oft durch Summenbearbeitungen, Beschneidung des natürlichen Frequenzspektrums und Formatwechsel stark reduziert. Das klingt als würde dir jemand ein tolles Bild schlecht ausdrucken und dir dann ganz nah vors Gesicht halten....wenn du weißt, was ich meine! Könnte jeder Musikliebhaber die Musik so hören, wie sie nach dem Abmischen im Studio klingt, würde er sich wahrscheinlich sehr ungern die fertige CD oder ein MP3 anhören. Wenn es ein Format gibt, das den vollen Sound bis zum Hörer bringen kann, freut das alle, die an einer Produktion mitgearbeitet haben. Sogar den, der im Studio den Kaffee kocht.

Was macht die neuen Hi-Res Kopfhörer von Sony speziell?
Die Tatsache, dass sie speziell für die Wiedergabe dieser Formate entwickelt wurden.

Wieso kannst du sie zur Musikwiedergabe empfehlen?
Du schaust dir ja auch keine verpixelten Pornos an, oder!?


BEGLEITTEXT

Was ist High Res Audio?
Vereinfacht ausgedrückt benutzt High Res Audio eine höhere Samplingrate (im Deutschen auch manchmal „Abtastrate“ genannt): min. 24bit/96kHz statt 16bit/44,1kHz wie bei einer Audio-CD oder handelsüblichen MP3, die zwar teilweise hohe Bitraten, aber ebenso nur 44,1kHz aufweisen. Hinter diesen Zahlen steht kein sinnloser Quatsch, mit dem sich Technik-Nerds gegenseitig beeindrucken. Eine höhere Samplingrate heißt, dass mehr Frequenzen abgebildet werden können. D.h. die Musik klingt klarer, schärfer, beeindruckender – einfach besser, weil sie viel näher an der Originalaufnahme ist und diese genauer abbildet.

Wo bekomme ich High Res Audio Files?
Es gibt einige Webshops, die sich darauf spezialisiert haben, und es werden monatlich mehr. Die größte Auswahl bieten aktuell www.highresaudio.com und www.qobuz.com. Qobuz bietet auch Streaming-Service an. Beim Streaming-Service kann jedoch aufgrund des Datenvolumens von High Res Audio Files „nur“ in CD-Qualität gestreamt werden.

In welchem Format kommen High Res Audio Files?
Zuerst einmal: Nicht als MP3. MP3s benutzten einen Algorithmus zur Kompression von Musik, d.h. es werden bestimmte Frequenzen weggeschnitten. Das ist genau das, was High Res Audio nicht will. Es gibt insgesamt fünf Formate, die jeweils auf die gängigen Computersysteme zugeschnitten sind. (Übersicht siehe PPT Folie).

Was brauche ich, um High Res Audios genießen zu können?
Es kommen immer mehr Produkte auf den Markt, mit denen High Res Audios zuhause und unterwegs sinnvoll genutzt werden können. Wichtig ist, dass der Genuss durch eine lückenlose Kette an hochwertige High Res-Audio-Produkten am höchsten ist. Sony bietet eine ganze Reihe von Verstärkern und Boxen an, mit denen sich eine solche Kette zuhause herstellen lässt. Für unterwegs ist Sony mit seinem Walkman NWZ-A15 und den Kopfhörern MDR-1A und MDR-1ADAC derzeit weit vorne.

Was bieten die High Res Kopfhörer von Sony?
Alles, was das Herz begehrt. Schon die technischen Daten von MDR-1A und MDR-1ADAC allein sind beeindruckend. Der MDR-1ADAC ist dabei das absolute Flaggschiff: Ein Kopfhörer mit integriertem digitalem Verstärker S-Master HX—der Wandler sitzt also im Kopfhörer, nicht im Abspielgerät. Beide Modelle haben neu entwickelte, hochauflösende HD-Treibereinheiten für eine 100-kHz-Wiedergabe. Die Flüssigkristallpolymer-Membranen sind mit Aluminium beschichtet, um eine größere Breitband-Audioleistung zu garantieren. Die ergonomischen Ohrpolster sitzen bequem und bieten in Kombination mit dem richtigen Player und den High Res Audio Files ein Hörvergnügen, wie ihr es noch nie erlebt habt.