pix
obl obr



 


Editorial

Zunächst muß an dieser Stelle mitgeteilt werden, daß Herr Dr. Joachim Stange-Elbe die Redaktion dieses Heftes wegen seines Umzuges nach Osnabrück nicht mehr übernehmen konnte. Wir verlieren mit ihm den geschätzten Redakteur, dem wir für seine Arbeit herzlich danken. Wir bedauern diesen Verlust sehr, hoffen aber, daß er weiterhin für ZeM wirken wird, und wünschen ihm für seine berufliche Zukunft viel Erfolg.
Die vorliegende Ausgabe des ZeM-Heftes bietet dem Leser wieder ein breites Spektrum an Themen: allgemeine und grundsätzliche Gedanken zur Elektronischen Musik, Erfahrungsberichte über die technische Seite der Musikelektronik sowie über einen Unterrichtsversuch. Mit dem Rückblick auf die Veranstaltung in der Elzhalle im März dieses Jahres kann sich der Leser ein Bild davon machen, wie der Verein versucht, Elektronische Musik der Öffentlichkeit anzubieten. Die "Klingende Steinhalle" im September dieses Jahres ist ein weiterer Schritt auf diesem Weg. Während die "Elzhalle" und die "Steinhalle" in dem Bemühen, anderen Elektronische Musik zugänglich und hörbar zu machen, schon Tradition sind, macht der Artikel "Neues aus Freiburg" deutlich, daß ZeM für seine Arbeit auch die Möglichkeiten der neuen Medien nutzen will. Dabei geht es uns nicht darum, in der üblichen Weise Erfolg zu haben, unser Anliegen ist es vielmehr, Menschen zu erreichen, die sich für Elektronische Musik interessieren und begeistern lassen.
 

Gerda Schneider

 

 


Klaus Weinhold

Erzwungene Verbindungen

Wie immer in unserem "Mitteileilungsblatt", stelle ich einige Gedanken zur Diskussion, die uns über unser Gebiet, die Elektronische Musik, Klarheit und geben und zu weiterem Nachdenken anregen sollen. Musik - als ich vor wenigen Tagen ein neu produziertes Samplestück mir vorführte, meinte ein Besucher an der Türe "Ach, Sie hören Musik". Offenbar ist also der spontane Eindruck beim Hören von elektronischen Soundproduktionen doch der, "Musik" zu hören. Ob dieser Eindruck beim weiteren Hören geblieben wäre, bezweifle ich.

Wir nennen uns "Zentrum für Elektronische Musik", zunächst wohl deshalb, weil man sehr leicht für intentional produzierte Klangereignisse den Ausdruck "Musik" gebraucht, fragen uns aber immer wieder, ob diese Produktionen mit dem klassischen Begriff Musik kompatibel sind. Klangereignisse sind im Abendland in den letzten 3000 Jahren stets in Form von Musik produziert worden und bis heute besteht eigentlich in der ganzen Welt eine stillschweigende Übereinkunft darüber, was diese Musik systemlich und intentional, sachlich und persönlich sei. Die ersten Eindrücke beim Vorführen Elektronischer Musik, vielleicht bei den nächsten Angehörigen im Familien- und Bekanntenkreis waren oft anderer Art: "Das ist doch keine Musik" war eine der ersten Reaktionen, die man vor Jahren zur Kenntnis nehmen mußte. In der Tat, unsere Musik, unsere Musikerziehung, unser Musikleben ist von einer jahrtausendealten Tradition beherrscht, wir befinden uns im Gefängnis eines Systems, das seine Endgültigkeit gar nicht mehr zu beweisen braucht. In diese Situation treten nun neuartige, andersartige Instrumente, aus fernen Ländern oder aus dem eigenen Land, die plötzlich völlig andere Ansätze und äußere Erscheinungsformen dem erstaunten Benutzer zeigen. Gewiß erinnern z.B. Klaviaturen (Schlüssel) an Herkömmliches, gewiß erinnern Namen wie "Strings" oder "Organ" an Bekanntes, aber der Hintergrund führt in eine völlig andere, unverständliche, mit dem Herkömmlichen nicht zu vereinbarende Unterwelt, statt des Namens etwa C, heißt es plötzlich "Treiber" und "Resonator" oder "Connection" und "Formant". Offenbar tut sich hier am Ende des Jahrtausends eine neuartige Welt auf, die Frage ist, woher sie kommt, was sie will und wie sie u.U. die traditionelle Kultur verändern könnte. 

Die traditionelle Musik ist insofern sehr naturgebunden, als sie ein bestimmtes Prinzip dieser Natur voll ausnützt: Es ist das des unteren Teiles der Obertonreihe und das Prinzip, daß sich die natürlichen Elemente in ganz bestimmten Präferenzen zusammensetzen. Nicht jedes Element verbindet sich mit jedem anderen, Feindschaften, Sympathien und Anzüglichkeiten gibt es offenbar von Anbeginn der Welt unter den Elementen. Ein fest geordnetes System, dem wir uns nicht entziehen können. Eine Röhre oder eine Saite schwingt im Verhältnis 1:2, 1:3 usw.. Diese elementaren Verhältnisse stellen offenbar ein großartiges System einer natürlichen, nicht mehr zu hinterfragenden Ursprünglichkeit dar. Fragt man nun einen Naturwissenschaftler, etwa einen Chemiker, ob es auch andere Verbindungen geben könnte, so erhält man als Antwort, daß dies ginge und man diese dann als "erzwungene" Verbindungen, also vom Menschen geforderte bezeichnen kann. Die neuen Musikinstrumente erlauben dies nun auch, in jeder Frequenzmodulation kann die Verbindung 1: 1,9 hergestellt werden und im "Physical Modeling" kann die Verbindung einer schwingenden Saite in eine Röhre hergestellt werden. Die menschliche Stimme würde eine solche Verbindung innerhalb der natürlichen Körperoganisation nie erlauben. Das Fazit dieser Überlegungen ist, daß wir mehr als die Natur mit bisher unentdeckten Mitteln dieser Natur der Natur mehr auf quasi natürliche Weise entlocken können. Offenbar verbirgt sich hinter begrenzenden Präferenzen, wie sie die Natur vordergründig bevorzugt, ein weites Feld unbegrenzter Potentialitäten, diese können durch die modernen Musikinstrumente endlich erzeugt werden. In diesem Jahr wird die japanische Firma Kawai den neuen K 5000 Synthesizer auf den Markt bringen: 128 Obertöne, Hüllkurvenformung eines jeden dieser Obertöne, also eine neuartige Syntheseform, die in der Tat erzwungene Verbindungen herbeiführen kann und wird. Ob diese klanglichen Verbindungen der Menschheit gefallen werden, wird sich in den Auftragsbüchern der Firma Kawai in den nächsten Jahren niederschlagen.

Die Musik, die Komposition hat eine physikalische, materielle Seite, über diese hat sich im Abendland eine grundlegende Philosophie gelegt, die des Idealismus. Nach dem großen griechischen Philosophen Plato steht die Idee am Anfang von allem, die Idee schafft sich die Möglichkeiten der Realisation in der Materie. Nach diesem idealistischen Ansatz war die Idee des Fliegens am Anfang da, und die Organe der Lebewesen mußten sich danach ausrichten. Ein anderer Ansatz besagt, daß keine Idee da war, aber daß Luft da war und Organe, die sich der Luft anpassen und dadurch das Fliegen ermöglichen konnten. In der klassischen Musikauffassung steht immer die Idee zu einem Werk am Anfang, und die Instrumente, Orchester oder Chor, und das vorhandene Musiksystem waren das Mittel, um die Idee zu realisieren. Am Anfang steht der Schöpfer, am Ende das Geschöpf, das Werk. Diese Richtung des Vorgehens ist umkehrbar: Am Anfang steht die Materie, das ungeformte Material, das vielleicht gar keine Ideen zuläßt, aber aus diesem Material können Ideen entstehen. Der grundsätzliche Unterschied zwischen abendländischem Idealismus und Materialismus wirkt sich in den neuen Instrumente und deren Produktionsmöglichkeiten fundamental aus.

Die Musik ist in Lehrplänen bestimmten Bereichen zugeteilt worden, so im Abendland im allgemeinen dem sprachlichen Bereich, "Musik als Sprache". Musik spricht zu uns, ihre Grammatik verstehen wir, wir kommunizieren in der Sprache. Was Bach uns sagen wollte, verstehen wir, was die Romantiker uns sagen wollten, noch viel mehr, geträumt wurde immer, eine Träumerei ist jedem Menschen durchaus verständlich. Die neuen Instrumente verlassen die Sprache und führen zur Substanz, zur Natur, zur Grundlage, zu den Atomen zurück, diese Grundlagen sprechen nicht zu uns, sie sind einfach da. Eine Sinusschwinung ist keine Aussage, sie stellt ein Naturphänomen universellen Ausmaßes dar. So kann man sagen, daß die Elektronische Musik mit ihren Instrumenten "physikalisch" und nicht kommunikativ ist, daß sie "natürlich" und nicht "kultürlich" ist. 

Was Musik darstellt, ist in der Tat schwer zu sagen. Schon oft haben wir in diesem Blatt Bach zitiert, der darauf hinweist, daß Musik zur "Ehre Gottes" da sei und zur "Recreation des Gemüths". Diese Aussagen sind bis heute aktuell: Statt "Recreation" sagen wir heute "Therapie" und statt "Ehre Gottes" sagen wir heute "Ehre der Ausführenden, der Interpreten und der Komponisten". Elektronische Musik ist keine Therapie, sie vermittelt etwas völlig anderes: "Erkenntnis" der Natur und der natürlichen Möglichkeiten. Die Ehre Gottes wird zu einer Bewunderung der Natur, die es uns ermöglicht, "erzwungene" Verbindungen zwischen Schwingungen herzustellen, wie sie bisher die Natur noch nicht erzeugt hat. Wir können stolz darauf sein, am Ende des Jahrtausends in einer Zeit zu leben, in der diese Möglichkeit für uns konkrete Wirklichkeit geworden ist oder werden könnte. Konkret gesagt: Wir danken den japanischen Firmen, von denen hier nur die Firmen Tajo und Kawai erwähnt seien, für diese geschichtlichen Leistungen und Entwicklungen.

 

 


Dr. Joseph Mundigl

Die mobile und individuell konfigurierbare Studioabhöre

Ein Erfahrungsbericht mit experimentellem Hintergrund 

Es gibt eine ganze Reihe von Vorschlägen, wie man eine Kontrolleinrichtung installieren kann, die das möglichst objektive Abhören von DAT-Bändern, digitalen Mischpulten, aber auch analogen Signalquellen gestattet und trotzdem eine Anpassung an den persönlichen Hörstil ermöglicht. 
Obwohl in vielen Studios praktiziert, ist die Wiedergabe über Lautsprecher nicht der optimale Weg, weil es den absolut neutralen Wandler nicht gibt. Lautsprecher haben mindestens zwei bedeutende Nachteile. Einerseits besitzen Sie von sich aus eine mechanische Trägkeit, die mit der von Ohrhörern gewiß nicht vergleichbar ist, andererseits bringen sie unweigerlich die Akustik des Abhörraumes ins Spiel.
Es kommen bei konventionell erzeugter Musik (z. B. Klaviermusik) eine ganze Anzahl von "Raumparametern" zusammen. Erstens der Konzertsaal, da seine Größe Einfluß auf die Interpretation hat. Ein Interpret spielt in einem kleinen Saal anders, als in einem großen. 

Zweitens der Raum, den der Toningenieur durch die Wahl der Mikrophone und deren Aufstellung gestaltet. Es ist zu bedenken, daß sich die Mikrophonwahl auf die Abbildung der Schallquelle genau so auswirkt, wie in der Photographie die Wahl des Objektives auf das Bild.
Das größte Problem sind dabei Pianostellen (p/pp/ppp), die mindestens in der "alten" Analogtechnik am Mischpult nach oben hin verschoben wurden, um nicht mit dem Vinylgeräusch zu kollidieren. In der Digitaltechnik läuft das umgekehrt. Man zieht pp-Stellen absichtlich herunter ins ppp, weil kein Vinylgeräusch die Dynamik bremsen kann. Musikalisch unlogisch wird das dann, wenn man derart einem Pianisten einen rasend schnellen piano-Lauf unterschiebt, den er "echt" allein aus physikalischen Gründen gar nicht leisten kann. Das ist dann für einen "geübten" Hörer, also einen Hörer, der sich selbst konzertant am Klavierstück versucht hat, ein weit größeres Ärgernis, als die ewige Diskussion um Bits und Bytes, weil er die Falschheit der Darstellung erkennt. In der Folge wird dann der Pianist unglaubwürdig, obwohl er für die Sache nichts kann, aber die Interpretation zur Veröffentlichung freigibt. (Auch die Diskussion über MC-Trafos/Vorvorverstärker bekommt durch diesen Aspekt ein eigenes Gewicht. Es läßt sich nachdenken, ob die Abbildung von Pianissimostellen beim "Audio-Note AN-S6" realistischer ist als beim Röhrenpendant von Klimo. Klimo hat im Piano mehr Substanz. Ob das nun ein Problem der transferierten Energiedichte ist, oder röhrenspezifischer Additiva kann hier nicht diskutiert werden.)
Hier sind Überlegungen in Richtung "raumbezogener Stütztechnik" von enormer Bedeutsamkeit für die Fixierung der realen dynamischen Verhältnisse, denn nur zu oft wird im Klangbild ein Instrument nicht dadurch leise oder lauter, weil der Interpret das so macht, sondern weil der Tonmeister den Regler zuzieht oder aufmacht. Das Instrument rückt (!) also näher oder ferner. Das ist der tatsächliche Vorgang.
"Bei der raumbezogenen Stütztechnik kommt der erste Lokalisationsreiz - wie erwünscht - vom Hauptmikrophon, während die künstlich erzeugten Stützreflexionen durch die Energieaddition den nötigen Lautstärkezuwachs bilden. Ein zu leises Instrument kann somit für unser Gehör präsenter gemacht werden, ohne dabei 'aus dem Lautsprecher zu fallen'. Die Darstellung der Entfernungswahrnehmung geht nicht verloren. Eine Steigerung der Leistungsfähigkeit bei der Lautsprecher-Stereophonie ist möglich." (Siehe Fußnote R) Als Prozessor zur Errechnung der Stützvorgänge wurde der CAP (Creative Audio Processor) von AKG herangezogen. (P)

Drittens: Der Raum, der am Mischpult entsteht, ist also eine Auswirkung der Aktionen, die dort ausgeführt werden und das ist in aller Regel nichts anderes, als daß die effektive Lautheit der Signalquellen verändert wird und diese Änderung hat physikalisch gar nichts mit dem Spiel des Interpreten zu tun, denn wenn der Interpret lauter spielt, kommt ein ganz anderes Klangbild zustande, als wenn am Pult der Regler aufgemacht wird. Im Grunde ist so etwas ebenso unnatürlich, wie wenn man die Waldsteinsonate statt in C in Cis-dur spielen würde und dann die digitale Einspielung wieder von Cis nach C transponieren würde. Wohl hinkt dieser Vergleich, aber im Endergebnis wäre alles "richtig". Nur aus musikalischer, musikästhetischer Sicht ist das ein Ding der Unmöglichkeit, ja eine "Verrückheit". Wer von den Durchschnittshörern würde schon merken, was da gelaufen ist? Menschen mit wirklich absolutem Gehör - und sie sind selten genug - würden wohl an der Temperierung erkennen, daß da etwas faul ist. Ein Klavierstimmer, oder ein Konzertpianist würde hingegen aus der Haut fahren wegen der musikalischen Unverträglichkeit. Daß diese Verschiebung andererseits von Komponisten recht geschickt zur effektiven Klanggestaltung genutzt wurde/wird, ist ein anderer, weil authentischer Vorgang, z.B. das Höherstimmen der Geige bei Paganini, Mahler und anderen, aber auch gelegentlich in der Zigeunermusik.
Es ist hier die virtuelle Lautheitsverschiebung mit der tonartlichen Verschiebung verglichen, damit das Problem deutlich wird, weil sich der Vorgang am Beispiel der Tonart verständlicher erklären läßt und es braucht nur auf den Parameter Lautstärke portiert zu werden. Auf der Rezeptionsseite besteht obendrein das Dilemma, daß für die Wahrnehmung Lautstärke und Klangfarbe zum Gesamteindruck zusammenfallen - anders ist das z.B. bei der Zeitgestalt, obwohl auch da oben genannte Paramater hereinspielen können. Wenn also vom Hörer die Stimmigkeit des Höreindrucks nicht erkannt wird, bzw. zu erkennen ist - aufgrund mangelnder realer Hörpraxis, ist das Finden der "passenden" Parameterkonstellation, also des Punktes, an dem alle beteiligten Parameter möglichst ideal dargestellt werden, fast unmöglich. Und dieser Umstand ist für die Beurteilung einer Interpretation eine allgegenwärtige Katastrophe, der durch nichts zu begegnen ist, als durch den Konzertbesuch. Wie oft ist bei HiFi-Demos im Laden festzustellen, daß Orchestermusik weit lauter dargestellt wird, als das größte Orchester überhaupt sein kann. ("Also sprach..." und andere HiFi-Kalauer). Die Stimmigkeit einer Wiedergabe (über Kopfhörer) kann nur bei der kopfbezogenen Stereophonie (Kunstkopf!) rasch beurteilt werden, weil das Zusammenfallen aller Parameter quasi akustisch den Raum eröffnet. Zu leise Darstellung ist ungenügend, es kann keine räumliche "Plastik" entstehen, zu laute führt zur Im-Kopf-Lokalisation. Der Mittelweg ist leicht zu finden. 
Andererseits kann nunmehr eingesehen werden, welchen musikalischen Unfug die Zieherei am Mischpult anrichten kann. Beispiel: Schumann/Grieg/Klavierkonzerte, Zimerman/Karajan, DG-CD 410 021-2. HvK hatte zweifellos eine Neigung für das Artifizielle.

Viertens ist der Raum zu nennen, der durch elektronische Hilfsmittel (Effektprozessoren) entsteht. Dem ist vom HiFi-Standpunkt aus nichts hinzuzufügen, weil eigentlich unzulässig. Die Prozeduren reichen von der simplen Delay-Line, bis hin zu heute in Mode befindlichen DSP-Prozessoren - wir Musikelektroniker wissen damit wohl umzugehen, SONY aber auch. Und wenn man das minimale, aber eindeutige, ja typische Grundrauschen dieser Maschinen kennt, kann es vorkommen, daß man auf Klassik-LP's neueren Datums im Hintergrund Prozessoren werkeln hört, die gar nicht dahin gehören. Gerade bei Klaviermusik fällt es auf. Das ist schon eine Schwei..Schwindelei in Richtung ADA! Eine audiophile Rarität kann es trotzdem sein. (W) 

Fünftens ist der Raum zu nennen, der durch Änderung der Parameter der Richtung, des Direktschalles, der Reflexionen und des Nachhalls aufgrund verstärkungsspezifischer Einflußfaktoren entsteht. Hier kommen auch Kabeleinflüsse besonders zum Tragen, weil sie durch Wellenwiderstand und eine ganze Menge von Kriterien, wie Abschirmung, Eigenschaften als Leiter einen bedeutenden Einfluß auf das Klangbild haben können. Gemeint ist also das Zusammenspiel aller für die Wiedergabe beteiligten Komponenten:
Signalquelle -> Übertragungsweg zum Verstärker -> Verstärker -> Übertragungsweg zum Lautsprecher -> Lautsprecher. Hörtests in Fachzeitschriften, wenn sie sich einen allzu hohen Aussagewert in Punkto "Richtigkeit" bemessen, bekommen dadurch ihren eigenen "Zweifelquotienten". (Z) 

Sechstens: Der Raum, in dem abgehört wird, kann der Abhörraum im Studio sein, aber auch der Wohnraum eines Hörers, der einen Tonträger erworben hat. Je mehr Parameter aus dem Konzertsaal ideal übertragen werden, um so mehr Hörfehler werden beim Rezipienten aufgrund biophysikalischer Faktoren ausgeschlossen, wenn am Ende der Empfangskette die Möglichkeit besteht, einen Großteil der Parameter so zu rekonstruieren, zurückzugewinnen, wie sie im Konzertsaal waren. 

Aus diesen Gründen braucht jemand, der über das Richtig oder Falsch, Verträglich oder Unverträglich entscheiden soll, eine mobile Abhöre, die er auf sich zuschneiden, trimmen kann. Aber nur permanente Kontrolle und Korrektur im Langzeittest führen zur unbestechlichen Höreinheit. Oft bringen da auch nicht immer Modellwechsel der Komponenten sinnvolle Verbesserungen. 

Für die exakte Beurteilung ist eine optimale Signalführung zum Trommelfell Voraussetzung. Also ist es nun notwendig, ein System aufzubauen, das die Kontrolle des Signals unmittelbar am Digitalausgang eines CD-Players, DAT-Recorders etc. ermöglicht. Dabei zeigt sich, daß der sogenannte Räumlichkeitseindruck nicht zwangsläufig von der Anzahl der Chassis (Quadrokopfhörer und ähnliche) im Kopfhörer abhängt, sondern auch von deren Frequenzgang und der Membrangröße. Der Jecklin-Float hat eine extrem große Membran, das heißt, er bezieht im Gegensatz zum Grado HP2 Signature einen Teil der Kopfoberfläche in das Abstrahlfeld mit ein, spricht also die Knochenleitung stärker an und damit die Parameter höherer Frequenzanteile, die für die Ortung "vorne" verantwortlich sind. Damit rückt das Klangbild aus der Im-Kopf-Lokalisation heraus. Es wird vielfach vergessen, daß auch bei der Lautsprecherwiedergabe eine Im-Kopf-Lokalisation stattfinden kann, was rein pysikalisch schon ein Widerspruch zu sein scheint. 
"Das führte zumeist zu der naheliegenden Annahme, bestimmte Eigenschaften der elektroakustischen Wandler bzw. bestimmte Eigenschaften des gesamten elektroakustischen Übertragungsweges seien für den Ortungs'fehler' verantwortlich." (Pl,S.242) Andererseits liegt klar ein Zusammenhang zwischen dem Kurzzeitspeicher und dem Langzeitspeicher und dem augenblicklichen Signalreiz vor. Plenge verweist darauf, daß "Reizverarbeitung durch Vergleich mit gespeicherten Reizmustern" zur Empfindung der "Lokalisation" führen. (Pl,S.249) Er kommt zu dem Fazit: "Dies unterstreicht die Hypothese, daß für eine korrekte Lokalisation im Kurzzeitspeicher Informationen sowohl über das Schallfeld (Raumgröße, Halligkeit) als auch über Quellen und Quellenorte (Entfernungen) vorliegen müssen." (Pl,S.252) Diese Tatsache führt zu dem Schluß, daß die möglichst perfekte Vollständigkeit einer Klangabbildung in Bezug auf die vorhandenen Parameter bei der Aufnahme für die Beurteilung einer Interpretation entscheidender sind, als subjektive, additive und technologisch erwirkte (!) Klangempfindungen. 

Bei Plenge ist aber auch der Beweis dafür zu finden, daß sich Tester durch die Tests selbst manipulieren (müssen), dies vor allem beim Test von Schallwandlern, weil der Langzeitspeicher permanent unter dem Einfluß des Kurzzeitspeichers und des momentanen Schalleindrucks steht. Aus diesem Grund kann eine Rang- und Namenliste auch eine Dokumentation dieses Manipulationsvorgangs - selbst einer Personengruppe - sein. Das heißt, auf die Aufnahme bezogen, der Erfahrungshintergrund von Tonmeister A kann völlig anders sein, als der von Tonmeister B. 

(Beispiel: Haydn Gesamtedition, Die Streichquartette, DECCA 1974, man höre die Vielfalt der tonmeisterlichen Klangauffassungen innerhalb der Gesamtedition und vor allem den sorglosen Wechsel der Mikrophonbestückung auf den einzelnen Platten, ganz besonders auffällig in Vol. 3. Und noch ein Beispiel für die nachgerade so hochgelobte Sorgfalt der Tonmeisterei in Vinylzeiten sind manche Aufzeichnungen von Van-Cliburn-Konzerten mit Orchester, bei denen derart an den Reglern gezogen wurde, daß sich im Orchester eine regelrechte Völkerwanderung vollzieht. Es läßt sich trefflich darüber nachdenken, ob in der Regie damals nicht eher brave, solide, notentexttreue Handwerker saßen, als hifidele Überphilosophen.) 

Problem der Wiedergabetechnik ist es nun, beide Soundaspekte mit audiotechnischen Mitteln so "auf die Reihe" zu kriegen, daß die Absichten und Ansichten beider Tonmeister in Bezug auf die Intentionen des Interpreten dem Hörer vermittelbar sind. In jeder Plattensammlung gibt es Extreme. Und es ist im Interesse einer vernünftigen Rezipierbarkeit zu fragen, was nun besser ist, eine Abhöre, die durch Perfektion der Mittel diese Extreme pur, UNVERMITTELT zu Gehör bringt, oder eine, die durch sympathische Schwachstellen, oder geschmacksbezogene Tarierung, eben durch die zur Vermittlung beitragenden physikalischen Unschönheiten die klangliche Offenlegung einer Interpretation in für den Hörer rezipierbarer, weil akustisch verdaulicher Form anbietet. Zweifellos steht hier die absolute Physik gegen die Ästhetik und das mag mit eine Problematik von analog und digital sein und warum man beide eben nicht in einen Topf werfen darf, denn dann entsteht im Urteil nicht eine Ungerechtigkeit gegen das Analoge oder das Digitale, sondern gegen die Physik. Das aber kann eine Perversion sein. Dann schaffen wir das Zeug ab und musizieren selbst. (Und unsere Literaturkenntnis ist wieder auf mittelalterlichem Niveau, denn, wenn ein Musikstudent die 4. von Mahler kennen lernen muß, weil der Prof. darüber spricht, ist es egal, ob das digital oder analog geschieht. Entscheidend ist dann, welche Partitur er in Händen hat.) 

An einem Beispiel aufgezeigt, geht es also darum, daß ein Musikstudent des Fachs Klavier eine Aufnahme einer Klaviersonate mit dem Notenblatt in der Hand verfolgt, sie realiter nachvollziehen kann, und nicht an wiedergabetechnischen Querständen scheitert, die eine exakte Klangdefinition verhindern, möge die Technik auch noch so hochgelobt und teuer sein. 
Bei einem Konzertflügel muß ein Kenner sofort sagen können, was für ein Modell, welches Herstellers, in etwa welchen Jahrgangs und welcher Baureihe er ist. Das sind eigentlich Mindestkriterien. Dann reden wir von HIFI, vorher nämlich nicht. Zwischen interpretatorischer Glaubwürdigkeit und wiedergabetechnischen Bewertungsmaßstäben können Welten liegen, wahre und falsche. Im Zweifelsfall spielt da die Technik eine weniger bedeutende Rolle, als der musikalische Scharfsinn. 
Fehler in der Klangdarstellung von NF-Kabeln müssen nicht immer "Fehler" sein, weil es die absolute, definitive Meßmethode nicht gibt und weil es durchaus möglich ist, daß diese durch die persönliche Ohrkurve des Hörers kompensiert werden. Mittelohreiterungen und Narben im Trommelfell sind das größte HiFi-Hindernis. Und jede höchstbewertete Wiedergabeeinheit (Q) ist der Beweis dafür, daß sie alle diese "menschlichen Schwächen" so gut es geht korrigiert und gleichzeitig durch die Korrektur Fehler gegen die Physik begeht. 
Es findet sich in der folgenden Beschreibung also kein Testbericht oder ähnliches, sondern ein Erfahrungsbericht, der ausschließlich auf der täglichen Studiopraxis fundiert. Nicht geht es auch um die oft überflüssige Analog-Digital-Diskussion, weil jedes Prinzip Vor- und Nachteile hat. Eine vernünftige Schallanalyse ist heute ohne Digitaltechnik undenkbar ..., was soll dann die Rauferei. Es ist auch paradox, technologische Diskussionen mit utopischen Vorgaben zu führen, die vielleicht in 15 Jahren zur Verfügung stehen, zumal man nicht weiß, welche Artefakte dann den "absoluten" Musikgenuß stören - unverzichtbare Klimaanlagen, wegen der fehlenden Ozonschicht. 
Vor allem Komponisten, die überwiegend in Kleinstudios arbeiten, werden an diesem Bericht Interesse zeigen, weil es ihnen nicht möglich ist, jeden Modellwechsel in der Wandlertechnologie unverzüglich mitzumachen, die Gelder fehlen und der Kunstbetrieb ist derzeit nun mal wirklich das allerletzte Rad am Wagen. Das Künstlerleben - in einem Walzer von Strauss so glückselig beschrieben - ist heute das Komponieren und das Betteln, Sponsoren suchen! (B) 

Das Digitalsignal liegt meist an zwei Ausgängen vor, dem TOS-Link-Lichtleiterausgang und dem Coax-Digitalausgang. Ganz richtig ist der Begriff Coax nicht. Er wird hier stellvertretend für Cynch, Cinch, Chinch, BNC und RCA verwendet. Coax ist eine Kabelbezeichnung und das andere sind Steckernormen, mit denen Coax angebunden wird. Also bleibt es hier bei Coax-Kabeln und wie sie angebunden sind, ist eine Wahl des Steckers, bzw. entsprechender Adapter. Bei den Adaptern ist Vorsicht geboten, weil generell Übergangsstörungen zu befürchten sind. In den CD-Anfängen wurde TOS-Link hochgelobt, man glaubte die bestmögliche Signalform vorzufinden. Inzwischen hat man herausgefunden, daß dieses Signal sich weit schlechter darstellt, als das Coax-Signal. Grund dafür ist, daß das Signal für TOS-Link pro Gerät (sendendes und empfangendes) noch einmal gewandelt werden muß. Außerdem gibt es bei den Lichtleitern selbst erstaunliche Unterschiede in der Übertragungsqualität, fast ähnlich denen bei NF-Leitungen, aber nicht ganz so dramatisch, trotzdem deutlichst hörbar. Im Vergleich zu Coax ist TOS-Link für High-End mit Vorsicht zu handhaben. Daher unverständlich, daß ALESIS ADAT davon nicht abgeht. Zumal ADAT ein eigenes Format verwendet und das Alesis AI-1 notwendig ist, damit man überhaupt externe Wandler anschließen kann. 

Das TOS-Link muß also unbedingt auf Coax überführt werden, damit es nicht wieder auf den TOS-Link der zweiten Maschine trifft (TOS). In manchen Fällen kann man den TOS-Link-Ausgang dadurch umgehen, daß man schlicht vorher auf BNC abzweigt. Wo das nicht geht, bietet Audio Alchemy (folgend als AA bezeichnet) den Data Stream Transceiver (DST) an, der TOS-Link auf Coax bringt. Eingangsseitig hat man wahlweise Coax und TOS-Link Eingänge. Damit kann man auch an alte Geräte heran, die nur TOS-Link bieten. Ausgangsseitig findet sich Coax. Die Leitung ist aktiv, mit einem Steckernetzteil als Stromversorgung. Alle AA-Bausteine haben diesen Versorgungsweg. Im Sinne einer wirklich optimalen Spannungsversorgung wären aus mehreren Gründen Akkus vorzuziehen, deren Strom weitaus sauberer ist - ein Vorteil mobiler CD's und DAT's - und man kann netzunabhängig arbeiten, bekommt also nicht die Störquellen im Studio auf den Wandler. Strenggenommen kommt man um den DST nicht herum, wenn TOS-Link auf Coax überführt werden soll, weil alle TOS-Link-Anbindungen Schwachstellen sind und man am Digitalwandler (oder Jitter-Killer AA/DTI) direkt auf Coax kommt. Ein ernster Hinweis: Bei der Verwendung des AA-DST am TosLink-Ausgang eines CD-Players kann es in einem benachbarten UKW-Analogtuner zu massivsten Einstreuungen kommen. Dadurch bricht das Stereosiganl im Tuner restlos zusammen. Aber: Wer hört im Tonstudio schon Rundfunk und komponiert dazu? Trotzdem ist das mit den Einstreuungen eine unschöne Geschichte, weil es ratsam ist, die Wandlerequipment permanent unter Strom zu halten, damit das klangliche Arbeitsniveau nicht absinkt. Und noch ein Schönheitsfehler. Auch der DST ist nicht für ADAT tauglich, da er nicht alle Signalformate verarbeiten kann. 

Die Signalfolge aus dem DST kann wegen der ersten Wandlung im Wiedergabegerät und eventueller Unregelmäßigkeiten des Laufwerks bei der Abnahme am TOS-Ausgang nur bedingt ideal sein. Ein "Schrittmacher" muß sie wieder so ordnen, daß sie die für den Digital-Analog-Wandler geeignete Paßform haben, denn gerade die Unregelmäßigkeiten eines alten CD-Laufwerks machen dem DA-Wandler enorm zu schaffen und je häufiger die Fehlerkorrektur einschreiten muß, um so mehr wird das Signal "verbogen". Es entstehen regelrechte Artefakte, die eigentlich signalfremd sind, weil die Fehlerkorrektur nicht exakt genau wissen kann, wie das ideale Signal aussehen sollte, also wohin es wandeln soll. 
Das Signal aus dem DST wird auf ein Digital Transmission Interface geführt (DTI v.2.0 oder DTI PRO von Audio Alchemy) welches drei Eingänge besitzt, einen Coax, einen TOS-LINK, einen AES/EBU. Jeder Eingang kann (außer ADAT) alle Digitalformate lesen. Wenn man folglich eine Signalquelle mit Coax hat, kann DST wegfallen und man geht gleich auf Coax. Trotzdem sei hier nicht verschwiegen, daß der DST einen beträchtlichen Leistungsschub vor allem bei Klaviermusik (und folglich auch bei Popmusik) bringt. Das Instrument bekommt deutlich mehr Rückgrat und Akkuratesse. Beim Wandler selbst besteht die Qual der Wahl, welche aber durch absolut glaubwürdige Testberichte doch in eindeutige Bahnen gelenkt wird, und diese führen vor allem aus pekuniären Gründen direkt zu Audio Alchemy. Während es anderswo bei so einer Kette um fünfstellige Zahlen geht, bleibt man bei AA doch bei drei, manchmal vier Stellen - immerhin verkraftbar. Der Verfasser kann sich bis heute nicht von folgender Konfiguration trennen: 
 
SONY CD ->  DTI v2.0 -> DDE v1.0
-------------->
Orchestermusik, 
ES 777 | und alles andere
|
-----> DST -> DITB -> ausschließlich
Klaviermusik

An dieser Stelle, kann das Signal zum Abhören verwendet werden, es liegt analog vor und gelangt in der Regel in einen Vorverstärker, Verstärker usw. 

Hier besteht aber auch berechtigte Neugier, wie denn nun das Signal akustisch ohne Beeinflussung irgendwelcher negativer Verstärkungsfaktoren, Lautsprechereigenheiten, Verzerrungen, Phasendrehungen durch Frequenzweichen, Membraneigenschwingungen, Gehäuseresonanzen, Raumreflexionen, mitschwingenden Möbel(erb)stücken, usw., aussieht, sich anhört. 

Es ist ein Kopfhörer zu suchen und zu finden, der klanglich ganz oben angesiedelt sein muß (S) und ganz wenig Leistung braucht, weil ja noch zwischen Wandler und Kopfhörer eine passive Regeleinheit geschaltet werden soll, denn bislang existiert keine Möglichkeit, die Lautstärke anzupassen (A). 
Als Regeleinheit eignet sich die "Deluxe-Kopfhörer-Verlängerung" von Völkner-Elektronik (V). Sie ist ein Kompromiß, aber nicht der schlechteste. Und sie hat den Vorteil, daß ein Stereo-Mono-Schalter integriert ist. Das führt zur Erkenntnis, daß Monomitte nicht unbedingt identisch sein muß mit Stereomitte. Dadurch werden auch Hörgewohnheiten des Tonmeisters deutlich, wenn er z.B. einem Primarius durch klangliche Gewichtung mehr Bedeutung zuweist, als dieser selbst haben will, weil seine Klangästhetik und Interpretationsauffassung eine Gleichgewichtung aller Stimmen vorzieht. Dann kommt es zu Unstimmigkeiten in der Balance, weil die Aufnahmetechnik gegen die Interpretation steht, oder weil ein kenntnisloser Hifidelist eine Unterbewertung der rechten Klangseite zu hören glaubt, an der Balance herumzieht und sich das akustische Gleichgewicht verschafft, indem er das musikalische opfert. Hier kann ein Monoschalter klärend eingreifen. Es ist schade, daß diese Kontrollmöglichkeit immer mehr verschwindet. Man baut Musikelektronik spartanisch, teuer, präzise und falsch. 

Monomitte und Stereomitte unterscheiden sich von "Nase vorn", fallen also unterschiedlich aus.

UND: Wenn man diese Gewichtung nicht kennt - das AMADEUS-Quartett spielt ganz anders als das AURYN-Quartett - wäre im Zweifelsfall aus der Sicht der Interpretation glatt eine Monoaufnahme einer Stereoaufnahme vorzuziehen. Für die Praxis bedeutet das, wenn der Tonmeister das AURYN-Quartett genauso behandelt, wie das AMADEUS-Quartett, verpatzt er die Interpretation, egal ob analog oder digital gemastert wird. (H) 

Solche Entscheidungen sind wichtiger, als endlose Bit-Diskussionen, oder die Frage, ob nicht technologisch parallele Gedankenspiele zu Quantisierungsdebatten letztlich zur der zweifelhaften Überlegung führen, wie die Granulatdichte im Vinyl die Interpretation beeinflußt. 
Oft kommt es zur regelrechten Verdrehung von musikalischen Aspekten oder deren ungerechtfertigten Ausweisung, so daß aus argumentativen Falschheiten heraus scheinbar ernsthafte Diskussionen entstehen, deren Wert allerdings nur in reiner Rhetorik besteht. 
Die hifidele Seinsfrage muß von der Musikwissenschaft gestellt werden und nicht von den Maschinenbauern. Dann kommt es zu anderen Antworten (SATire). 
Zurück zum Kopfhörer! 

Die Abstimmung eines Kopfhörers ist wesentlich schwerer als die Abstimmung eines Lautsprechers, weil der Kopfhörer in der Wiedergabe der klangbestimmenden Parameter ungleich genauer ist. 
Die Wahl fällt auf den "HP 2 SIGNATURE von Joseph Grado" (S). Grado baut hochwertige Tonabnehmersysteme und versteht daher eine Menge vom Wickeln von Spulen. Nur logisch, daß er auch weltbeste Kopfhörer bauen kann. (G) 

Es folgt die Beschreibung einiger Anwendungsfälle aus der Tonstudiopraxis. Daß dabei Maschinen erwähnt werden, die aus allen möglichen "Jahrgängen" stammen, ist nur natürlich. Im Falle der CD-Player ist es sogar sehr empfehlenswert, einen veralteten internen Wandler durch einen jüngeren externen zu ersetzen, als den kompletten Player wegzugeben, obwohl das Laufwerk noch voll seine Dienste tut. 
Grado HP 2 zeichnet ziemlich dunkel, daher muß man versuchen, ihn bei den meisten Anschlüssen etwas aufzuhellen. Nur an sehr hellen Verstärkern (Verstärker der 70er Jahre, Marantz, Luxman) kann man ihn belassen. 

Geeignet zur klanglichen Anpassung ist z.B. das Kabel "Mseries M 350 High Resolution Audio Interconnect Cable with Magnetic Flux Tube" oder auch das "Restec 7N Copper Audio Cable", wobei zu beachten ist, daß das Restek weit teurer ist, als das Mseries. 
Nicht geeignet sind Reinsilberkabel, da diese u.U. einen ausgeprägten Badewanneneffekt (einem Durchhang in den Mitten) machen und dem Grado noch mehr Tiefen verschaffen (die Höhen wären ja erwünscht). Allerdings kann man nicht ausschließen, daß mit einem eher flach klingenden Verstärker, bzw. einem mit Mittenbetonung (Harman Kardon) auch ein Silberkabel für die Anbindung geeignet sein kann. Verstärker mit einer leichten Überzeichnung der Mitten werden manchmal von Klassikhörern bevorzugt, weil sie wichtige Rezeptionsparameter konturierter übertragen, was z.B. auch Stimmen zugute kommt. 

Zwei praktische Beispiele: 

An einer McIntosh Vorstufe (z.B. C 29, für Kenner einer der besten McIntosh) wird man den Grado mit Mseries anbinden. An einem Luxman kann man den Grado anbinden, wie er ist. An Audio Alchemy liegt für Grado die gestackte Kabelführung nahe, weil der Lautstärkeregler eingebunden werden muß, die Wandler selbst genau in der goldenen Klangmitte liegen, der Grado deshalb durch das Mseries M350 in den Tiefen etwas gebremst werden muß. 

Schließt man an die Ausgänge der Wandler eine Röhrenendstufe an, die entweder einen Jecklin-Float, oder einen AKG K 1000 treibt, ist die gestackte Kabelführung nicht unbedingt notwendig, da die Röhre zwar eine etwas dunkle, beide Kopfhörer aber eine durchwegs helle Klangzeichnung bringen. Nachteilig beim Jecklin-Float ist, daß im Signalweg zwei Feinsicherungen für die elektrostatischen Membranen liegen, tauscht man diese gegen je zwei cm lange Lautsprecherleitung aus sauerstoffreiem Kupfer mit großem Querschnitt, wird die aggressive Helligkeit aufgehoben. Das ist ein Eingriff in das Gerät. Damit verlieren Sie Garantieansprüche und verstoßen gegen VDE/TÜV/CE-Verordnungen. Das kann auch eine strafbare Handlung sein, wenn andere dadurch zu Schaden kommen. Der Hörer aber klingt wesentlich satter und angenehmer. Auch beim AKG kann man Überlegungen in diese Richtung anstellen, zumal das Steckermaterial im Fachhandel zu haben ist. Versuche mit Kabel vom französichen Hersteller FADEL lohnen sich durchaus. Auch "Öhlbach T.M. 2x4" oder "Phonosophie LS 2" können geeignet sein. 

Der Signalweg des Verfassers an einer modifizierten (Greiner/Regensburg) Röhren-Ampliton sieht für den Jecklin wenigstens so aus, daß das Analogsignal direkt aus dem AA-Wandler auf das dazwischengeschaltete Potikabel (Völkner) gelangt, aus der Stereo-Klinkenbuchse mit "Monitor Silver Highflex" (2x10cm!) auf zwei Cinch geführt wird, mit Restek/7N (1m) zum Feinstabgleich auf zwei Schiebepotis geht und von dort über das wirklich dunkle Etalon-Cinch (2x1m) auf die Endstufe trifft, an welcher der Float hängt. Bei diesem direkten Weg vom Wandler auf die Endstufe ist bei manchen Einspielungen, die generell sehr zur Helligkeit neigen, ein wirklich nur minimaler Anflug von Rauhigkeit zu hören. Bei diesen CD's führt der Weg - siehe Zeichnung - vom AA-DDE-V 1.0 über das Kabel WBT-2020 CCS (1,5m) zur McIntosh-Vorstufe-AUX 1 und aus dessen Kopfhörerausgang über Mseries-M350 auf das Potikabel von Völkner. Den AA-DITB (für Klaviermusik - siehe Zeichnung) habe ich geringfügig härter über "monitior CABLE OFC SYMMETRY AUDIO RESPONSE" (1,5m) an McIntosh- AUX 2 angebunden. So kann man beim Hören zwischen zwei Wandlern wählen und auch DAT optimal herüberbringen. (Man könnte noch Digitalrundfunk mit hereinnehmen, aber das wollen wir erst gar nicht diskutieren.) 

Der Weg vom McIntosh geht dann wie oben beschrieben über M350 weiter. Generell halte ich diesen Weg für ideal - wenn man nicht mobil sein muß. 

Die Kabellängen ergeben sich auch aus dem Bemühen, die Digitalelektronik unbedingt von der Analogtechnik fernzuhalten. Die Wandler, direkt auf den Geräten liegend, klingen weit schlechter, als wenn sie räumlich isoliert sind. Auch die Netzteile sind sorgfältig ausgelagert und Stromzuführungen liegen sowieso strikt abseits aller Signalleitungen! 

Wenn die Übergangsstellen von Kabelverbindungen (Wahl der Steckverbindung) zur "Klangkorrektur" mit verwendet werden, sind selbst an diesen Stellen spektrale Verschiebungen möglich, die sich nicht zwangsläufig in meßbaren Linearitätsbeeinflußungen festmachen lassen, aber deutlich wahrnehmbar sind. Kabelstacks eignen sich regelrecht als Ersatz für eine Klangregelung, wenigstens im Einzelfall: Phasengeschichten, wie sie elektronische Klangregelungen machen, fallen weg. Dennoch können auch Kabel die Phase beeinflussen, nicht aber in demselben, also gleichen Masse wie aktive Klangregelungen. Beide Einflüsse sind auch generell nicht vergleichbar, da sie sich physikalisch im musikalischen Zusammenhang, also im Zusammenhang mit der Reproduktion von Schallabläufen anders darstellen und verhalten (können). 

Auch wenn für beide die gleichen physikalischen Gesetze gelten, ist ein Unterschied zu machen, wie oft eben ein physikalisches Gesetz im Einzelfall angewendet wird - und das geschieht in einer elektronischen Schaltung häufiger, als in einem Stück Draht. 

An diesen Beispielen kann man erkennen, daß bei der Anpassung von Kopfhörern an Wiedergabeeinheiten selbst der Spitzeklasse alles drin ist, von wirklich messerscharfer Genauigkeit, die Klaviermusik halsbrecherisch überzeichnet, daß man glaubt regelrecht zwischen den Saiten zu sitzen, bis hin zur filigranen Seidigkeit, die z.B. das Quartettspiel zu intimster Homogenität führt, während dieses in einer unglücklichen Anpassung auseinanderfällt, die Musiker nebeneinander her spielen, als ob sie zerstritten wären. So kann die Wahl der Wiedergabemittel eine Interpretation beeinflussen und welchen Wert Plattenrezensionen unter Vernachlässigung der Angaben zur Abspieleinrichtung haben, ist eine Geschichte für sich. 

Den Rang- und Namenlisten in Fachzeitschriften muß man daher mit größter Skepsis begegnen, oft sind definitive Aussagen sinnlos, da durch Kabeleinflüsse wirklich gravierende Verschiebungen eintreten können. 

Hier ein Negativbeispiel, das aber nicht unbedingt generell als solches zu werten ist, sondern den Einfluß der Signalleitungen auf das Erscheinungsbild einer Interpretation eindrucksvoll bestätigt. 

Signalweg: TosLink von CD -> 5cm Glasfaser -> AA/DST -> DITB -> Restek/NF 1m -> "Monitor"-Übergang (Highflex/Silber 2x10cm) auf Stereo-Klinke -> M35O 1,5m -> Potikabel von Völkner Elektronik -> Grado HP 2 

(Der häufige Kabelwechsel kommt auch deshalb zustande, weil Übergänge auf verschiedene Kabeltypen zu schaffen sind. Idealerweise könnte man auch löten.)

Ergebnis: Das Klangbild zerfällt in Einzelaktionen. Beispiel: Beethoven Violinsonaten mit Kremer und Argerich (Deutsche Grammophon). 

Beim Hören stellt man sich verzweifelt die Frage: "Warum musizieren die nicht zusammen?". Man hat den Eindruck, jeder spielt seinen eigenen Part für sich. Das Klangbild ist spektral so überzeichnet, daß selbst kleinste Unregelmäßigkeiten in Klavierläufen dramatisch hervorgehoben werden. Das Spiel verliert jede Eleganz und Musikaliät. Das Klangbild ist so "überattackig", daß jede Homogenität des Spiels verloren geht. Der Zusammenhang fehlt.
 

* * * * * * * * * * * * * * * * * * * * * * * * * * * * 
Das positive Gegenbeispiel (aber mit anderem Laufwerk) ist weiter oben beschrieben und in einer Zeichnung dargestellt. Der Kabelweg vom letzten Teil der Wandlereinheit sieht so aus:

Wandler out -> NF-Cinch auf Stereoklinke -> Mseries -> Völkner/Potikabel -> Grado HP2.

In diesem Fall war auch eine TOS-Link-Anbindung unter High-End-Aspekten möglich.

Es ist nach Meinung des Verfassers die beste Abhörmöglichkeit, wenn man beweglich sein muß. Zudem befaßt sich Audio Alchemy mit Stromversorgungen auf Akkubasis, was der weiteren Netzunabhängigkeit und Tonqualität zugute kommt.
* * * * * * * * * * * * * * * * * * * * * * * * * * * * 
 

Kabel können also wesentlichen Einfluß auf das Klanggeschehen nehmen. Für die Bewertung einer Interpretation muß aber vor allem die Verzerrung der dynamischen Schattierungen ausgeschlossen werden. Leider wird dies in kaum einem Test zur Sprache gebracht und ist doch so entscheidend für die Faßlichkeit einer Interpretation. Das betrifft analoge Wandler (Tonabnehmer für Vinyl) genau so wie digitale. 
Die Wandler von Audio Alchemy sind in der Lage, die klangdefinierenden Parameter so ideal und in sich stimmig zu gewichten, daß sie eine vor allem auf Werktreue gerichtete Hörästhetik ermöglichen. Die dadurch ausgeschlossenen spektralen und dynamischen Fehlleistungen erleichtern eine Analyse der Interpretation vom Standpunkt der professionellen Instrumentallehre. Und das ist sehr viel! 

Für den Komponisten bedeutet dies: Wer falsch hört, komponiert falsch. Wer mit übertriebener Klangzeichnung hört, untertreibt beim Komponieren - über Lautsprecher klingt das Ergebnis fahl, flach, leblos. Umgekehrt gilt das natürlich auch. 

Ohne die Absicht irgendeiner Werbung habe ich den Maschinen von AudioAlchemy gegenüber vielen anderen den Vorzug gegeben, weil sie fürs Geld die werktreueste Abbildung einer Interpretation ermöglichen. Das ist man in musikalischer Ehrlichkeit und Fairness dem Interpreten schuldig und macht dem Komponisten Ehre. Und dabei halte ich den allerersten Wandler aus dem Jahre 1991 für den ganz gewiß nicht schlechtesten, konnte er auch nicht sein, denn er hatte mit den frühen CD-Playern zu tun und machte diese unzivilisierten Gesellen einigermaßen hoffähig. 

Deshalb ist es nur anzuraten, ein altes DAT nicht auszuwechseln, solange das Laufwerk mitspielt, sondern die Maschine über eine hochwertige Wandlerkonfiguration laufen zu lassen und vom DAT nur das Bandlaufwerk zu nutzen. Bei ADAT geht der Weg über AI-1. Angesichts der vielen Samplefrequenzen im Studiobereich (Elektronische Musik) wäre zu wünschen, daß nachgedacht würde über eine Wandlerkonstruktion, die, ähnlich einem sich selbst anpassenden Netzteil, das ankommende Format selbst erkennt und somit für alle Maschinentypen geeignet wäre. 

Es wurde versucht die Signalwege sehr genau zu beschreiben, weil selbst zwei Zentimeter Kabel ein Klangbild entscheidend beeinflussen können (siehe Modifikation Jecklin-Float). Auf Lautsprecherwiedergabe ist diese Beschreibung nicht ohne weiteres übertragbar, dies sei nur gesagt, daß keine Mißverständnisse entstehen. 

Beim Nachvollzug bin ich gerne zur Hilfe bereit. Meine Anschrift erfahren Sie bei den Redaktionen. 


Fußnoten und Anmerkungen 

Abkürzungen:
 
SONY 777 CD  =  CD-Laufwerk als Signalquelle, könnte auch DAT sein. 
AA  =  Audio Alchemy 
AA DTI v2.0  =  Jitter-Killer, Fehlerkorrektur 
AA DDE v1.O  =  erste Generation von DA-Wandlern 
AA DST  =  aktives Übertragungskabel
AA DITB  =  DAC-in-the-Box: Digital-Analog-Converter-in-the-Box (neuere Generation von DA-Wandlern)

(A) Es gibt einen ausgezeichneten Wandler von AA mit (ferngesteuerter) Lautstärkeregelung. Der stand für diesen Bericht nicht zur Verfügung - aus pekuniären Gründen - man denkt an Achternbusch und viele andere.

(B) Vielleicht zeigt uns Bonn heute bewußt die Gründe auf, warum Komponisten vom Notenblatt zur Schweinezucht und ähnlichem wechselten. Dann sollen die Damen und Herren dort kollektiv fetten Saumagen schmatzen, anstatt Haydn hören. 

(G) Er ist für einen dynamischen Kopfhörer astronomisch teuer, glauben Sie es bitte und denken Sie daran, bevor Sie einen HiFi-Laden betreten, denn Sie wollen ja nicht unangenehm auffallen, wenn man Ihnen den Preis nennt. Bedenken Sie auch, es gibt noch teurere, aber auf Lebenszeit gerechnet ist er billig und man braucht keinen weiteren mehr, weil alle anderen schlechter oder sonst irgendwie für unser Vorhaben unbrauchbar sind. Denn entweder brauchen Sie ein E-Werk zum Antrieb von Systemen wie Jecklin-Float oder manche von STAX, auch AKG K 1000 und sind daher nicht netzunabhängig transportabel, oder sie sind so miserabel (Hörer für Walkmen, die brauchen wenig Leistung), daß sie nicht einmal der Papst aus Mitleid aufsetzen würde.

(H) Die Diskussion ist also vorrangig nicht, ob Horowitz analog oder digital gehört wird, sondern, daß Thomas Frost der ideale Tonmeister für ihn war und es verstanden hat, sein facettenreiches Klangspiel so festzuhalten, daß es für den Hörer allemal faßlich (Es sei an die "Faßlichkeit einer Struktur" bei Anton Webern erinnert!) dokumentiert ist. Es wäre doch völlig unsinnig gewesen, wenn Frost nur das Ziel gehabt hätte, irgendeinen "fantastischen Klavierklang" herüberzubringen, diesen, also einen ganz bestimmten in jeder Interpretation anzustreben und um seinetwillen die Interpretation kaputtzumachen. Und was ist, wenn eine Abhörequipment dynamisch derart überzeichnet, daß die Gewichtung der Anschlagskultur bei Horowitz zur Farce gerät? Dann ist auch seine Interpretation eine Farce geworden - und was kann er dafür? Das ist ein Problem bei der Besprechung von Tonträgern. 

(K) Manche Analog-Digital-Diskussion gleicht dem Streit zweier Kaffeetrinker darüber, ob der Zucker nun als Granulat oder Würfel besser sei, aber keiner stellt die Frage nach der individuellen Menge. Die überläßt man einem Zuckerfabrikanten und der sagt: Möglichst viel auf einmal! 

(P) Persterer, A: CAP Creative Audio Processor - ein Hochleistungssystem zur digitalen Audiosignalverarbeitung, TMT 1988, Tagungsbericht 

(PL) G. Plenge: Über das Problem der Im-Kopf-Lokalisation, in: Acustica Heft 5/1972 siehe dazu auch: Kürer, R., Plenge, G., und Wilkens, H., 37. AES Convention New York 1969, Preprint 666 (H-3) 

(Q) Zweifelquotient: 1 

(R) Begleittext zur CD Ludwig van Beethoven, Symphonie Nr.5 c-moll op. 67, Symphonieorchester des Bayerischen Rundfunks, Leitung 
Sir Colin Davis, BRTD 002, hier: Martin Wöhr, Die raumbezogene Aufnahmentechnik, S. 6/7 

(S) Testspiegel (1/1996) über Grado HP 2 Signature in der Zeitschrift STEREO: "Das Maß aller Dinge". Grado hat inzwischen den HP 2 durch ein Nachfolgemodell abgelöst, das gewiß nicht mehr das Maß aller Dinge ist. Also Vorsicht! 

(SATire) Der allanaloge Weltkongreß muß neben dem alldigitalen Weltkongreß unter dem fürsorglichen Dach des technologisch völlig unfähigen musikwissenschaftlichen Weltkongresses installiert werden, aber bitte so, daß die digital-analogen Grenzgänger beide besuchen können, so wie ein Christ einen evangelischen und einen katholischen Kongreß besuchen kann (und darf). 

Die Allanalogen unterscheiden sich meist dadurch wesentlich von den Alldigitalen, daß sie sich mit dem hinreichend bekannten Bruderkuß begrüßen, während man die Alldigitalen daran erkennen kann, daß sie beim Hören entweder stehen und die untere Kopfhälfte zur Musik hin ausrichten (Kinntyp) oder sitzen und sich mit nach vorne geneigtem Schädel (Fontanellentyp) ungemein konzentriert dem musikalischen Geschehen widmen. Falls sie weiches Schuhwerk tragen, kann man gelegentlich auch beobachten, daß sie mit der rechten großen Zehe den Takt mitschlagen, wie schlecht erzogene Kammermusiker. 

Für einen historisch in der Wolle gefärbten Musikwissenschaftler ist die Diskussion musiktechnologischer Fragen, insbesondere musikelektronischer Herkunft völlig unzumutbar, es wird ihm eine regelrechte Perversion des Denkens abverlangt, zumal die Musikelektronik sich durch die realiter absente Körperlichkeit der das Betrachtungsobjekt, also die Musik ursächlich bewegenden Elemente, nämlich des Wechselstroms und des Gleichstroms, jeglicher Deskriptionsversuche entziehen kann und sich das Objekt daher für die "Vergleichenden" schon gar nicht eignet. Allein der Sachverhalt, daß der Betrachtungsgegenstand als solcher kategorisch einen Teil der Musikwissenschaftler ausschließt, regelrecht imperativ zur Untätigkeit verurteilt, ist schon deshalb von Übel, weil die Materie a priori gegen die etablierte wissenschaftliche Demokratie verstößt. Die Musikwissenschaft hat sich das Yoneda-Lemma (siehe dazu: Schubert, Kategorien I, Heidelberg 197O, Seite 23) insofern angeeignet, als ein Gegenstand für alle Zweige des Fachs zur Betrachtung opportun sein muß. Ansonsten ist er unvollkommen und es muß gewartet werden, bis er entweder durch Selbstmutation oder deren exaktwissenschaftliche Andichtung jenen Grad der Vollkommenheit erreicht hat, der ihn für die Analyse geeignet, ja gewissermaßen sogar befähigt erscheinen läßt. 
Es ist gleichsam so, als würde man die Schweizer Garde durch Zumutung von irgendwelchen kleinsten Verteidigungsaufgaben entweihen, und sei es nur, daß die Herren als Kammerjäger herangezogen würden. 

Man muß also tunlichst beachten, daß die wohl individuell, aber nicht notariell festgelegte Zumutbarkeitsgrenze der Wissenschaftler durch das Forschungsobjekt an sich nicht in Mitleidenschaft gezogen wird. Zum Beispiel kann die Analyse eventueller Kurzschlußgeräusche nicht ohne weiteres mit der Analyse der Aussprache von ss, s, ss, tz, zz, zt, p, pt in Schallaufzeichnungen verglichen werden. "sssstztzssssstzsysxprt" kann grundsätzlich verschieden analysiert werden, abhängig vom Wissenschaftszweig, Standpunkt, Analysemethode und Alter der Analysegeräte. (Da Universitäten eine finanzielle Abschreibung nicht kennen, kommen nach der Entfernung der institutseigenen Staub- und Moderschicht auch zuweilen mosaische Geräte im Sinne einer maschinellen Demokratie zum Einsatz, "damit diese nicht an ein anderes Institut abgezogen werden".) 

Gerade aber das digital-analoge Forschungsgebiet würde durch kultusministerielle Ausweisung als "Immerwährendes Forschungsobjekt" eine Legion von Musikwissenschaftlern in Arbeit und Brot bringen, bevor sie staatlicherseits dem Straßenbau oder dem jahreszeitlich organisierten Landschaftsschutz zugewiesen werden. Es kann auch nicht ausgeschlossen sein, daß zur endgültigen Klärung von strittigen Sachfragen bitorientierte Parapsychologen hinzugezogen werden müssen, was aber bei den Gregorianern, die gegenwärtig Gema-Hoch-Zeit haben, Betrübnis generieren würde, wenn sich nicht gar ernstzunehmende Konflikte entwickeln. 
In Anlehnung an politische Gepflogenheiten, könnte aber wohl die Installation eines digital-analogen Vermittlungsausschußes angedrohte und ausgeführte Tätlichkeiten, wie zwischen Künstlern und Musikkritikern schon geschehen und dokumentiert, eingrenzen oder gar verhindern, so daß ein Bestand der Zusammenarbeit wenigstens in Bits und Bytes, sowie analog auch auf Papier gesichert ist und die Repräsentanz nach außen hin und im Internet optimal gestaltet werden kann, zur Erhaltung der umfassenden, diskreten und segensreichen Sponsorentätigkeit als der realen, meßbaren, kulturellen Höchstleistung, die als Bewertungskriterium dafür zur Verfügung steht, ob der Sponsor seinerseits einen Sponsor verdient hat. Die Kunst muß an die Börse. Erst dann wird sie berechenbar. The Three Tenors gegen Telekom: analog gegen digital! Was würden Sie denn nehmen? Ich, die 3 Tenöre, Sie doch auch, oder etwa nicht? Da weiß man, was man hat! 

(TOS) Der Verfasser hat zusammen mit anderen ADAT-Benutzern die ganz wichtige Erfahrung gemacht, daß TOS-Link-Verbindungen geradezu chaotische Zustände hervorrufen können. Bei dem Versuch ADAT-Bandspuren (kann auch bei DAT passieren!) in einen Computer zu portieren kam es zu dramatischen Artefakten, so daß ein regelrechtes Gewitter aus Knacken entstand. Nachdem meßtechnisch kein Fehler zu eruieren war, kam jemand auf die Idee den Lichtleiter umzudrehen und siehe da, zu aller hellem Erstaunen war das Signal nun völlig einwandfrei, einem Coax-Signal durchaus nicht nachstehend. Der Verfasser begann nun, einmal an den TOS-Kabelenden zu manipulieren und kam zu dem Ergebnis, daß das Signal um so besser ist, je planer und paralleler das Glasfaser abgeschnitten ist. Wer an diesen Stellen mit der Gartenschere arbeitet, wird dann auch seine blauen Wunder beim Signaltransport erleben. 
Nach diesen Erfahrungen, hat man zweierlei gelernt. Erstens, daß Kabelfragen bei Lichtleitern genauso auftreten, wie bei Audiokabeln. Material, Richtung und Verarbeitung spielen entschieden bei der Musik mit. Zweitens kann es also durchaus TOS-Link-Verbindungen geben, die besser sind als Coax. Man müßte sich in einem Langzeitversuch einmal mit den Lichtleitern der Telekom befassen. Insider wissen, daß die Telekom besonders hochreine Lichtleiter verwendet (anstelle einer Nylonangelschnur). 

(V) Völkner Elektronik, Braunschweig, Best.-Nr.: 032-916-692 

(W) Einen Vorteil hat die Sache, man kann mit einem guten Editor aus dem digitalisierten Signal die Kratzer herausmachen oder das Rauschen wegradieren. 

(Z) Der "Zweifelquotient" ist das Divisionsergebnis einer Aussage in einer HiFizeitschrift im Verhältnis zu einer definierten Anzahl anderer Blätter. Ein Beispiel! Blatt A stimmt in einer Aussage von 7 Testberichten mit zweien überein, differiert aber mit 4 Blättern, dann beträgt der Zweifelquotient 3:7. Der Zähler gibt also die Zahl der in der Aussage gleichliegenden Berichte an. Im Nenner steht die Zahl der untersuchten Berichte. Je näher der Quotient gegen Null strebt, um so isolierter urteilt das Blatt, je näher der Wert gegen 1 strebt, um so näher liegen alle Blätter in der Aussage beisammen - oder, um so mehr haben alle voneinander abgeschrieben - oder, um so mehr Kapital hat die Herstellerfirma in das "Sponsoring" ... gesteckt. Pardon! So kommen schließlich die 0 und die 1 doch noch zu den Analogen. (1.4.96) 

(ZeM) Dieser Aufsatz erscheint in der HIFIscene/Schweiz und im Mitteilungsheft der ZeM-Vereine Freiburg/ Bremen (ZeM). Daher bitte ich die HIFIscene um Nachsicht, wenn ich ausnahmsweise nun in die Niederungen trivialer Studiopraxis hinabsteige, anstatt in den höchsten highfidelen Soundetagen herumzuturnen, weil sonst unsere Studios unbezahlbar würden. Mein Studio hat weit über 100 Steckdosen, die SUN-Leiste nicht mitgerechnet! Andere kommen mit 5 Steckdosen aus, an der fünften hängt die Stehlampe. 
Ich meine auch, daß man fachübergreifende Probleme in fairer Weise fachübergreifend diskutieren sollte. Und ein Gedankengang läßt mich nicht los. Ausgerechnet in Dübendorf sitzt Dr. habil. Guerino Mazzola (ETH Zürich), der einen höchst ernstzunehmenden Verein für Grundlagenforschung in der Musik gegründet hat, in dem sich zusammen mit höchst renommierten Leuten aus der Mathematik, Musik, Akustik und Hirnforschung wieder Mitglieder von ZeM befinden. Alle zusammen könnten da eine Menge bewegen, wenn man sie nur zusammenbringen würde. Und ich werde mein Bemühen in diese Richtung lenken. Der nächste Kongreß von PRO IFM in Zürich muß mit einer Begegnung mit den Leuten der HIFIscene verbunden werden. Laßt diese Leute aufeinandertreffen, es kann bedeutsam sein. Allein der Austausch der Aspekte und Erfahrungen wäre ein Beitrag zur Grundlagenforschung in der Musik, oder etwa nicht?

5/1996

 

 


Gerda Schneider

Auf hören eingestellt, und sonst gar nichts

Aus verschiedenen Gründen wird die extreme oder konsequente Einseitigkeit, mit der die Vorführungen von ZeM sich auf das nur Akustische beschränken, immer wieder kritisiert. Einerseits koppelt ZeM sich damit von dem populären Trend zu Multimedia ab und vergibt damit vielleicht eine Chance, ein größeres Publikum für seine Vorführungen zu gewinnen. Vielleicht verweigert sich ZeM aber hierbei nicht nur einer Mode, sondern wird der menschlichen Natur nicht gerecht, denn der Mensch ist ja mit seinen vielen Sinnen von Natur aus multimedial angelegt. Handelt es sich also auch bei dieser strikten Reduktion aufs Hören um eine "Unmenschlichkeit"? Oder ist es einfach Bequemlichkeit, Unfähigkeit, eine Beziehung zwischen Visuellem und Akustischem herzustellen und dem Hörer auf diese Weise den Zugang zur Elektronischen Musik zu erleichtern?
In den ersten Jahren von ZeM haben einige Mitglieder sich dem Reiz, Visuelles in Klang umzusetzen und umgekehrt nicht verschließen können, zumal es in der Natur eines Programmes liegt, daß die Werte, die berechnet werden, unterschiedlich interpretiert werden können: Sie können z.B. als Werte einer Hüllkurve, als Frequenz, als Werte eines Delay etc. aufgefaßt und umgesetzt werden, sie können aber genauso gut als z. B. Farbwerte oder Bildpunkte eine Graphik gestalten. Diese Vielseitigkeit eines Programmes ist eine Verlockung, und man kann sich daran begeistern, zu welchen Ergebnissen die gleichen Werte führen, je nachdem, ob man sich für die visuelle oder akustische Interpretation entscheidet. Doch dann kommt nach der anfänglichen Begeisterung die etwas ernüchternde Frage: Kann ich nun Elektronische Musik besser hören, verstehen? Bekomme ich dadurch Anregungen für Produktionen? Gelingt es mir nun, einen interessanten Sound zu produzieren? 
U.U. kann das eine oder andere Mal die Frage mit ja beantwortet werden, jedoch nicht im Prinzip, und das wiederum führt zu der Frage, woran das liegen mag.
Sicher sind Prinzipien der Gestaltung übertragbar, und so kann z.B. ein Algorithmus, der eine Graphik generiert, auf die Gestaltung eines Sounds übertragen werden und zu interessanten und neuen Ergebnissen führen. Aber das Ergebnis kann auch sehr enttäuschend sein. Denn eine solche Umsetzung realisiert eine von vielen Möglichkeiten und bleibt oft hinter der Erwartung zurück. Die visuellen Assoziationen beim Hören eines Klanges entsprechen nicht genau der Graphik - es sei denn, der Hörer hat sich an bestimmte Muster, sozusagen Pattern, bereits gewöhnt -, und eine bestimmte Graphik erzeugt beim unvoreingenommenen Hörer nicht den Klang, den er auf Grund des Bildes erwartet hat. Versucht der Hörer nun, Graphik und Klang in eine eindeutige Beziehung zu setzen, legt er sich fest: Er hört nicht das, was zu hören ist, sein Hören ist durch die Graphik fremdbestimmt, es wird durch die Graphik gelenkt oder sogar dominiert. Und im umgekehrten Fall wird die bildliche Vorstellungskraft eingeengt auf das, was zu sehen ist. 
Zunächst kann als Widerspruch aufgefaßt werden: die Begabung des Menschen mit verschiedenen Sinnen und das Bedürfnis, eine direkte Beziehung zwischen den Sinneseindrücken herzustellen - und dies gilt nicht nur für die Beziehung zwischen Hören und Sehen- und auf der anderen Seite die Unmöglichkeit, Wahrnehmungen eines Sinnes direkt und eindeutig in eine andere Sinneswahrnehmung umsetzen zu können. Es besteht die Gefahr, daß Hören und Sehen gelenkt werden, daß Muster sich bilden wie Pattern, in welcher Weise Gehörtes und Gesehenes sich entsprechen sollen. Und die Erfahrung zeigt auch: Entweder erfolgt meine Wahrnehmung multimedial, dann ist im Prinzip jeder Sinn angesprochen, dafür aber nur bis zu einem gewissen Grad - oder ich reduziere auf einen Sinn, z.B. das Hören, gewinne aber durch diese Reduktion ein höchstes Maß an Differenzierung. 
 

Das bedeutet aber nichts anderes, als daß gerade durch die Reduktion auf das Akustische die Fähigkeit zum Hören gesteigert werden kann, und das ist es doch, was wir erreichen wollen. Jede Hinlenkung auf ein anderes Medium ist eine Ablenkung vom konzentrierten Hören. Dazu gehört, will man konsequent sein, auch Livespiel. Denn die Manipulationen des Spielers an einem Synthesizer rufen eher Assoziationen hervor, die im klassischen Konzertbetrieb anzusiedeln sind, und eine bestimmte Handbewegung erklärt nicht die Entstehung und Bewegung eines Klanges im Raum. Genau so wenig wird durch eine Mausbewegung dem Hörer der Aufbau eines Klanges deutlich.
 

Fazit: Was zeitweise als ein gewisser Mangel der Vorführungen von ZeM angesehen werden konnte, stellt sich als der richtige Weg heraus: Konzentration durch Reduktion, Einseitigkeit als Angemessenheit, unimedial und damit im eigentlichen Wortsinn universal, d.h. dem Einen zugewandt.

 

 


Georg Sichma

Zum Unterrichtsversuch "Kreatives Arbeiten mit dem Computer im Musikunterricht"

Es handelte sich bei den Schülern um die Halbgruppe einer 9. Gymnasialklasse, die ich seit Februar '95 bedarfsdeckend und eigenverantwortlich unterrichtete. Die Gruppe bestand aus fünf Mädchen und sieben Jungen. Die Schüler verfügten über recht unterschiedliche Musikkenntnisse und -fertigkeiten. Es sind teilweise keine Notenkenntnisse vorhanden. Dieses fehlende Wissen wirkt sich nachteilig auf die Motivation der Schüler aus, sich im Unterrichtsverlauf an musikpraktischen Aktivitäten zu beteiligen. Einige Schüler waren der Meinung, sie könnten ja doch keine Musik selber machen und zogen sich daher lieber hinter theoretischer Auseinandersetzung und Musik hören zurück. Während drei Jungen eigene Computer besitzen, haben zwei Mädchen noch nie einen Computer bedient. Die Vorkenntnisse und Fertigkeiten der übrigen Schüler waren zwischen diesen beiden Polen anzusiedeln. 
 

Die Situation an der Schule 

Diese Unterrichtseinheit am Schulzentrum Schaumburger Straße in Bremen kann als Pilotprojekt bezeichnet werden, da die vorgefundenen Voraussetzungen unzureichend waren, die anstehenden Erfahrungen aber entsprechende Neuinvestitionen anregen können und in entsprechende Überlegungen der Schulleitung eingeflossen sind. Seit Anfang des Jahres 1995 ist ein Apple-Computerraum mit acht Schülerarbeitsplätzen und einem Lehrerarbeitsplatz mit LC-Display und Overheadprojektor ausgestattet. Die beiden letzten Computer sind ältere Modelle (Apple Classic II) und nicht für die Musiksoftware der UE geeignet. Der Raum wurde bislang noch nicht für das Unterrichtsfach Musik genutzt, so daß sowohl Musik-Software als auch die periphere Hardware fehlten. Freundlicherweise wurde auf meine Anfrage hin die Software wie auch MIDI-Interfaces von den Vertreiberfirmen für einen begrenzten Zeitraum kostenlos zur Verfügung gestellt. Der benötigte Sampler wurde von mir gestellt und die Verstärkeranlage ist Eigentum der Schule. 
 

Vorüberlegungen 

Der Gegenstand dieser Unterrichtseinheit (UE) ist der Einsatz des Computers im heutigen Musikleben. Neben der den Schülern vertrauten Popmusik wird mit diesem Medium auch im Bereich experimenteller Musik gearbeitet. Im Unterrichtsvorhaben sollen Fragen diskutiert werden, etwa wie: "Hat die experimentelle Computermusik ihre eigenen Kompositionsregeln?", oder: "Was hat das Gehörte noch mit Musik zu tun?". Insbesondere wenn Geräusche als Klangmaterial eingesetzt werden, neigen Laien zu der Position, dies sei doch keine Musik. Doch anhand einiger musikspezifischer Parameter wie Rhythmus, Ton- bzw. Klanghöhe, Transparenz und Dichte kann einer solchen Ansicht begegnet werden. 
Diese musikimmanenten Faktoren bieten eine erste Orientierung, wie mit neuem Material (nämlich dem Geräusch) kompositorisch umgegangen werden kann. Abgeleitet von einem Hörbeispiel folgt die Umsetzung von Schülerideen mit dem MIDI-Instrumentarium. Hierzu wird ein eigenes Thema (Titel eines Werkes) benannt, das musikalisch bearbeitet werden soll. Ausgewähltes Klangmaterial ist im Sampler ansteuerbar, kann also nach Belieben "gespielt" werden. Was gespielt werden soll, wird in das Sequenzerprogramm des Computers eingegeben, kann schließlich hörbar gemacht werden, um so Veränderungsvorschläge zu erarbeiten und umzusetzen. Ist der Kompositionsprozeß beendet, kann das Werk vorgeführt werden. 
 

Didaktisch-methodische Überlegungen 

Viele Schüler wissen bereits, daß zur Produktion von Popmusik sehr häufig der Computer eingesetzt wird. Vereinzelt arbeiten sie bereits selber mit diesen Mitteln und tauschen im Freundeskreis Programme und Ideen aus. Von den zahlreichen Möglichkeiten soll die Arbeit mit dem Sequenzer exemplarisch praktiziert werden, zumal diese Anwendung auch die häufigste ist. Die Veröffentlichungen in der musikpädagogischen Fachpresse beschreiben meist Unterrichtsversuche mit Ausrichtung auf die Popularmusik. Achim GIESELER beschreibt in MuB 6/89 den "Einsatz von Sequenzerprogrammen in der Rock- und Popmusik", Heiner BLECKMANN und Niels KNOLLE(1) berichten in der gleichen Ausgabe über den Produktionsprozeß eines Blüs auf dem Computer. Die neuen Arbeitsmittel werden durch die praktische Schülertätigkeit ausprobiert und ein Bereich des Leistungsspektrums erfahren. Die Musik selber erfordert weniger Konzentration und Aufmerksamkeit, da sie zuvor bereits mit herkömmlichen Mitteln (Instrumente, Gesang, Tonbandgerät) erarbeitet wurde. Die handlungsorientierte Verfahrensweise der o.g. Ansätze erscheint mir für diesen Unterrichtsgegenstand dringend geboten. Allerdings halte ich die Fokussierung auf die populäre Musik dem Medium gegenüber für nicht angemessen. Da der Computer bei Jugendlichen ohnehin ein gewisses, manchmal auch spielerisches Interesse weckt und dementsprechend Motivation und Konzentration zunehmen, ist hier meiner Meinung nach ein idealer Raum, um mit einer neuen Technologie auch neue Wege in der Musik zu gehen. Es war daher geplant, mit Geräuschen, die per Sequenzerprogramm im Sampler angesteuert werden, eine Schülerkomposition zu erarbeiten. Dabei gibt die Länge eines Events an, wie lange dieses Geräusch erklingt, ob es kurz angespielt wird, sich in seiner ganzen Länge entfalten kann oder gar darüber hinaus verlängert, d.h. teilweise wiederholt wird (Loopbildung). Die erklingende Höhe eines Geräusches ist davon abhängig, welche "Note" dem Original zugeordnet wird und in welcher Relation das ausgelöste Event dazu steht. Wird beispielsweise das Original dem c3 zugeordnet, erklingt ein c4-Event mit doppelter Frequenz, entsprechend dem Frequenzverhältnis einer Oktave. Die Transponierung wird innerhalb des Samplers vorgenommen. (2) Durch das Zusammenwirken unterschiedlicher Klänge und deren einzelnen Veränderungen ergibt sich eine Musik, deren wesentliches Merkmal die jeweilig wahrnehmbare Klangfarbe ist. Die Schüler erarbeiten somit eine Klangfarbenkomposition. Im Schülerduden "Die Musik" ist hierzu folgende Definition zu lesen: 
" ... In einer exemplarischen Klangfarbenkomposition würde der "melodische" Eindruck ausschließlich von den Helligkeitsgraden, der "harmonische" von den Dichtegraden und der "rhythmische" von der zeitlichen Abfolge der Klangfarben herrühren ..."(3) 
Den Schülern gab ich zuerst die Möglichkeit, sich selber ein Thema auszusuchen, das sie klanglich erarbeiten wollen. Alternativ dazu bot ich drei Themen zur Auswahl an, wenn kein eigenes Thema gefunden würde. Das Klangmaterial für die Klangfarbenkomposition wurde danach von den Schülern selber geschaffen. Mit Cassettenrecorder und Mikrophon wurden Aufnahmen außerhalb der Schule angefertigt, die später im Plenum ausgewertet wurden, um die besten bzw. zutreffendsten Ergebnisse auf den Sampler zu übertragen. In der Unterrichtssituation arbeiteten jeweils zwei Schüler gemeinsam an einem Computer. Die Schüler sollten soweit wie möglich auftretende Probleme selber bewältigen. Aus diesem Grund wies ich die Schüler an, bei Schwierigkeiten zuerst ihre Mitschüler zu befragen. Andernfalls sollten sie die entsprechende Hilfe dem vorliegenden Handbuch entnehmen und erst am Schluss den Lehrer einbeziehen. Die gegenseitige Hilfe der Arbeitsgruppen untereinander erscheint mir hinsichtlich der sozialen Kommunikation und Interaktion aufbauend. - Zudem ist im Anfangsstadium mit sehr vielen Fragen zu rechnen, die den Lehrer vollkommen einnehmen würden. 
Die Schüler hatten bislang vorwiegend rezeptiv im Musikunterricht gearbeitet. Versuche, im Rahmen einer Unterrichtseinheit Jazz eigene musikalische Ideen zu erarbeiten und umzusetzen, waren nicht sehr erfolgreich, was aber auch mit einem nur mäßigen Interesse an dieser Musik zu tun hat. 
Mit dem für diese UE ausgewählten Hörbeispiel erfuhren die Schüler, um welche Art von Musik es sich handelt. Sie gewannen einen ersten Eindruck. Trotzdem war den Schülern diese Musik im Wesen fremd, die "Spielregeln" waren ihnen nicht vertraut. Dieses Neue aber bescherte den Schülern einen großen Freiraum, in dem mehrere Versuche mit anschließender Hörkontrolle des klanglichen Resultates möglich waren. Eigene Ideen konnten entwickelt, Fehlversuche leicht korrigiert oder gelöscht werden. Nach Diskussion der ersten Ansätze wurden Hilfestellungen durch den Lehrer angeboten, mit denen eine Strukturierung der eigenen Kompositionsarbeit erleichtert werden sollte. Hier fanden allgemeinmusikalische Kriterien wie rhythmische Muster, klangliche Transparenz und Dichte sowie tonhöhenrelevante Strukturen ihre Anwendung. 
 

Warum überhaupt experimentelle Musik? 

In der experimentellen Musik werden die Möglichkeiten des Computers in hohem Masse genutzt, insbesondere werden Arbeitsverfahren entwickelt, die in dieser Form mit keinem anderen Werkzeug realisierbar sind. Daher eignet sich diese Musik sehr gut, um die Computerarbeit kennenzulernen. 
Die Neugierde nach der klanglichen Umsetzung einer abstrakt erstellten Sequenz (Eingabe durch einen Editor ohne gleichzeitige Hörkontrolle) war groß. Der erste Durchgang wurde mit dem voreingestellten Tempo Viertel=120 und einem Saxophonklang gespielt. Die Schüler fanden das Resultat "echt geil", womit sie nicht nur ihre Zufriedenheit, sondern auch ihre Freude zum Ausdruck brachten. Sie waren zwar nicht so vermessen, in ihrem Ergebnis eine neuzeitliche Komposition zu sehen, aber sie hatten Spaß an ihrer Arbeit und der Entstehung. Als alle Beiträge gehört wurden, wiederholte ich den Durchlauf und veränderte hierzu zuerst das Tempo und dann den Klang. Da die Schülersequenzen meist sehr kurz waren, bot es sich an, das Tempo deutlich zu verlangsamen, um die einzelnen Events differenzierter wahrnehmen zu können. Dies begrüßten die Schüler ausdrücklich, denn ihrem subjektiven Empfinden nach passierte plötzlich viel mehr. Zwar korrigierten sie sich sofort selbst, da ihnen objektiv durchaus bewußt war, daß die Events gleich geblieben waren, aber das langsame Abhören ermöglichte ihnen ein ausführlicheres Hören. 
Ich ließ eine Sequenz mit dem Klang eines gezupften Kontrabasses ablaufen. Während mit dem Saxophonklang die hohen "Noten" gut klangen, waren es nun die tiefen. Die Schüler bemerkten dabei den Zusammenhang zwischen Tonhöhenzuordnung des Events und dazugehörigem Klangmaterial. Es deutete sich die Erkenntnis an, daß je nach Klang die Events unterschiedlich zu setzen sind. 
Eine weitere Klangvariante konnte in den noch verbleibenden Minuten versucht werden: basierend auf den bekannten Schülersequenzen verwendete ich nun Schlagzeugklänge. Sie sind zwar als von einem Musikinstrument stammend akzeptiert, haben aber kaum eine melodiöse Eignung und kommen der akustischen Wirkung von Geräuschen nahe. Die Wahl des Schlagzeugs bildet somit eine Brücke zu der geplanten Komposition mit Klangfarben. Die Schüler hörten ihre Sequenzen mit drei verschiedenen Klangquellen und waren über die teilweise recht unterschiedliche Wirkung erstaunt. In jener Unterrichtsstunde sind die Schüler mit zahlreichen Neuheiten konfrontiert worden und haben dem eine große Aufmerksamkeit entgegengebracht. Diese Bereitschaft ist meiner Ansicht nach vom spielerischen Aspekt der ersten Computernutzung unterstützt worden. Im Verlauf von vier Unterrichtsstunden hatten die Schüler umfangreiches Klangmaterial gesammelt und eine Auswahl daraus getroffen. Vier Mädchen entschieden sich für Billardkugeln, Fahrradklingel, Hundegebell und Kamm, über dessen Zacken mit dem Fingernagel geratscht wurde. Die übrigen Schüler wählten Klospülung und Straßenbahn. Die Klänge wurden in den Sampler übertragen und waren nun jederzeit abrufbar. Die zentralen Arbeitstechniken waren geübt worden und die Schüler hatten Kriterien der Klangfarbenkomposition kennengelernt.
 

Auswertung der Unterrichtseinheit 

Bereits in der ersten Unterrichtsstunde hatte ich den Schülern bei der Vorstellung meiner Planung eingestanden, daß ich durchaus unsicher sei, ob oder wie wir die vorgegebenen Ziele erreichen würden, da wir teilweise Neuland beträten. Zu meiner eigenen Freude haben sich die Schüler im Rahmen ihrer Möglichkeiten bei diesem Vorhaben engagiert, so daß sich das Erreichte durchaus sehen und hören lassen kann. 
Die geplanten Ziele sind im wesentlichen erreicht worden. Lediglich die Entwicklung einer kompositorischen Idee und deren Umsetzung in eine MIDI-Sequenz müssen mit Einschränkungen betrachtet werden. Die Schüler probierten Sequenzen direkt am Computer aus und ließen sich dabei nur bedingt von musikalischen Überlegungen leiten. Vielmehr gewann zeitweise der spielerische Umgang mit dem Medium an Bedeutung und stand im Vordergrund. Ich hatte den Eindruck, sie spielten nur mit dem Computer als einem angenehmen Zeitvertreib, statt auf ein musikalisches Ziel hinzuarbeiten. Ließen sie ihre Sequenzen am Lehrerarbeitsplatz abspielen, stellte sich bei ihnen aber doch eine musikalische Empfindung ein, die sie zu einer gezielteren Korrektur veranlaßte. Aus einer spielerischen Entstehung wurde eine musikalische Veränderung, die durch ein entdeckendes Lernen in Gang gesetzt wurde. Das Hören machte die Events zur Musik. 
Stelle ich meine Planungen ein wenig in den Hintergrund, so ist festzuhalten, daß die Schüler eine praktikable Lösung für sich gefunden hatten. Sie schufen erst einmal ETWAS, gleichgültig aus welchem Ansatz heraus, und dieses ETWAS wurde Ausgangspunkt ihrer weiteren Bearbeitungen, ermöglichte ihnen eine musikalische Gestaltung. Der Schaffensprozeß weist Züge der aleatorischen Kompositionsweise auf, wie sie John Cage vielfach verwendet hatte, die den Schülern allerdings nicht bekannt ist. Aber nicht die fachliche Zuordnung läßt mich diese Arbeitsweise akzeptieren, sondern die Tatsache, daß es zu einer (nicht immer, aber immer öfter) musikalischen Arbeit wurde. Ekkehard ARNOLD äußerte sich in einem Leserbrief zum Thema "Musik und Computer" und formulierte hierzu eine zentrale Frage: "Bei allem Medienaufwand sollte immer wieder gefragt werden: Was wird an Musikalität entwickelt und inwieweit wird musikalisches Verständnis, Kreativität und Spontaneität gefördert?(4) 
Gerade das entdeckende Lernen aufgrund der Hörkontrollen setzte eine entwickelnde Überlegung in Bewegung, und das erhoffte kreative Arbeiten fand tatsächlich statt. 
Die Eventeingabe am Bildschirm ist sehr abstrakt. Aufgrund der beschränkten Ausstattung war es nicht möglich, an den Schüler-Arbeitsplätzen jeweils einen Sampler anzuschließen, um die Sequenzen direkt abhören zu können und die Wirkung der Klänge umgehend zu erleben. Die Schüler kannten ihre Klänge aus der Cassettenaufnahme und diese begegneten ihnen als Variationen in der Hörkontrolle wieder. Dazwischen lag theoretische Arbeit. Als ein Schüler in einer Fünf-Minuten-Pause an den Lehrer-Arbeitsplatz kam, spielte er seine Klänge über die Tastatur des Samplers. Er war begeistert über die Veränderung eines Klanges, wenn er das eine Mal in der Tiefe und das andere Mal in der Höhe spielte. Diese Herangehensweise bot dem Schüler einen deutlich umfassenden Eindruck als die Hörkontrolle der eigenen Sequenzen, zumal die Schüler ihre Events meistens in einem begrenzten "Tonumfang" setzten. Aufgrund dieser Beobachtung würde ich bei einer Neuauflage dieser Unterrichtseinheit den Schülern Gelegenheit bieten, ihre Klänge über die Tastatur des Samplers zu spielen, damit sie unmittelbar erfahren können, wie sich der Klang verändert. Durch das Spielen bzw. Improvisieren am Sampler können schließlich Muster entstehen, die dann nicht mit der Maus am Bildschirm sondern mit der Tastatur über die MIDI-Verbindung eingegeben werden. Solch eine eingespielte Sequenz kann anschließend am Bildschirm bearbeitet werden. 
Die Computerarbeit im Musikunterricht erweitert die Erfolgsaussichten insbesondere notenunkundiger Schüler. In meiner Lerngruppenbeschreibung führte ich u.a. aus, daß einige Schüler der Meinung seien, sie könnten ja doch keine Musik selber machen. Dies wollten sie im Verlauf der Unterrichtseinheit in dieser Form nicht mehr gelten lassen. Ihnen waren zwar nach wie vor ihre beschränkten musikalischen Fertigkeiten bewußt, doch hatten sie hier einen Weg kennengelernt, mit ihren Voraussetzungen die musikalischen Möglichkeiten zu erweitern. Diese ursprüngliche Selbsteinschätzung einiger Schüler revidieren zu helfen, ist in meinen Augen schon eine ausreichende Begründung, den Computer im Musikunterricht einzusetzen. Allerdings darf dies keinesfalls ausschließlich geschehen, da die sinnlichen Erfahrungen herkömmlicher Musizierpraxis durch den Computer nicht ersetzt werden können.

(1) H. BLECKMANN/N. KNOLLE, in Musik und Bildung, Heft 6, 1989, S. 334-336 
(2) Es besteht die Möglichkeit, die Frequenzverhältnisse zwischen Original und den anderen Höhen frei zu wählen. Dieses "microtuning" erlaubt es, entweder eine kontinuierliche Frequenzveränderung vorzunehmen, wie es für die Vierteltonmusik erforderlich ist, oder aber es wird jedem einzelnen Note-Event eine eigene Frequenzrelation zugeordnet. Allerdings verfügen nicht alle Sampler über diese Option. Ich habe allerdings innerhalb der Unterrichtseinheit auf diese Anwendung verzichtet, um die Arbeit nicht zusätzlich zu abstrahieren. 
(3) Schüler-Duden, Die Musik, 1989, S. 175 
(4) E. ARNOLD, in: Musik und Bildung, Heft 10, 1989, S. 532

 

 


Rettbehr Meier

Elektronische Klanginstallationen am 30./31. März

1996 in der Elzhalle Emmendingen-Wasser - ein subjektiver Bericht

 

Zum Beginn der Veranstaltung am Samstag um 14 Uhr führte K. Weinhold die Zuhörer mit seinen Soundprozessen und Erläuterungen des kulturgeschichlichen Hintergrundes in die elektronische Klangwelt ein. Die Prozesse waren sowohl moderate, computerunterstützte Interpretationen von klassischen Werken wie Schumanns "Träumerei", aber auch oktophone Raumklang-Soundschichtungs-Verfremdungen und extreme Time-Stretchings von OA (dokumentarische Originalaufnahmen vom Emmendinger Musikfest '95), sowie überraschend frisch klingende Collagen aus älterem, analogem Synthese-Material der frühen 80er Jahre. Apropos Raumklang: Bei vielen ursprünglich rein stereophonen Aufnahmen, wurde ein erweiterter Raumklang mittels Surround-Decoding auf sechs Lautsprecher erreicht. Dies bot während der zwei Tage z.T. überraschende, zufällige Raumortungen, denn die Aufnahmen waren ja nicht entsprechend codiert. 
H. Arnolds bot im weiteren eine halbstündige Live-Demonstration des Alesis Quadrasynth, unterstützt von einem Atari-Computer und weiteren Korg-Soundmodulen. Die Bandbreite lag hier zwischen klassischer Tonalität einerseits und atonalen, je nach Programm sogar mikrotonalen Improvisationen. Besonders die Soundflächen und rauchigen "Röchel-Sounds" des Alesis kamen gut zur Geltung. 
Darauf folgten P. Weyren-Melers zwei Soundcollagen "Readymix 1" und "Readymix 2" aus OA des Weihnachtsurlaubes, die er in einer bewußt improvisatorischen Studiosituation verfremdet (Pitch-Shifting, Hall, Echos, rückwärts, gefiltert usw.) und in einem Take, also quasi roh und in einem Rutsch - deshalb "Readymix" - erneut auf DAT mastern wollte. Allerdings mußte dieser Vorgang dann doch erst einige Male wiederholt werden, bis ein zufriedenstellenes Resultat erreicht wurde. Der improvisatorische Vorgang, also Live-Elektronik, ist ab einem gewissen Grad der Komplexität der Sound-Manipulationen eben nicht mehr fehlerfrei möglich, das hat dieses Experiment wieder einmal deutlich gemacht. Wenn wir also diesen Grad an Komplexität überschreiten wollen, so ist die vorgefertigte Studioproduktion die einzig praktikable Lösung. 
Gegen 16 Uhr folgte dann die traditionelle Gesprächsrunde bei einem Glas Sekt und einem Stück Kuchen. Es wurden die einzelnen Werke von den Autoren und Zuhörern kommentiert und diskutiert, sowie auch mehr allgemeine, aktuelle Aspekte der E. M. behandelt. Besonders interessant waren die Beiträge des Leiters des elektronischen Studios in Brasilia, Herr de Silva, mit seinen Schilderungen der dortigen Musiksituation. Er war zufällig zu Besuch in Freiburg, hatte unsere Annonce gelesen und zeigte sich nun überrascht und erfreut, daß ein kleiner Verein wie ZeM so progressive Elektronik darbieten kann. 
Gegen fünf Uhr wurden dann weitere Soundprozesse von K. Weinhold dargeboten, insbesondere die "Mixturen" aus Bach-Werken mit Debussys "Nachmittag eines Fauns", die nicht einfach nebeneinander abgespielt wurden, sondern vielmehr als neue Gestalt erstanden. Die Kompositionsmerkmale wurden aus beiden Werken vom Computer extrahiert, kompositorisch ineinander zu etwas neuem verwoben, was im aufmerksamen Zuhörer das merkwürdige Gefühl einer fremden Vertrautheit, bzw. vertrauten Fremde hervorrief. 
F.M. Löhle zeigte dann mit seinen FM-Prozessen, daß diese Frequenzmodulations-Synthese-Technik keineswegs überholt ist, sondern im Gegenteil hochinteressante, dynamische und flexible Sounds zur Verfügung stellen kann. Dies betraf sowohl flächige, gleichsam schwebende Gebilde wie auch die fast schon brutalen, gehämmerten, stakkatoartigen "Soundblitze". Dank seiner ausgefeilten Sys-Ex-Midi-Steuerung - in diesem Gebiet ist F.M. Löhle als Experte und Programmierer bekannt - wurden die Möglichkeiten der Synthesemaschinen wirklich ausgenutzt, und bei ca. 2000 Parametern gibt es deren viele. 
Zum Abschluß des Samstages gegen 18 Uhr folgten Weyren-Melers "Readymixes" Nr. 3 und 4, die wie oben beschrieben realisiert wurden und zum einen aus Feuerwerks-Aufnahmen, zum anderen aus OA der öffentlichen Verkehrsmittel der Stadt Freiburg bestanden. 

Am Sonntag bot G. Schneider - nach einleitenden Worten und weiteren, teils analogen Soundprozessen von K. Weinhold - quadrophone Produktionen mit zwei Yamaha TX81Z. Es wurde eindrucksvoll gezeigt, daß auch mit nur vier FM-Operatoren höchst interessante Strukturen möglich sind. Die Ansteuerung der Module geschah im Studio mittels selbstgeschriebener Software in GFA-Basic auf dem Atari, wodurch sämtliche Sys-Ex-Parameter zur Verfügung standen. Dies wurde besonders schön in der Produktion "Coarse and Fine" dargestellt, wobei die Modulator- und Träger-Frequenzen mit sehr hoher Auflösung verändert wurden, was so mittels "normalem" Midi nicht möglich gewesen wäre. 
Weyren-Meler brachte im weiteren drei eher tonale Stücke für je drei Synthesizer (Waldorf Wave, Yamaha TG77 und Roland D70), die eigentlich für die Illustration der verschiedenen Synthesetechniken an der Pädagogischen Hochschule in Freiburg gedacht waren, aber wegen des klanglichen Gehaltes auch für eine Soundaustellung als durchaus geeignet erscheinen. 
Nach der Gesprächsrunde führte Dr. Birg als äußerst gelungene Live-Überraschung einen kleinen Alu-Koffer mit 486er Laptopp und GM-Expander nebst Software und Minilautsprechern vor, als "mobile Kleinlösung für den urlaubsreifen Komponisten", wie er sagte. Die Tauglichkeit der Hardware wurde sogleich mit aleatorischen 2-Timer-Prozessen in Visual-Basic bewiesen, die uns schon von Dr. Birgs großem, nicht so transportablen 486er wohlbekannt waren. 
Zum Ausklang der Veranstaltung improvisierte K. Weinhold noch über Bach-Choräle auf dem Arnoldschen Alesis und brachte einige weitere oktophone Sampler-Prozesse mit dem K2000. 
Fazit: Meiner Meinung nach wurden wieder einmal sehr innovative und qualitativ überzeugende Produktionen von ZeM einer interessierten Öffentlichkeit dargeboten. Besonders das Surround-Decoding hat mir gut gefallen und sollte unbedingt beibehalten werden. Der Gesamtklang erschien mir gegenüber früheren Gelegenheiten in der Elzhalle durch die optimierte Lautsprecheraufstellung weiter verbessert. Die Produktionen sind anstrengend für den Hörer, dessen ist man sich bewußt. Es herrscht durch das Prinzip der "Offenen Tür" kein Gruppenzwang wie im Konzertsaal, und trotzdem, oder gerade deswegen setzten sich die Besucher diesen Sounds stundenlang aus. Wenn man bedenkt, wie wenige Menschen sich überhaupt für Musik, dann für sog. neue ernste Musik, geschweige denn experimentelle E. M. interessieren, so können wir mit dem Zuhörerinteresse hoch zufrieden sein. Weiter kann man erfreut feststellen, daß die Veranstaltung dank großzügiger Spenden die Vereinskasse nur unwesentlich belastet hat, ein Eintrittsgeld wurde ja wie immer, gemäß der Idee der "Offenen Tür", nicht erhoben. Die Organisation funktionierte im wesentlichen reibungslos. 

Ich denke, die Veranstaltung können wir damit künstlerisch wie finanziell, sowie organisatorisch, als gelungen und erfolgreich bewerten. 

Im Namen des Vereins bedanke ich mich bei folgenden Personen: 

H. Arnolds für den Alesis Quadrasynth und Fahrtdienst
M. Baumann von der Fa. Delta Musik für die Stereo PA und Fahrtdienst
Dr. Birg für Fahrtdienst 
F. M. Löhle für Organisation und Fahrtdienst
G. Schneider für die Erstellung der Prospekte
K. Weinhold für den unermüdlichen Einsatz für die E. M., die Quadro- und Okto-Anlage mit Surround, die, wie immer allen Mitgliedern zur Verfügung stand.

 

 


Torbe Reyber

Analoge Pilze 

Röhren, Vintage, Tweed-Verstärker. Was bis vor ein, zwei Jahren nur in den Musikabteilungen für die Strom-Gitarristen zu beobachten war, erreicht nun auch die bis dato volldigitale Welt der Tastatöre. Man hat offenbar die Lust am "Schrauben" wieder entdeckt, und überall schießen analoge Synthesizer, auch in Form von Modularsystemen - was sonst - , wie die Pilze aus dem Boden. Im Internet gibt es die Enthusiasten, die auf ihrer eigenen Homepage ihr eigenes Selbstbau-System nebst Bauplänen mit viel Aufwand stolz der restlichen Menschheit präsentieren. Man gebe einer Suchmaschine wie "alta vista" einmal Suchbegriffe wie VCO, LFO usw. vor und man wird sehen. Das paßt gut zum Retro-Zeitgeist dieser Tage. 70er T-Shirts, James-Brown-Samples, Plattformschuhe, "ich find Schlager toll!!", da fühlt sich der Moog oder ARP so richtig wohl. 

Nein, im Ernst, es ist wohl mehr als eine Modeerscheinung. Nachdem die Midi-und DSP-Euphorie etwas abgeklungen ist, hat man die Qualitäten der "altmodischen" Modularsysteme wiederentdeckt und schätzen gelernt (s.a. [1],[4]). Es gibt da sicherlich tief in die Köpfe eingedrungenen Werbe-Pauschal-Unsinn, wie analog = gut und digital = böse, was ich schon von Berufs wegen selbstverständlich ablehne. Es kommt eben sehr auf die jeweilige Implementierung an. Die Offenheit der analogen Geräte und der intuitive Echtzeit-Zugang zur Synthese, die man ja per Patchchord tatsächlich BEGREIFEN und verändern kann, diese Vorteile lassen die Nachteile leicht vergessen. Hier sind die digitalen Geräte momentan noch nicht so weit. Und nicht zuletzt ist es der Sound (man höre [2]), der für jedes System einzigartig ist, und durch bloßes Aufzeichnen als totes Sample nicht dargestellt werden kann. 

Es ist also durchaus zu begrüßen, wenn derartiges wieder neu auf dem Markt erscheint, denn wer ist schon in der glücklichen Lage oder im richtigen Alter, ein original Vintage-System wie Moog 55 oder inzwischen auch Roland 100M zu besitzen? Für die meisten Anwender, gerade auch im Pop-Bereich sind diese neuen Geräte auch vollkommen ausreichend. Die Resonanz im Internet zeigt, daß sie dankbar dafür sind, obwohl zum Teil die technische Ausführung bemängelt wird. 

Wie ist das aber nun mit der Eignung für E. M.? Daß hier höhere Ansprüche als bei Pop-Produktionen zu stellen sind, ist wohl jedem klar. Eine ergonomische Bedienung ist Pflicht. Dazu gehört vor allem ein durchdachtes und logisches Konzept. Vor allem sollte aber das Grundprinzip, nämlich die universelle Spannungssteuerung, unter keinen Umständen verletzt werden, denn dies ist gerade für die Ausdrucksmöglichkeiten der E. M. von entscheidender Bedeutung. Jeder Parameter im System sollte, wenn es nur irgendwie machbar ist, spannungssteuerbar sein, jedes Modul sollte damit jedes andere kontrollieren können. Zwischen audiofrequenten- und DC-Steuerspannungen sollte kein prinzipieller Unterschied gemacht werden. Nur dann hat man die totale Modulationsmatrix, die wirklich ausgefallene Sounds erlaubt. 
Dr. Moog kann man zurechnen, 1968 dieses Spannungssteuerungsprinzip erstmals kommerziell den Musikern zur Verfügung gestellt zu haben. Die Schaltungstechnik war aber damals noch nicht so weit, daß wirklich jeder Parameter, der irgendwie beeinflußbar war, auch spannungsgesteuert zur Verfügung stand. Doch in der Mitte der 70er Jahre war man dorthin gekommen, natürlich nicht den Musikern zuliebe. Vielmehr hatte das der Bau von microcomputergesteuerten polyphonen Synthesizern (z.B. Prophet 5) erfordert, denn der Microprozessor stellte die abgespeicherten Soundparameter via D/A-Wandler eben als Steuerspannung den analogen Synthesechips zur Verfügung. Diese waren somit zwangsläufig voll spannungssteuerbar: Beim ADSR z.B. waren dies die A, D und R-Zeit und der S-Pegel. Beim Filter war dies die Eckfrequenz und die Resonanzstärke, usw. Es gab 1983 ein Modulsystem (Soundlab von Dr. Böhm), das weitgehenden Gebrauch von dieser technischen Entwicklung machte (s. [3],[1]), leider jedoch nicht lange auf dem Markt war. Auf die Gründe für den kommerziellen Mißerfolg komme ich später noch zu sprechen. 
Soweit der Stand der Technik, denn die Analogtechnik hat allgemein seit etwa 1970 einen gewissen Sättigungsgrad erreicht, so daß wirkliche Neuerungen sehr selten geworden sind. 

Um so unverständlicher ist es, daß 1996 bei den neu auf dem Markt erschienenen Geräten diese Errungenschaften weitgehend fehlen. Meist ist weder der ADSR noch die Filterresonanz spannungssteuerbar, die Liste ließe sich fortsetzen. Das ist nicht nur sehr schade, das ist eindeutig technischer Rückschritt! 
Dabei werden z.T. dieselben Chips verwendet, wie vor mehr als zehn Jahren. Die Möglichkeiten sind also da, sie sind im Gehäuse eingebaut, werden aber nicht mittels Klinkenbuchse nach außen geführt. Offenbar wurde so knapp kalkuliert, daß diese wenigen DM pro Modul nicht geopfert werden konnten. Oder umgekehrt: wenn der Preis für ein Produkt auf dem Markt feststeht und wenn der durchschnittliche Kunde zufrieden ist, oder die potentiellen Möglichkeiten gar nicht kennt, dann ist jede eingesparte Eigenschaft bares Geld auf dem Konto des Herstellers. 

Und wie sieht es mit der Ergonomie aus? Zum Teil werden zu kleine, unübersichtliche Frontplatten und schlecht bedienbare Potentiometer, Schalter und Buchsen bemängelt. Das mag Geschmackssache sein. Für manche Systeme wird eine Unzahl von Modultypen angeboten. Aber eigentlich sollte ein Entwickler darauf achten, daß die Module möglichst universell anwendbar sind. Er sollte eher wenige, aber dafür sehr gut durchdachte Modultypen designen. Außerdem sollte er berücksichtigen, welche Module durch Zusammenschaltungen anderer Module vielleicht ersetzbar sind. Er sollte ein logisches, harmonisches Gesamtkonzept haben, man nennt das dann Ingenieurskunst. Der Nutzer hat es in diesem Falle mit der Bedarfsplanung und vor allem der Anwendung viel einfacher und die angesprochene Universalität eröffnet ganz neue Möglichkeiten. Leider ist das bei den neuen Systemen oft nicht der Fall. Schaltungstechnisch ist es z. B. so, daß bei einem VCA die lineare und die exponentielle Charakteristik mit geringen Kosten sehr leicht in einem Modul angeboten werden können. Das macht durchaus musikalisch Sinn (linear für Modulationen im Audio-Bereich klingt angenehmer, exponentiell eher für Hüllkurven). Tatsächlich fertigt man lieber zwei verschiedene Module, ein lineares, und ein exponentielles. Man verschlechtert so bei gleichzeitiger Nutzung den Signal-Rauschabstand und muß Platz und Geld für zwei Module spendieren. 

Die aktuellen Modulsysteme gefallen mir also allesamt nicht, ich halte sie speziell für E. M. als ungeeignet. Ich habe aus dieser Bewertung die Konsequenzen gezogen und werde mein eigenes Modulsystem zu Ende bauen, selbst wenn das lange dauern wird. Um keinen falschen Eindruck aufkommen zu lassen: Dieses System wird ein Unikat und ist unverkäuflich! Der Ringmodulator als Spin-Off dieser Entwicklungsarbeit wird jedenfalls schon am ZeM-Wochenende im September '96 zu hören sein. 

Die Medaille hat natürlich immer zwei Seiten. Der Untergang der Firmen Moog, ARP, Kurzweil, Dr. Böhm usw. hat gezeigt, daß Qualität und Genialität allein nicht für das Überleben einer Firma ausreichen. Man kann im Gegenteil sogar beobachten, daß sich tendenziell immer das schlechteste, idiotischste System auf dem Markt durchsetzt, da es meist mit der wirtschaftlich optimalen Lösung zusammenfällt (z.B. der IBM-kompatible PC, VHS-Video, vielleicht auch Midi?). Großer Einsatz lohnt sich nicht, der Kunde dankt es einem offenbar in diesen hochkompetitiven Märkten nicht. Mit diesen frustrierenden Einsichten einerseits und der Verantwortung für eine Firma andererseits würde ich es genauso machen: schnell den Hype ausnutzen, irgendein Gerät herausbringen und den Markt abschöpfen, denn wer weiß schon ob es sich morgen noch verkauft? 
 

[1] T. Reyber, Die Synthesizerausstellung ..., ZeM MT 16, Januar 1995, S5.ff. 
[2] M. Becker et al. , "Synthesizer von Gestern", CD 1,2,3, sowie das gleichnamige Buch Band 1 und 2 
[3] Dr. B. Enders: Die Klangwelt des Musiksynthesizeres, München 1985. 
[4] Dr. J. Stange-Elbe, Elektronische Musik im Spannungsfeld ..., ZeM MT 17 April 1995, S4. ff.

 

 


Franz Martin Löhle

Neues aus ZeM Freiburg

ZeM im Internet 

Parallel zum Erscheinen dieses Heftes hat nun auch ZeM Freiburg (ZeM Bremen wird folgen) eine Internetseite mit der Adresse: "http://www.ZeM.de". 
Die neuen Möglichkeiten, die uns dieser Schritt bringen wird, sind natürlich noch nicht abzusehen und sollen erst nach einem einjährigen Testlauf analysiert werden. 
Zunächst stellt unsere Seite einfache Informationen über ZeM dar. Was ZeM will, wie ZeM strukturiert ist und welche Aktivitäten unser Verein durchführt: Inhalte, Zeit und Ort. 
Auszüge aus den Mitteilungsheften und in spe auch Sound werden folgen. 
Sobald die meisten Mitglieder einen Zugang zum "Netz" besitzen, können wir dieses Medium auch nutzen, kurzfristig angesetzte Veranstaltungen mitzuteilen. 
Wer keine Internetzugangsmöglichkeit hat, dem sei ein Besuch der Internet Galerie "Equinoxe" in Freiburg, Adlerstraße 7, empfohlen. Hier ist gegen einen kleinen Unkostenbeitrag der Zugang mit Kurzerklärung möglich. 
 

Mitgliedertreffen bis auf weiteres ausgesetzt 

Bis Ende dieses Jahres wird es in Freiburg keine regelmäßigen Mitgliedertreffen geben. Diese fanden bis dato seit 1989 jeden letzten Mittwoch im Monat statt.
Für nächstes Jahr wird im Januar neu entschieden, wie weitere Treffen aussehen sollen.
Bis dahin wird es gezielte Treffen geben, wie z.B. das Treffen für die Steinhallen-Vorbereitung. Auch der Jahresabschluß im Einbeckerstüble wird weiterhin stattfinden. In diesem Jahr am 18. Dezember um 19.30 Uhr.

 

 


Rückseite


© ZeM e.V. | ZeM Heft Nr. 20 - Herbst 1996

oblu obru
pix