ZeM Heft Nr. 20 - Herbst 1996
Redaktion: Gerda Schneider
Zunächst muß an dieser Stelle mitgeteilt werden, daß
Herr Dr. Joachim Stange-Elbe die Redaktion dieses Heftes wegen seines Umzuges
nach Osnabrück nicht mehr übernehmen konnte. Wir verlieren mit
ihm den geschätzten Redakteur, dem wir für seine Arbeit herzlich
danken. Wir bedauern diesen Verlust sehr, hoffen aber, daß er weiterhin
für ZeM wirken wird, und wünschen ihm für seine berufliche
Zukunft viel Erfolg.
Die vorliegende Ausgabe des ZeM-Heftes bietet dem Leser wieder ein
breites Spektrum an Themen: allgemeine und grundsätzliche Gedanken
zur Elektronischen Musik, Erfahrungsberichte über die technische Seite
der Musikelektronik sowie über einen Unterrichtsversuch. Mit dem Rückblick
auf die Veranstaltung in der Elzhalle im März dieses Jahres kann sich
der Leser ein Bild davon machen, wie der Verein versucht, Elektronische
Musik der Öffentlichkeit anzubieten. Die "Klingende Steinhalle" im
September dieses Jahres ist ein weiterer Schritt auf diesem Weg. Während
die "Elzhalle" und die "Steinhalle" in dem Bemühen, anderen Elektronische
Musik zugänglich und hörbar zu machen, schon Tradition sind,
macht der Artikel "Neues aus Freiburg" deutlich, daß ZeM für
seine Arbeit auch die Möglichkeiten der neuen Medien nutzen will.
Dabei geht es uns nicht darum, in der üblichen Weise Erfolg zu haben,
unser Anliegen ist es vielmehr, Menschen zu erreichen, die sich für
Elektronische Musik interessieren und begeistern lassen.
Gerda Schneider
↑
Klaus Weinhold
Erzwungene Verbindungen
Wie immer in unserem "Mitteileilungsblatt", stelle ich einige Gedanken
zur Diskussion, die uns über unser Gebiet, die Elektronische Musik,
Klarheit und geben und zu weiterem Nachdenken anregen sollen. Musik - als
ich vor wenigen Tagen ein neu produziertes Samplestück mir vorführte,
meinte ein Besucher an der Türe "Ach, Sie hören Musik". Offenbar
ist also der spontane Eindruck beim Hören von elektronischen Soundproduktionen
doch der, "Musik" zu hören. Ob dieser Eindruck beim weiteren Hören
geblieben wäre, bezweifle ich.
Wir nennen uns "Zentrum für Elektronische Musik", zunächst
wohl deshalb, weil man sehr leicht für intentional produzierte Klangereignisse
den Ausdruck "Musik" gebraucht, fragen uns aber immer wieder, ob diese
Produktionen mit dem klassischen Begriff Musik kompatibel sind. Klangereignisse
sind im Abendland in den letzten 3000 Jahren stets in Form von Musik produziert
worden und bis heute besteht eigentlich in der ganzen Welt eine stillschweigende
Übereinkunft darüber, was diese Musik systemlich und intentional,
sachlich und persönlich sei. Die ersten Eindrücke beim Vorführen
Elektronischer Musik, vielleicht bei den nächsten Angehörigen
im Familien- und Bekanntenkreis waren oft anderer Art: "Das ist doch keine
Musik" war eine der ersten Reaktionen, die man vor Jahren zur Kenntnis
nehmen mußte. In der Tat, unsere Musik, unsere Musikerziehung, unser
Musikleben ist von einer jahrtausendealten Tradition beherrscht, wir befinden
uns im Gefängnis eines Systems, das seine Endgültigkeit gar nicht
mehr zu beweisen braucht. In diese Situation treten nun neuartige, andersartige
Instrumente, aus fernen Ländern oder aus dem eigenen Land, die plötzlich
völlig andere Ansätze und äußere Erscheinungsformen
dem erstaunten Benutzer zeigen. Gewiß erinnern z.B. Klaviaturen (Schlüssel)
an Herkömmliches, gewiß erinnern Namen wie "Strings" oder "Organ"
an Bekanntes, aber der Hintergrund führt in eine völlig andere,
unverständliche, mit dem Herkömmlichen nicht zu vereinbarende
Unterwelt, statt des Namens etwa C, heißt es plötzlich "Treiber"
und "Resonator" oder "Connection" und "Formant". Offenbar tut sich hier
am Ende des Jahrtausends eine neuartige Welt auf, die Frage ist, woher
sie kommt, was sie will und wie sie u.U. die traditionelle Kultur verändern
könnte.
Die traditionelle Musik ist insofern sehr naturgebunden, als sie ein
bestimmtes Prinzip dieser Natur voll ausnützt: Es ist das des unteren
Teiles der Obertonreihe und das Prinzip, daß sich die natürlichen
Elemente in ganz bestimmten Präferenzen zusammensetzen. Nicht jedes
Element verbindet sich mit jedem anderen, Feindschaften, Sympathien und
Anzüglichkeiten gibt es offenbar von Anbeginn der Welt unter den Elementen.
Ein fest geordnetes System, dem wir uns nicht entziehen können. Eine
Röhre oder eine Saite schwingt im Verhältnis 1:2, 1:3 usw.. Diese
elementaren Verhältnisse stellen offenbar ein großartiges System
einer natürlichen, nicht mehr zu hinterfragenden Ursprünglichkeit
dar. Fragt man nun einen Naturwissenschaftler, etwa einen Chemiker, ob
es auch andere Verbindungen geben könnte, so erhält man als Antwort,
daß dies ginge und man diese dann als "erzwungene" Verbindungen,
also vom Menschen geforderte bezeichnen kann. Die neuen Musikinstrumente
erlauben dies nun auch, in jeder Frequenzmodulation kann die Verbindung
1: 1,9 hergestellt werden und im "Physical Modeling" kann die Verbindung
einer schwingenden Saite in eine Röhre hergestellt werden. Die menschliche
Stimme würde eine solche Verbindung innerhalb der natürlichen
Körperoganisation nie erlauben. Das Fazit dieser Überlegungen
ist, daß wir mehr als die Natur mit bisher unentdeckten Mitteln dieser
Natur der Natur mehr auf quasi natürliche Weise entlocken können.
Offenbar verbirgt sich hinter begrenzenden Präferenzen, wie sie die
Natur vordergründig bevorzugt, ein weites Feld unbegrenzter Potentialitäten,
diese können durch die modernen Musikinstrumente endlich erzeugt werden.
In diesem Jahr wird die japanische Firma Kawai den neuen K 5000 Synthesizer
auf den Markt bringen: 128 Obertöne, Hüllkurvenformung eines
jeden dieser Obertöne, also eine neuartige Syntheseform, die in der
Tat erzwungene Verbindungen herbeiführen kann und wird. Ob diese klanglichen
Verbindungen der Menschheit gefallen werden, wird sich in den Auftragsbüchern
der Firma Kawai in den nächsten Jahren niederschlagen.
Die Musik, die Komposition hat eine physikalische, materielle Seite,
über diese hat sich im Abendland eine grundlegende Philosophie gelegt,
die des Idealismus. Nach dem großen griechischen Philosophen Plato
steht die Idee am Anfang von allem, die Idee schafft sich die Möglichkeiten
der Realisation in der Materie. Nach diesem idealistischen Ansatz war die
Idee des Fliegens am Anfang da, und die Organe der Lebewesen mußten
sich danach ausrichten. Ein anderer Ansatz besagt, daß keine Idee
da war, aber daß Luft da war und Organe, die sich der Luft anpassen
und dadurch das Fliegen ermöglichen konnten. In der klassischen Musikauffassung
steht immer die Idee zu einem Werk am Anfang, und die Instrumente, Orchester
oder Chor, und das vorhandene Musiksystem waren das Mittel, um die Idee
zu realisieren. Am Anfang steht der Schöpfer, am Ende das Geschöpf,
das Werk. Diese Richtung des Vorgehens ist umkehrbar: Am Anfang steht die
Materie, das ungeformte Material, das vielleicht gar keine Ideen zuläßt,
aber aus diesem Material können Ideen entstehen. Der grundsätzliche
Unterschied zwischen abendländischem Idealismus und Materialismus
wirkt sich in den neuen Instrumente und deren Produktionsmöglichkeiten
fundamental aus.
Die Musik ist in Lehrplänen bestimmten Bereichen zugeteilt worden,
so im Abendland im allgemeinen dem sprachlichen Bereich, "Musik als Sprache".
Musik spricht zu uns, ihre Grammatik verstehen wir, wir kommunizieren in
der Sprache. Was Bach uns sagen wollte, verstehen wir, was die Romantiker
uns sagen wollten, noch viel mehr, geträumt wurde immer, eine Träumerei
ist jedem Menschen durchaus verständlich. Die neuen Instrumente verlassen
die Sprache und führen zur Substanz, zur Natur, zur Grundlage, zu
den Atomen zurück, diese Grundlagen sprechen nicht zu uns, sie sind
einfach da. Eine Sinusschwinung ist keine Aussage, sie stellt ein Naturphänomen
universellen Ausmaßes dar. So kann man sagen, daß die Elektronische
Musik mit ihren Instrumenten "physikalisch" und nicht kommunikativ ist,
daß sie "natürlich" und nicht "kultürlich" ist.
Was Musik darstellt, ist in der Tat schwer zu sagen. Schon oft haben
wir in diesem Blatt Bach zitiert, der darauf hinweist, daß Musik
zur "Ehre Gottes" da sei und zur "Recreation des Gemüths". Diese Aussagen
sind bis heute aktuell: Statt "Recreation" sagen wir heute "Therapie" und
statt "Ehre Gottes" sagen wir heute "Ehre der Ausführenden, der Interpreten
und der Komponisten". Elektronische Musik ist keine Therapie, sie vermittelt
etwas völlig anderes: "Erkenntnis" der Natur und der natürlichen
Möglichkeiten. Die Ehre Gottes wird zu einer Bewunderung der Natur,
die es uns ermöglicht, "erzwungene" Verbindungen zwischen Schwingungen
herzustellen, wie sie bisher die Natur noch nicht erzeugt hat. Wir können
stolz darauf sein, am Ende des Jahrtausends in einer Zeit zu leben, in
der diese Möglichkeit für uns konkrete Wirklichkeit geworden
ist oder werden könnte. Konkret gesagt: Wir danken den japanischen
Firmen, von denen hier nur die Firmen Tajo und Kawai erwähnt seien,
für diese geschichtlichen Leistungen und Entwicklungen.
↑
Dr. Joseph Mundigl
Die mobile und individuell konfigurierbare Studioabhöre
Ein Erfahrungsbericht mit experimentellem Hintergrund
Es gibt eine ganze Reihe von Vorschlägen, wie man eine Kontrolleinrichtung
installieren kann, die das möglichst objektive Abhören von DAT-Bändern,
digitalen Mischpulten, aber auch analogen Signalquellen gestattet und trotzdem
eine Anpassung an den persönlichen Hörstil ermöglicht.
Obwohl in vielen Studios praktiziert, ist die Wiedergabe über
Lautsprecher nicht der optimale Weg, weil es den absolut neutralen Wandler
nicht gibt. Lautsprecher haben mindestens zwei bedeutende Nachteile. Einerseits
besitzen Sie von sich aus eine mechanische Trägkeit, die mit der von
Ohrhörern gewiß nicht vergleichbar ist, andererseits bringen
sie unweigerlich die Akustik des Abhörraumes ins Spiel.
Es kommen bei konventionell erzeugter Musik (z. B. Klaviermusik) eine
ganze Anzahl von "Raumparametern" zusammen. Erstens der Konzertsaal, da
seine Größe Einfluß auf die Interpretation hat. Ein Interpret
spielt in einem kleinen Saal anders, als in einem großen.
Zweitens der Raum, den der Toningenieur durch die Wahl der Mikrophone
und deren Aufstellung gestaltet. Es ist zu bedenken, daß sich die
Mikrophonwahl auf die Abbildung der Schallquelle genau so auswirkt, wie
in der Photographie die Wahl des Objektives auf das Bild.
Das größte Problem sind dabei Pianostellen (p/pp/ppp), die
mindestens in der "alten" Analogtechnik am Mischpult nach oben hin verschoben
wurden, um nicht mit dem Vinylgeräusch zu kollidieren. In der Digitaltechnik
läuft das umgekehrt. Man zieht pp-Stellen absichtlich herunter ins
ppp, weil kein Vinylgeräusch die Dynamik bremsen kann. Musikalisch
unlogisch wird das dann, wenn man derart einem Pianisten einen rasend schnellen
piano-Lauf unterschiebt, den er "echt" allein aus physikalischen Gründen
gar nicht leisten kann. Das ist dann für einen "geübten" Hörer,
also einen Hörer, der sich selbst konzertant am Klavierstück
versucht hat, ein weit größeres Ärgernis, als die ewige
Diskussion um Bits und Bytes, weil er die Falschheit der Darstellung erkennt.
In der Folge wird dann der Pianist unglaubwürdig, obwohl er für
die Sache nichts kann, aber die Interpretation zur Veröffentlichung
freigibt. (Auch die Diskussion über MC-Trafos/Vorvorverstärker
bekommt durch diesen Aspekt ein eigenes Gewicht. Es läßt sich
nachdenken, ob die Abbildung von Pianissimostellen beim "Audio-Note AN-S6"
realistischer ist als beim Röhrenpendant von Klimo. Klimo hat im Piano
mehr Substanz. Ob das nun ein Problem der transferierten Energiedichte
ist, oder röhrenspezifischer Additiva kann hier nicht diskutiert werden.)
Hier sind Überlegungen in Richtung "raumbezogener Stütztechnik"
von enormer Bedeutsamkeit für die Fixierung der realen dynamischen
Verhältnisse, denn nur zu oft wird im Klangbild ein Instrument nicht
dadurch leise oder lauter, weil der Interpret das so macht, sondern weil
der Tonmeister den Regler zuzieht oder aufmacht. Das Instrument rückt
(!) also näher oder ferner. Das ist der tatsächliche Vorgang.
"Bei der raumbezogenen Stütztechnik kommt der erste Lokalisationsreiz
- wie erwünscht - vom Hauptmikrophon, während die künstlich
erzeugten Stützreflexionen durch die Energieaddition den nötigen
Lautstärkezuwachs bilden. Ein zu leises Instrument kann somit für
unser Gehör präsenter gemacht werden, ohne dabei 'aus dem Lautsprecher
zu fallen'. Die Darstellung der Entfernungswahrnehmung geht nicht verloren.
Eine Steigerung der Leistungsfähigkeit bei der Lautsprecher-Stereophonie
ist möglich." (Siehe Fußnote R) Als Prozessor zur Errechnung
der Stützvorgänge wurde der CAP (Creative Audio Processor) von
AKG herangezogen. (P)
Drittens: Der Raum, der am Mischpult entsteht, ist also eine Auswirkung
der Aktionen, die dort ausgeführt werden und das ist in aller Regel
nichts anderes, als daß die effektive Lautheit der Signalquellen
verändert wird und diese Änderung hat physikalisch gar nichts
mit dem Spiel des Interpreten zu tun, denn wenn der Interpret lauter spielt,
kommt ein ganz anderes Klangbild zustande, als wenn am Pult der Regler
aufgemacht wird. Im Grunde ist so etwas ebenso unnatürlich, wie wenn
man die Waldsteinsonate statt in C in Cis-dur spielen würde und dann
die digitale Einspielung wieder von Cis nach C transponieren würde.
Wohl hinkt dieser Vergleich, aber im Endergebnis wäre alles "richtig".
Nur aus musikalischer, musikästhetischer Sicht ist das ein Ding der
Unmöglichkeit, ja eine "Verrückheit". Wer von den Durchschnittshörern
würde schon merken, was da gelaufen ist? Menschen mit wirklich absolutem
Gehör - und sie sind selten genug - würden wohl an der Temperierung
erkennen, daß da etwas faul ist. Ein Klavierstimmer, oder ein Konzertpianist
würde hingegen aus der Haut fahren wegen der musikalischen Unverträglichkeit.
Daß diese Verschiebung andererseits von Komponisten recht geschickt
zur effektiven Klanggestaltung genutzt wurde/wird, ist ein anderer, weil
authentischer Vorgang, z.B. das Höherstimmen der Geige bei Paganini,
Mahler und anderen, aber auch gelegentlich in der Zigeunermusik.
Es ist hier die virtuelle Lautheitsverschiebung mit der tonartlichen
Verschiebung verglichen, damit das Problem deutlich wird, weil sich der
Vorgang am Beispiel der Tonart verständlicher erklären läßt
und es braucht nur auf den Parameter Lautstärke portiert zu werden.
Auf der Rezeptionsseite besteht obendrein das Dilemma, daß für
die Wahrnehmung Lautstärke und Klangfarbe zum Gesamteindruck zusammenfallen
- anders ist das z.B. bei der Zeitgestalt, obwohl auch da oben genannte
Paramater hereinspielen können. Wenn also vom Hörer die Stimmigkeit
des Höreindrucks nicht erkannt wird, bzw. zu erkennen ist - aufgrund
mangelnder realer Hörpraxis, ist das Finden der "passenden" Parameterkonstellation,
also des Punktes, an dem alle beteiligten Parameter möglichst ideal
dargestellt werden, fast unmöglich. Und dieser Umstand ist für
die Beurteilung einer Interpretation eine allgegenwärtige Katastrophe,
der durch nichts zu begegnen ist, als durch den Konzertbesuch. Wie oft
ist bei HiFi-Demos im Laden festzustellen, daß Orchestermusik weit
lauter dargestellt wird, als das größte Orchester überhaupt
sein kann. ("Also sprach..." und andere HiFi-Kalauer). Die Stimmigkeit
einer Wiedergabe (über Kopfhörer) kann nur bei der kopfbezogenen
Stereophonie (Kunstkopf!) rasch beurteilt werden, weil das Zusammenfallen
aller Parameter quasi akustisch den Raum eröffnet. Zu leise Darstellung
ist ungenügend, es kann keine räumliche "Plastik" entstehen,
zu laute führt zur Im-Kopf-Lokalisation. Der Mittelweg ist leicht
zu finden.
Andererseits kann nunmehr eingesehen werden, welchen musikalischen
Unfug die Zieherei am Mischpult anrichten kann. Beispiel: Schumann/Grieg/Klavierkonzerte,
Zimerman/Karajan, DG-CD 410 021-2. HvK hatte zweifellos eine Neigung für
das Artifizielle.
Viertens ist der Raum zu nennen, der durch elektronische Hilfsmittel
(Effektprozessoren) entsteht. Dem ist vom HiFi-Standpunkt aus nichts hinzuzufügen,
weil eigentlich unzulässig. Die Prozeduren reichen von der simplen
Delay-Line, bis hin zu heute in Mode befindlichen DSP-Prozessoren - wir
Musikelektroniker wissen damit wohl umzugehen, SONY aber auch. Und wenn
man das minimale, aber eindeutige, ja typische Grundrauschen dieser Maschinen
kennt, kann es vorkommen, daß man auf Klassik-LP's neueren Datums
im Hintergrund Prozessoren werkeln hört, die gar nicht dahin gehören.
Gerade bei Klaviermusik fällt es auf. Das ist schon eine Schwei..Schwindelei
in Richtung ADA! Eine audiophile Rarität kann es trotzdem sein. (W)
Fünftens ist der Raum zu nennen, der durch Änderung der Parameter
der Richtung, des Direktschalles, der Reflexionen und des Nachhalls aufgrund
verstärkungsspezifischer Einflußfaktoren entsteht. Hier kommen
auch Kabeleinflüsse besonders zum Tragen, weil sie durch Wellenwiderstand
und eine ganze Menge von Kriterien, wie Abschirmung, Eigenschaften als
Leiter einen bedeutenden Einfluß auf das Klangbild haben können.
Gemeint ist also das Zusammenspiel aller für die Wiedergabe beteiligten
Komponenten:
Signalquelle -> Übertragungsweg zum Verstärker -> Verstärker
-> Übertragungsweg zum Lautsprecher -> Lautsprecher. Hörtests
in Fachzeitschriften, wenn sie sich einen allzu hohen Aussagewert in Punkto
"Richtigkeit" bemessen, bekommen dadurch ihren eigenen "Zweifelquotienten".
(Z)
Sechstens: Der Raum, in dem abgehört wird, kann der Abhörraum
im Studio sein, aber auch der Wohnraum eines Hörers, der einen Tonträger
erworben hat. Je mehr Parameter aus dem Konzertsaal ideal übertragen
werden, um so mehr Hörfehler werden beim Rezipienten aufgrund biophysikalischer
Faktoren ausgeschlossen, wenn am Ende der Empfangskette die Möglichkeit
besteht, einen Großteil der Parameter so zu rekonstruieren, zurückzugewinnen,
wie sie im Konzertsaal waren.
Aus diesen Gründen braucht jemand, der über das Richtig oder
Falsch, Verträglich oder Unverträglich entscheiden soll, eine
mobile Abhöre, die er auf sich zuschneiden, trimmen kann. Aber nur
permanente Kontrolle und Korrektur im Langzeittest führen zur unbestechlichen
Höreinheit. Oft bringen da auch nicht immer Modellwechsel der Komponenten
sinnvolle Verbesserungen.
Für die exakte Beurteilung ist eine optimale Signalführung
zum Trommelfell Voraussetzung. Also ist es nun notwendig, ein System aufzubauen,
das die Kontrolle des Signals unmittelbar am Digitalausgang eines CD-Players,
DAT-Recorders etc. ermöglicht. Dabei zeigt sich, daß der sogenannte
Räumlichkeitseindruck nicht zwangsläufig von der Anzahl der Chassis
(Quadrokopfhörer und ähnliche) im Kopfhörer abhängt,
sondern auch von deren Frequenzgang und der Membrangröße. Der
Jecklin-Float hat eine extrem große Membran, das heißt, er
bezieht im Gegensatz zum Grado HP2 Signature einen Teil der Kopfoberfläche
in das Abstrahlfeld mit ein, spricht also die Knochenleitung stärker
an und damit die Parameter höherer Frequenzanteile, die für die
Ortung "vorne" verantwortlich sind. Damit rückt das Klangbild aus
der Im-Kopf-Lokalisation heraus. Es wird vielfach vergessen, daß
auch bei der Lautsprecherwiedergabe eine Im-Kopf-Lokalisation stattfinden
kann, was rein pysikalisch schon ein Widerspruch zu sein scheint.
"Das führte zumeist zu der naheliegenden Annahme, bestimmte Eigenschaften
der elektroakustischen Wandler bzw. bestimmte Eigenschaften des gesamten
elektroakustischen Übertragungsweges seien für den Ortungs'fehler'
verantwortlich." (Pl,S.242) Andererseits liegt klar ein Zusammenhang zwischen
dem Kurzzeitspeicher und dem Langzeitspeicher und dem augenblicklichen
Signalreiz vor. Plenge verweist darauf, daß "Reizverarbeitung durch
Vergleich mit gespeicherten Reizmustern" zur Empfindung der "Lokalisation"
führen. (Pl,S.249) Er kommt zu dem Fazit: "Dies unterstreicht die
Hypothese, daß für eine korrekte Lokalisation im Kurzzeitspeicher
Informationen sowohl über das Schallfeld (Raumgröße, Halligkeit)
als auch über Quellen und Quellenorte (Entfernungen) vorliegen müssen."
(Pl,S.252) Diese Tatsache führt zu dem Schluß, daß die
möglichst perfekte Vollständigkeit einer Klangabbildung in Bezug
auf die vorhandenen Parameter bei der Aufnahme für die Beurteilung
einer Interpretation entscheidender sind, als subjektive, additive und
technologisch erwirkte (!) Klangempfindungen.
Bei Plenge ist aber auch der Beweis dafür zu finden, daß
sich Tester durch die Tests selbst manipulieren (müssen), dies vor
allem beim Test von Schallwandlern, weil der Langzeitspeicher permanent
unter dem Einfluß des Kurzzeitspeichers und des momentanen Schalleindrucks
steht. Aus diesem Grund kann eine Rang- und Namenliste auch eine Dokumentation
dieses Manipulationsvorgangs - selbst einer Personengruppe - sein. Das
heißt, auf die Aufnahme bezogen, der Erfahrungshintergrund von Tonmeister
A kann völlig anders sein, als der von Tonmeister B.
(Beispiel: Haydn Gesamtedition, Die Streichquartette, DECCA 1974, man
höre die Vielfalt der tonmeisterlichen Klangauffassungen innerhalb
der Gesamtedition und vor allem den sorglosen Wechsel der Mikrophonbestückung
auf den einzelnen Platten, ganz besonders auffällig in Vol. 3. Und
noch ein Beispiel für die nachgerade so hochgelobte Sorgfalt der Tonmeisterei
in Vinylzeiten sind manche Aufzeichnungen von Van-Cliburn-Konzerten mit
Orchester, bei denen derart an den Reglern gezogen wurde, daß sich
im Orchester eine regelrechte Völkerwanderung vollzieht. Es läßt
sich trefflich darüber nachdenken, ob in der Regie damals nicht eher
brave, solide, notentexttreue Handwerker saßen, als hifidele Überphilosophen.)
Problem der Wiedergabetechnik ist es nun, beide Soundaspekte mit audiotechnischen
Mitteln so "auf die Reihe" zu kriegen, daß die Absichten und Ansichten
beider Tonmeister in Bezug auf die Intentionen des Interpreten dem Hörer
vermittelbar sind. In jeder Plattensammlung gibt es Extreme. Und es ist
im Interesse einer vernünftigen Rezipierbarkeit zu fragen, was nun
besser ist, eine Abhöre, die durch Perfektion der Mittel diese Extreme
pur, UNVERMITTELT zu Gehör bringt, oder eine, die durch sympathische
Schwachstellen, oder geschmacksbezogene Tarierung, eben durch die zur Vermittlung
beitragenden physikalischen Unschönheiten die klangliche Offenlegung
einer Interpretation in für den Hörer rezipierbarer, weil akustisch
verdaulicher Form anbietet. Zweifellos steht hier die absolute Physik gegen
die Ästhetik und das mag mit eine Problematik von analog und digital
sein und warum man beide eben nicht in einen Topf werfen darf, denn dann
entsteht im Urteil nicht eine Ungerechtigkeit gegen das Analoge oder das
Digitale, sondern gegen die Physik. Das aber kann eine Perversion sein.
Dann schaffen wir das Zeug ab und musizieren selbst. (Und unsere Literaturkenntnis
ist wieder auf mittelalterlichem Niveau, denn, wenn ein Musikstudent die
4. von Mahler kennen lernen muß, weil der Prof. darüber spricht,
ist es egal, ob das digital oder analog geschieht. Entscheidend ist dann,
welche Partitur er in Händen hat.)
An einem Beispiel aufgezeigt, geht es also darum, daß ein Musikstudent
des Fachs Klavier eine Aufnahme einer Klaviersonate mit dem Notenblatt
in der Hand verfolgt, sie realiter nachvollziehen kann, und nicht an wiedergabetechnischen
Querständen scheitert, die eine exakte Klangdefinition verhindern,
möge die Technik auch noch so hochgelobt und teuer sein.
Bei einem Konzertflügel muß ein Kenner sofort sagen können,
was für ein Modell, welches Herstellers, in etwa welchen Jahrgangs
und welcher Baureihe er ist. Das sind eigentlich Mindestkriterien. Dann
reden wir von HIFI, vorher nämlich nicht. Zwischen interpretatorischer
Glaubwürdigkeit und wiedergabetechnischen Bewertungsmaßstäben
können Welten liegen, wahre und falsche. Im Zweifelsfall spielt da
die Technik eine weniger bedeutende Rolle, als der musikalische Scharfsinn.
Fehler in der Klangdarstellung von NF-Kabeln müssen nicht immer
"Fehler" sein, weil es die absolute, definitive Meßmethode nicht
gibt und weil es durchaus möglich ist, daß diese durch die persönliche
Ohrkurve des Hörers kompensiert werden. Mittelohreiterungen und Narben
im Trommelfell sind das größte HiFi-Hindernis. Und jede höchstbewertete
Wiedergabeeinheit (Q) ist der Beweis dafür, daß sie alle diese
"menschlichen Schwächen" so gut es geht korrigiert und gleichzeitig
durch die Korrektur Fehler gegen die Physik begeht.
Es findet sich in der folgenden Beschreibung also kein Testbericht
oder ähnliches, sondern ein Erfahrungsbericht, der ausschließlich
auf der täglichen Studiopraxis fundiert. Nicht geht es auch um die
oft überflüssige Analog-Digital-Diskussion, weil jedes Prinzip
Vor- und Nachteile hat. Eine vernünftige Schallanalyse ist heute ohne
Digitaltechnik undenkbar ..., was soll dann die Rauferei. Es ist auch paradox,
technologische Diskussionen mit utopischen Vorgaben zu führen, die
vielleicht in 15 Jahren zur Verfügung stehen, zumal man nicht weiß,
welche Artefakte dann den "absoluten" Musikgenuß stören - unverzichtbare
Klimaanlagen, wegen der fehlenden Ozonschicht.
Vor allem Komponisten, die überwiegend in Kleinstudios arbeiten,
werden an diesem Bericht Interesse zeigen, weil es ihnen nicht möglich
ist, jeden Modellwechsel in der Wandlertechnologie unverzüglich mitzumachen,
die Gelder fehlen und der Kunstbetrieb ist derzeit nun mal wirklich das
allerletzte Rad am Wagen. Das Künstlerleben - in einem Walzer von
Strauss so glückselig beschrieben - ist heute das Komponieren und
das Betteln, Sponsoren suchen! (B)
Das Digitalsignal liegt meist an zwei Ausgängen vor, dem TOS-Link-Lichtleiterausgang
und dem Coax-Digitalausgang. Ganz richtig ist der Begriff Coax nicht. Er
wird hier stellvertretend für Cynch, Cinch, Chinch, BNC und RCA verwendet.
Coax ist eine Kabelbezeichnung und das andere sind Steckernormen, mit denen
Coax angebunden wird. Also bleibt es hier bei Coax-Kabeln und wie sie angebunden
sind, ist eine Wahl des Steckers, bzw. entsprechender Adapter. Bei den
Adaptern ist Vorsicht geboten, weil generell Übergangsstörungen
zu befürchten sind. In den CD-Anfängen wurde TOS-Link hochgelobt,
man glaubte die bestmögliche Signalform vorzufinden. Inzwischen hat
man herausgefunden, daß dieses Signal sich weit schlechter darstellt,
als das Coax-Signal. Grund dafür ist, daß das Signal für
TOS-Link pro Gerät (sendendes und empfangendes) noch einmal gewandelt
werden muß. Außerdem gibt es bei den Lichtleitern selbst erstaunliche
Unterschiede in der Übertragungsqualität, fast ähnlich denen
bei NF-Leitungen, aber nicht ganz so dramatisch, trotzdem deutlichst hörbar.
Im Vergleich zu Coax ist TOS-Link für High-End mit Vorsicht zu handhaben.
Daher unverständlich, daß ALESIS ADAT davon nicht abgeht. Zumal
ADAT ein eigenes Format verwendet und das Alesis AI-1 notwendig ist, damit
man überhaupt externe Wandler anschließen kann.
Das TOS-Link muß also unbedingt auf Coax überführt werden,
damit es nicht wieder auf den TOS-Link der zweiten Maschine trifft (TOS).
In manchen Fällen kann man den TOS-Link-Ausgang dadurch umgehen, daß
man schlicht vorher auf BNC abzweigt. Wo das nicht geht, bietet Audio Alchemy
(folgend als AA bezeichnet) den Data Stream Transceiver (DST) an, der TOS-Link
auf Coax bringt. Eingangsseitig hat man wahlweise Coax und TOS-Link Eingänge.
Damit kann man auch an alte Geräte heran, die nur TOS-Link bieten.
Ausgangsseitig findet sich Coax. Die Leitung ist aktiv, mit einem Steckernetzteil
als Stromversorgung. Alle AA-Bausteine haben diesen Versorgungsweg. Im
Sinne einer wirklich optimalen Spannungsversorgung wären aus mehreren
Gründen Akkus vorzuziehen, deren Strom weitaus sauberer ist - ein
Vorteil mobiler CD's und DAT's - und man kann netzunabhängig arbeiten,
bekommt also nicht die Störquellen im Studio auf den Wandler. Strenggenommen
kommt man um den DST nicht herum, wenn TOS-Link auf Coax überführt
werden soll, weil alle TOS-Link-Anbindungen Schwachstellen sind und man
am Digitalwandler (oder Jitter-Killer AA/DTI) direkt auf Coax kommt. Ein
ernster Hinweis: Bei der Verwendung des AA-DST am TosLink-Ausgang eines
CD-Players kann es in einem benachbarten UKW-Analogtuner zu massivsten
Einstreuungen kommen. Dadurch bricht das Stereosiganl im Tuner restlos
zusammen. Aber: Wer hört im Tonstudio schon Rundfunk und komponiert
dazu? Trotzdem ist das mit den Einstreuungen eine unschöne Geschichte,
weil es ratsam ist, die Wandlerequipment permanent unter Strom zu halten,
damit das klangliche Arbeitsniveau nicht absinkt. Und noch ein Schönheitsfehler.
Auch der DST ist nicht für ADAT tauglich, da er nicht alle Signalformate
verarbeiten kann.
Die Signalfolge aus dem DST kann wegen der ersten Wandlung im Wiedergabegerät
und eventueller Unregelmäßigkeiten des Laufwerks bei der Abnahme
am TOS-Ausgang nur bedingt ideal sein. Ein "Schrittmacher" muß sie
wieder so ordnen, daß sie die für den Digital-Analog-Wandler
geeignete Paßform haben, denn gerade die Unregelmäßigkeiten
eines alten CD-Laufwerks machen dem DA-Wandler enorm zu schaffen und je
häufiger die Fehlerkorrektur einschreiten muß, um so mehr wird
das Signal "verbogen". Es entstehen regelrechte Artefakte, die eigentlich
signalfremd sind, weil die Fehlerkorrektur nicht exakt genau wissen kann,
wie das ideale Signal aussehen sollte, also wohin es wandeln soll.
Das Signal aus dem DST wird auf ein Digital Transmission Interface
geführt (DTI v.2.0 oder DTI PRO von Audio Alchemy) welches drei Eingänge
besitzt, einen Coax, einen TOS-LINK, einen AES/EBU. Jeder Eingang kann
(außer ADAT) alle Digitalformate lesen. Wenn man folglich eine Signalquelle
mit Coax hat, kann DST wegfallen und man geht gleich auf Coax. Trotzdem
sei hier nicht verschwiegen, daß der DST einen beträchtlichen
Leistungsschub vor allem bei Klaviermusik (und folglich auch bei Popmusik)
bringt. Das Instrument bekommt deutlich mehr Rückgrat und Akkuratesse.
Beim Wandler selbst besteht die Qual der Wahl, welche aber durch absolut
glaubwürdige Testberichte doch in eindeutige Bahnen gelenkt wird,
und diese führen vor allem aus pekuniären Gründen direkt
zu Audio Alchemy. Während es anderswo bei so einer Kette um fünfstellige
Zahlen geht, bleibt man bei AA doch bei drei, manchmal vier Stellen - immerhin
verkraftbar. Der Verfasser kann sich bis heute nicht von folgender Konfiguration
trennen:
SONY CD -> |
DTI v2.0 -> |
DDE v1.0 |
-------------->
|
Orchestermusik, |
ES 777 |
|
| |
|
und alles andere |
|
|
| |
|
|
|
|
-----> |
DST -> DITB -> |
ausschließlich |
|
|
|
|
Klaviermusik |
An dieser Stelle, kann das Signal zum Abhören verwendet werden,
es liegt analog vor und gelangt in der Regel in einen Vorverstärker,
Verstärker usw.
Hier besteht aber auch berechtigte Neugier, wie denn nun das Signal
akustisch ohne Beeinflussung irgendwelcher negativer Verstärkungsfaktoren,
Lautsprechereigenheiten, Verzerrungen, Phasendrehungen durch Frequenzweichen,
Membraneigenschwingungen, Gehäuseresonanzen, Raumreflexionen, mitschwingenden
Möbel(erb)stücken, usw., aussieht, sich anhört.
Es ist ein Kopfhörer zu suchen und zu finden, der klanglich ganz
oben angesiedelt sein muß (S) und ganz wenig Leistung braucht, weil
ja noch zwischen Wandler und Kopfhörer eine passive Regeleinheit geschaltet
werden soll, denn bislang existiert keine Möglichkeit, die Lautstärke
anzupassen (A).
Als Regeleinheit eignet sich die "Deluxe-Kopfhörer-Verlängerung"
von Völkner-Elektronik (V). Sie ist ein Kompromiß, aber nicht
der schlechteste. Und sie hat den Vorteil, daß ein Stereo-Mono-Schalter
integriert ist. Das führt zur Erkenntnis, daß Monomitte nicht
unbedingt identisch sein muß mit Stereomitte. Dadurch werden auch
Hörgewohnheiten des Tonmeisters deutlich, wenn er z.B. einem Primarius
durch klangliche Gewichtung mehr Bedeutung zuweist, als dieser selbst haben
will, weil seine Klangästhetik und Interpretationsauffassung eine
Gleichgewichtung aller Stimmen vorzieht. Dann kommt es zu Unstimmigkeiten
in der Balance, weil die Aufnahmetechnik gegen die Interpretation steht,
oder weil ein kenntnisloser Hifidelist eine Unterbewertung der rechten
Klangseite zu hören glaubt, an der Balance herumzieht und sich das
akustische Gleichgewicht verschafft, indem er das musikalische opfert.
Hier kann ein Monoschalter klärend eingreifen. Es ist schade, daß
diese Kontrollmöglichkeit immer mehr verschwindet. Man baut Musikelektronik
spartanisch, teuer, präzise und falsch.
Monomitte und Stereomitte unterscheiden sich von "Nase vorn", fallen
also unterschiedlich aus.
UND: Wenn man diese Gewichtung nicht kennt - das AMADEUS-Quartett spielt
ganz anders als das AURYN-Quartett - wäre im Zweifelsfall aus der
Sicht der Interpretation glatt eine Monoaufnahme einer Stereoaufnahme vorzuziehen.
Für die Praxis bedeutet das, wenn der Tonmeister das AURYN-Quartett
genauso behandelt, wie das AMADEUS-Quartett, verpatzt er die Interpretation,
egal ob analog oder digital gemastert wird. (H)
Solche Entscheidungen sind wichtiger, als endlose Bit-Diskussionen,
oder die Frage, ob nicht technologisch parallele Gedankenspiele zu Quantisierungsdebatten
letztlich zur der zweifelhaften Überlegung führen, wie die Granulatdichte
im Vinyl die Interpretation beeinflußt.
Oft kommt es zur regelrechten Verdrehung von musikalischen Aspekten
oder deren ungerechtfertigten Ausweisung, so daß aus argumentativen
Falschheiten heraus scheinbar ernsthafte Diskussionen entstehen, deren
Wert allerdings nur in reiner Rhetorik besteht.
Die hifidele Seinsfrage muß von der Musikwissenschaft gestellt
werden und nicht von den Maschinenbauern. Dann kommt es zu anderen Antworten
(SATire).
Zurück zum Kopfhörer!
Die Abstimmung eines Kopfhörers ist wesentlich schwerer als die
Abstimmung eines Lautsprechers, weil der Kopfhörer in der Wiedergabe
der klangbestimmenden Parameter ungleich genauer ist.
Die Wahl fällt auf den "HP 2 SIGNATURE von Joseph Grado" (S).
Grado baut hochwertige Tonabnehmersysteme und versteht daher eine Menge
vom Wickeln von Spulen. Nur logisch, daß er auch weltbeste Kopfhörer
bauen kann. (G)
Es folgt die Beschreibung einiger Anwendungsfälle aus der Tonstudiopraxis.
Daß dabei Maschinen erwähnt werden, die aus allen möglichen
"Jahrgängen" stammen, ist nur natürlich. Im Falle der CD-Player
ist es sogar sehr empfehlenswert, einen veralteten internen Wandler durch
einen jüngeren externen zu ersetzen, als den kompletten Player wegzugeben,
obwohl das Laufwerk noch voll seine Dienste tut.
Grado HP 2 zeichnet ziemlich dunkel, daher muß man versuchen,
ihn bei den meisten Anschlüssen etwas aufzuhellen. Nur an sehr hellen
Verstärkern (Verstärker der 70er Jahre, Marantz, Luxman) kann
man ihn belassen.
Geeignet zur klanglichen Anpassung ist z.B. das Kabel "Mseries M 350
High Resolution Audio Interconnect Cable with Magnetic Flux Tube" oder
auch das "Restec 7N Copper Audio Cable", wobei zu beachten ist, daß
das Restek weit teurer ist, als das Mseries.
Nicht geeignet sind Reinsilberkabel, da diese u.U. einen ausgeprägten
Badewanneneffekt (einem Durchhang in den Mitten) machen und dem Grado noch
mehr Tiefen verschaffen (die Höhen wären ja erwünscht).
Allerdings kann man nicht ausschließen, daß mit einem eher
flach klingenden Verstärker, bzw. einem mit Mittenbetonung (Harman
Kardon) auch ein Silberkabel für die Anbindung geeignet sein kann.
Verstärker mit einer leichten Überzeichnung der Mitten werden
manchmal von Klassikhörern bevorzugt, weil sie wichtige Rezeptionsparameter
konturierter übertragen, was z.B. auch Stimmen zugute kommt.
Zwei praktische Beispiele:
An einer McIntosh Vorstufe (z.B. C 29, für Kenner einer der besten
McIntosh) wird man den Grado mit Mseries anbinden. An einem Luxman kann
man den Grado anbinden, wie er ist. An Audio Alchemy liegt für Grado
die gestackte Kabelführung nahe, weil der Lautstärkeregler eingebunden
werden muß, die Wandler selbst genau in der goldenen Klangmitte liegen,
der Grado deshalb durch das Mseries M350 in den Tiefen etwas gebremst werden
muß.
Schließt man an die Ausgänge der Wandler eine Röhrenendstufe
an, die entweder einen Jecklin-Float, oder einen AKG K 1000 treibt, ist
die gestackte Kabelführung nicht unbedingt notwendig, da die Röhre
zwar eine etwas dunkle, beide Kopfhörer aber eine durchwegs helle
Klangzeichnung bringen. Nachteilig beim Jecklin-Float ist, daß im
Signalweg zwei Feinsicherungen für die elektrostatischen Membranen
liegen, tauscht man diese gegen je zwei cm lange Lautsprecherleitung aus
sauerstoffreiem Kupfer mit großem Querschnitt, wird die aggressive
Helligkeit aufgehoben. Das ist ein Eingriff in das Gerät. Damit verlieren
Sie Garantieansprüche und verstoßen gegen VDE/TÜV/CE-Verordnungen.
Das kann auch eine strafbare Handlung sein, wenn andere dadurch zu Schaden
kommen. Der Hörer aber klingt wesentlich satter und angenehmer. Auch
beim AKG kann man Überlegungen in diese Richtung anstellen, zumal
das Steckermaterial im Fachhandel zu haben ist. Versuche mit Kabel vom
französichen Hersteller FADEL lohnen sich durchaus. Auch "Öhlbach
T.M. 2x4" oder "Phonosophie LS 2" können geeignet sein.
Der Signalweg des Verfassers an einer modifizierten (Greiner/Regensburg)
Röhren-Ampliton sieht für den Jecklin wenigstens so aus, daß
das Analogsignal direkt aus dem AA-Wandler auf das dazwischengeschaltete
Potikabel (Völkner) gelangt, aus der Stereo-Klinkenbuchse mit "Monitor
Silver Highflex" (2x10cm!) auf zwei Cinch geführt wird, mit Restek/7N
(1m) zum Feinstabgleich auf zwei Schiebepotis geht und von dort über
das wirklich dunkle Etalon-Cinch (2x1m) auf die Endstufe trifft, an welcher
der Float hängt. Bei diesem direkten Weg vom Wandler auf die Endstufe
ist bei manchen Einspielungen, die generell sehr zur Helligkeit neigen,
ein wirklich nur minimaler Anflug von Rauhigkeit zu hören. Bei diesen
CD's führt der Weg - siehe Zeichnung - vom AA-DDE-V 1.0 über
das Kabel WBT-2020 CCS (1,5m) zur McIntosh-Vorstufe-AUX 1 und aus dessen
Kopfhörerausgang über Mseries-M350 auf das Potikabel von Völkner.
Den AA-DITB (für Klaviermusik - siehe Zeichnung) habe ich geringfügig
härter über "monitior CABLE OFC SYMMETRY AUDIO RESPONSE" (1,5m)
an McIntosh- AUX 2 angebunden. So kann man beim Hören zwischen zwei
Wandlern wählen und auch DAT optimal herüberbringen. (Man könnte
noch Digitalrundfunk mit hereinnehmen, aber das wollen wir erst gar nicht
diskutieren.)
Der Weg vom McIntosh geht dann wie oben beschrieben über M350 weiter.
Generell halte ich diesen Weg für ideal - wenn man nicht mobil sein
muß.
Die Kabellängen ergeben sich auch aus dem Bemühen, die Digitalelektronik
unbedingt von der Analogtechnik fernzuhalten. Die Wandler, direkt auf den
Geräten liegend, klingen weit schlechter, als wenn sie räumlich
isoliert sind. Auch die Netzteile sind sorgfältig ausgelagert und
Stromzuführungen liegen sowieso strikt abseits aller Signalleitungen!
Wenn die Übergangsstellen von Kabelverbindungen (Wahl der Steckverbindung)
zur "Klangkorrektur" mit verwendet werden, sind selbst an diesen Stellen
spektrale Verschiebungen möglich, die sich nicht zwangsläufig
in meßbaren Linearitätsbeeinflußungen festmachen lassen,
aber deutlich wahrnehmbar sind. Kabelstacks eignen sich regelrecht als
Ersatz für eine Klangregelung, wenigstens im Einzelfall: Phasengeschichten,
wie sie elektronische Klangregelungen machen, fallen weg. Dennoch können
auch Kabel die Phase beeinflussen, nicht aber in demselben, also gleichen
Masse wie aktive Klangregelungen. Beide Einflüsse sind auch generell
nicht vergleichbar, da sie sich physikalisch im musikalischen Zusammenhang,
also im Zusammenhang mit der Reproduktion von Schallabläufen anders
darstellen und verhalten (können).
Auch wenn für beide die gleichen physikalischen Gesetze gelten,
ist ein Unterschied zu machen, wie oft eben ein physikalisches Gesetz im
Einzelfall angewendet wird - und das geschieht in einer elektronischen
Schaltung häufiger, als in einem Stück Draht.
An diesen Beispielen kann man erkennen, daß bei der Anpassung
von Kopfhörern an Wiedergabeeinheiten selbst der Spitzeklasse alles
drin ist, von wirklich messerscharfer Genauigkeit, die Klaviermusik halsbrecherisch
überzeichnet, daß man glaubt regelrecht zwischen den Saiten
zu sitzen, bis hin zur filigranen Seidigkeit, die z.B. das Quartettspiel
zu intimster Homogenität führt, während dieses in einer
unglücklichen Anpassung auseinanderfällt, die Musiker nebeneinander
her spielen, als ob sie zerstritten wären. So kann die Wahl der Wiedergabemittel
eine Interpretation beeinflussen und welchen Wert Plattenrezensionen unter
Vernachlässigung der Angaben zur Abspieleinrichtung haben, ist eine
Geschichte für sich.
Den Rang- und Namenlisten in Fachzeitschriften muß man daher mit
größter Skepsis begegnen, oft sind definitive Aussagen sinnlos,
da durch Kabeleinflüsse wirklich gravierende Verschiebungen eintreten
können.
Hier ein Negativbeispiel, das aber nicht unbedingt generell als solches
zu werten ist, sondern den Einfluß der Signalleitungen auf das Erscheinungsbild
einer Interpretation eindrucksvoll bestätigt.
Signalweg: TosLink von CD -> 5cm Glasfaser -> AA/DST -> DITB -> Restek/NF
1m -> "Monitor"-Übergang (Highflex/Silber 2x10cm) auf Stereo-Klinke
-> M35O 1,5m -> Potikabel von Völkner Elektronik -> Grado HP 2
(Der häufige Kabelwechsel kommt auch deshalb zustande, weil Übergänge
auf verschiedene Kabeltypen zu schaffen sind. Idealerweise könnte
man auch löten.)
Ergebnis: Das Klangbild zerfällt in Einzelaktionen. Beispiel: Beethoven
Violinsonaten mit Kremer und Argerich (Deutsche Grammophon).
Beim Hören stellt man sich verzweifelt die Frage: "Warum musizieren
die nicht zusammen?". Man hat den Eindruck, jeder spielt seinen eigenen
Part für sich. Das Klangbild ist spektral so überzeichnet, daß
selbst kleinste Unregelmäßigkeiten in Klavierläufen dramatisch
hervorgehoben werden. Das Spiel verliert jede Eleganz und Musikaliät.
Das Klangbild ist so "überattackig", daß jede Homogenität
des Spiels verloren geht. Der Zusammenhang fehlt.
* * * * * * * * * * * * * * * * * * * * * * * * * * * *
Das positive Gegenbeispiel (aber mit anderem Laufwerk) ist weiter oben
beschrieben und in einer Zeichnung dargestellt. Der Kabelweg vom letzten
Teil der Wandlereinheit sieht so aus:
Wandler out -> NF-Cinch auf Stereoklinke -> Mseries -> Völkner/Potikabel
-> Grado HP2.
In diesem Fall war auch eine TOS-Link-Anbindung unter High-End-Aspekten
möglich.
Es ist nach Meinung des Verfassers die beste Abhörmöglichkeit,
wenn man beweglich sein muß. Zudem befaßt sich Audio Alchemy
mit Stromversorgungen auf Akkubasis, was der weiteren Netzunabhängigkeit
und Tonqualität zugute kommt.
* * * * * * * * * * * * * * * * * * * * * * * * * * * *
Kabel können also wesentlichen Einfluß auf das Klanggeschehen
nehmen. Für die Bewertung einer Interpretation muß aber vor
allem die Verzerrung der dynamischen Schattierungen ausgeschlossen werden.
Leider wird dies in kaum einem Test zur Sprache gebracht und ist doch so
entscheidend für die Faßlichkeit einer Interpretation. Das betrifft
analoge Wandler (Tonabnehmer für Vinyl) genau so wie digitale.
Die Wandler von Audio Alchemy sind in der Lage, die klangdefinierenden
Parameter so ideal und in sich stimmig zu gewichten, daß sie eine
vor allem auf Werktreue gerichtete Hörästhetik ermöglichen.
Die dadurch ausgeschlossenen spektralen und dynamischen Fehlleistungen
erleichtern eine Analyse der Interpretation vom Standpunkt der professionellen
Instrumentallehre. Und das ist sehr viel!
Für den Komponisten bedeutet dies: Wer falsch hört, komponiert
falsch. Wer mit übertriebener Klangzeichnung hört, untertreibt
beim Komponieren - über Lautsprecher klingt das Ergebnis fahl, flach,
leblos. Umgekehrt gilt das natürlich auch.
Ohne die Absicht irgendeiner Werbung habe ich den Maschinen von AudioAlchemy
gegenüber vielen anderen den Vorzug gegeben, weil sie fürs Geld
die werktreueste Abbildung einer Interpretation ermöglichen. Das ist
man in musikalischer Ehrlichkeit und Fairness dem Interpreten schuldig
und macht dem Komponisten Ehre. Und dabei halte ich den allerersten Wandler
aus dem Jahre 1991 für den ganz gewiß nicht schlechtesten, konnte
er auch nicht sein, denn er hatte mit den frühen CD-Playern zu tun
und machte diese unzivilisierten Gesellen einigermaßen hoffähig.
Deshalb ist es nur anzuraten, ein altes DAT nicht auszuwechseln, solange
das Laufwerk mitspielt, sondern die Maschine über eine hochwertige
Wandlerkonfiguration laufen zu lassen und vom DAT nur das Bandlaufwerk
zu nutzen. Bei ADAT geht der Weg über AI-1. Angesichts der vielen
Samplefrequenzen im Studiobereich (Elektronische Musik) wäre zu wünschen,
daß nachgedacht würde über eine Wandlerkonstruktion, die,
ähnlich einem sich selbst anpassenden Netzteil, das ankommende Format
selbst erkennt und somit für alle Maschinentypen geeignet wäre.
Es wurde versucht die Signalwege sehr genau zu beschreiben, weil selbst
zwei Zentimeter Kabel ein Klangbild entscheidend beeinflussen können
(siehe Modifikation Jecklin-Float). Auf Lautsprecherwiedergabe ist diese
Beschreibung nicht ohne weiteres übertragbar, dies sei nur gesagt,
daß keine Mißverständnisse entstehen.
Beim Nachvollzug bin ich gerne zur Hilfe bereit. Meine Anschrift erfahren
Sie bei den Redaktionen.
Fußnoten und Anmerkungen
Abkürzungen:
SONY 777 CD |
= |
CD-Laufwerk als Signalquelle, könnte auch DAT sein. |
AA |
= |
Audio Alchemy |
AA DTI v2.0 |
= |
Jitter-Killer, Fehlerkorrektur |
AA DDE v1.O |
= |
erste Generation von DA-Wandlern |
AA DST |
= |
aktives Übertragungskabel |
AA DITB |
= |
DAC-in-the-Box: Digital-Analog-Converter-in-the-Box (neuere
Generation von DA-Wandlern)
|
(A) Es gibt einen ausgezeichneten Wandler von AA mit (ferngesteuerter)
Lautstärkeregelung. Der stand für diesen Bericht nicht zur Verfügung
- aus pekuniären Gründen - man denkt an Achternbusch und viele
andere.
(B) Vielleicht zeigt uns Bonn heute bewußt die Gründe
auf, warum Komponisten vom Notenblatt zur Schweinezucht und ähnlichem
wechselten. Dann sollen die Damen und Herren dort kollektiv fetten Saumagen
schmatzen, anstatt Haydn hören.
(G) Er ist für einen dynamischen Kopfhörer astronomisch
teuer, glauben Sie es bitte und denken Sie daran, bevor Sie einen HiFi-Laden
betreten, denn Sie wollen ja nicht unangenehm auffallen, wenn man Ihnen
den Preis nennt. Bedenken Sie auch, es gibt noch teurere, aber auf Lebenszeit
gerechnet ist er billig und man braucht keinen weiteren mehr, weil alle
anderen schlechter oder sonst irgendwie für unser Vorhaben unbrauchbar
sind. Denn entweder brauchen Sie ein E-Werk zum Antrieb von Systemen wie
Jecklin-Float oder manche von STAX, auch AKG K 1000 und sind daher nicht
netzunabhängig transportabel, oder sie sind so miserabel (Hörer
für Walkmen, die brauchen wenig Leistung), daß sie nicht einmal
der Papst aus Mitleid aufsetzen würde.
(H) Die Diskussion ist also vorrangig nicht, ob Horowitz
analog oder digital gehört wird, sondern, daß Thomas Frost der
ideale Tonmeister für ihn war und es verstanden hat, sein facettenreiches
Klangspiel so festzuhalten, daß es für den Hörer allemal
faßlich (Es sei an die "Faßlichkeit einer Struktur" bei Anton
Webern erinnert!) dokumentiert ist. Es wäre doch völlig unsinnig
gewesen, wenn Frost nur das Ziel gehabt hätte, irgendeinen "fantastischen
Klavierklang" herüberzubringen, diesen, also einen ganz bestimmten
in jeder Interpretation anzustreben und um seinetwillen die Interpretation
kaputtzumachen. Und was ist, wenn eine Abhörequipment dynamisch derart
überzeichnet, daß die Gewichtung der Anschlagskultur bei Horowitz
zur Farce gerät? Dann ist auch seine Interpretation eine Farce geworden
- und was kann er dafür? Das ist ein Problem bei der Besprechung von
Tonträgern.
(K) Manche Analog-Digital-Diskussion gleicht dem Streit
zweier Kaffeetrinker darüber, ob der Zucker nun als Granulat oder
Würfel besser sei, aber keiner stellt die Frage nach der individuellen
Menge. Die überläßt man einem Zuckerfabrikanten und der
sagt: Möglichst viel auf einmal!
(P) Persterer, A: CAP Creative Audio Processor - ein Hochleistungssystem
zur digitalen Audiosignalverarbeitung, TMT 1988, Tagungsbericht
(PL) G. Plenge: Über das Problem der Im-Kopf-Lokalisation,
in: Acustica Heft 5/1972 siehe dazu auch: Kürer, R., Plenge, G., und
Wilkens, H., 37. AES Convention New York 1969, Preprint 666 (H-3)
(Q) Zweifelquotient: 1
(R) Begleittext zur CD Ludwig van Beethoven, Symphonie
Nr.5 c-moll op. 67, Symphonieorchester des Bayerischen Rundfunks, Leitung
Sir Colin Davis, BRTD 002, hier: Martin Wöhr, Die
raumbezogene Aufnahmentechnik, S. 6/7
(S) Testspiegel (1/1996) über Grado HP 2 Signature
in der Zeitschrift STEREO: "Das Maß aller Dinge". Grado hat inzwischen
den HP 2 durch ein Nachfolgemodell abgelöst, das gewiß nicht
mehr das Maß aller Dinge ist. Also Vorsicht!
(SATire) Der allanaloge Weltkongreß muß neben
dem alldigitalen Weltkongreß unter dem fürsorglichen Dach des
technologisch völlig unfähigen musikwissenschaftlichen Weltkongresses
installiert werden, aber bitte so, daß die digital-analogen Grenzgänger
beide besuchen können, so wie ein Christ einen evangelischen und einen
katholischen Kongreß besuchen kann (und darf).
Die Allanalogen unterscheiden sich meist dadurch wesentlich
von den Alldigitalen, daß sie sich mit dem hinreichend bekannten
Bruderkuß begrüßen, während man die Alldigitalen
daran erkennen kann, daß sie beim Hören entweder stehen und
die untere Kopfhälfte zur Musik hin ausrichten (Kinntyp) oder sitzen
und sich mit nach vorne geneigtem Schädel (Fontanellentyp) ungemein
konzentriert dem musikalischen Geschehen widmen. Falls sie weiches Schuhwerk
tragen, kann man gelegentlich auch beobachten, daß sie mit der rechten
großen Zehe den Takt mitschlagen, wie schlecht erzogene Kammermusiker.
Für einen historisch in der Wolle gefärbten
Musikwissenschaftler ist die Diskussion musiktechnologischer Fragen, insbesondere
musikelektronischer Herkunft völlig unzumutbar, es wird ihm eine regelrechte
Perversion des Denkens abverlangt, zumal die Musikelektronik sich durch
die realiter absente Körperlichkeit der das Betrachtungsobjekt, also
die Musik ursächlich bewegenden Elemente, nämlich des Wechselstroms
und des Gleichstroms, jeglicher Deskriptionsversuche entziehen kann und
sich das Objekt daher für die "Vergleichenden" schon gar nicht eignet.
Allein der Sachverhalt, daß der Betrachtungsgegenstand als solcher
kategorisch einen Teil der Musikwissenschaftler ausschließt, regelrecht
imperativ zur Untätigkeit verurteilt, ist schon deshalb von Übel,
weil die Materie a priori gegen die etablierte wissenschaftliche Demokratie
verstößt. Die Musikwissenschaft hat sich das Yoneda-Lemma (siehe
dazu: Schubert, Kategorien I, Heidelberg 197O, Seite 23) insofern angeeignet,
als ein Gegenstand für alle Zweige des Fachs zur Betrachtung opportun
sein muß. Ansonsten ist er unvollkommen und es muß gewartet
werden, bis er entweder durch Selbstmutation oder deren exaktwissenschaftliche
Andichtung jenen Grad der Vollkommenheit erreicht hat, der ihn für
die Analyse geeignet, ja gewissermaßen sogar befähigt erscheinen
läßt.
Es ist gleichsam so, als würde man die Schweizer
Garde durch Zumutung von irgendwelchen kleinsten Verteidigungsaufgaben
entweihen, und sei es nur, daß die Herren als Kammerjäger herangezogen
würden.
Man muß also tunlichst beachten, daß die wohl
individuell, aber nicht notariell festgelegte Zumutbarkeitsgrenze der Wissenschaftler
durch das Forschungsobjekt an sich nicht in Mitleidenschaft gezogen wird.
Zum Beispiel kann die Analyse eventueller Kurzschlußgeräusche
nicht ohne weiteres mit der Analyse der Aussprache von ss, s, ss, tz, zz,
zt, p, pt in Schallaufzeichnungen verglichen werden. "sssstztzssssstzsysxprt"
kann grundsätzlich verschieden analysiert werden, abhängig vom
Wissenschaftszweig, Standpunkt, Analysemethode und Alter der Analysegeräte.
(Da Universitäten eine finanzielle Abschreibung nicht kennen, kommen
nach der Entfernung der institutseigenen Staub- und Moderschicht auch zuweilen
mosaische Geräte im Sinne einer maschinellen Demokratie zum Einsatz,
"damit diese nicht an ein anderes Institut abgezogen werden".)
Gerade aber das digital-analoge Forschungsgebiet würde
durch kultusministerielle Ausweisung als "Immerwährendes Forschungsobjekt"
eine Legion von Musikwissenschaftlern in Arbeit und Brot bringen, bevor
sie staatlicherseits dem Straßenbau oder dem jahreszeitlich organisierten
Landschaftsschutz zugewiesen werden. Es kann auch nicht ausgeschlossen
sein, daß zur endgültigen Klärung von strittigen Sachfragen
bitorientierte Parapsychologen hinzugezogen werden müssen, was aber
bei den Gregorianern, die gegenwärtig Gema-Hoch-Zeit haben, Betrübnis
generieren würde, wenn sich nicht gar ernstzunehmende Konflikte entwickeln.
In Anlehnung an politische Gepflogenheiten, könnte
aber wohl die Installation eines digital-analogen Vermittlungsausschußes
angedrohte und ausgeführte Tätlichkeiten, wie zwischen Künstlern
und Musikkritikern schon geschehen und dokumentiert, eingrenzen oder gar
verhindern, so daß ein Bestand der Zusammenarbeit wenigstens in Bits
und Bytes, sowie analog auch auf Papier gesichert ist und die Repräsentanz
nach außen hin und im Internet optimal gestaltet werden kann, zur
Erhaltung der umfassenden, diskreten und segensreichen Sponsorentätigkeit
als der realen, meßbaren, kulturellen Höchstleistung, die als
Bewertungskriterium dafür zur Verfügung steht, ob der Sponsor
seinerseits einen Sponsor verdient hat. Die Kunst muß an die Börse.
Erst dann wird sie berechenbar. The Three Tenors gegen Telekom: analog
gegen digital! Was würden Sie denn nehmen? Ich, die 3 Tenöre,
Sie doch auch, oder etwa nicht? Da weiß man, was man hat!
(TOS) Der Verfasser hat zusammen mit anderen ADAT-Benutzern
die ganz wichtige Erfahrung gemacht, daß TOS-Link-Verbindungen geradezu
chaotische Zustände hervorrufen können. Bei dem Versuch ADAT-Bandspuren
(kann auch bei DAT passieren!) in einen Computer zu portieren kam es zu
dramatischen Artefakten, so daß ein regelrechtes Gewitter aus Knacken
entstand. Nachdem meßtechnisch kein Fehler zu eruieren war, kam jemand
auf die Idee den Lichtleiter umzudrehen und siehe da, zu aller hellem Erstaunen
war das Signal nun völlig einwandfrei, einem Coax-Signal durchaus
nicht nachstehend. Der Verfasser begann nun, einmal an den TOS-Kabelenden
zu manipulieren und kam zu dem Ergebnis, daß das Signal um so besser
ist, je planer und paralleler das Glasfaser abgeschnitten ist. Wer an diesen
Stellen mit der Gartenschere arbeitet, wird dann auch seine blauen Wunder
beim Signaltransport erleben.
Nach diesen Erfahrungen, hat man zweierlei gelernt. Erstens,
daß Kabelfragen bei Lichtleitern genauso auftreten, wie bei Audiokabeln.
Material, Richtung und Verarbeitung spielen entschieden bei der Musik mit.
Zweitens kann es also durchaus TOS-Link-Verbindungen geben, die besser
sind als Coax. Man müßte sich in einem Langzeitversuch einmal
mit den Lichtleitern der Telekom befassen. Insider wissen, daß die
Telekom besonders hochreine Lichtleiter verwendet (anstelle einer Nylonangelschnur).
(V) Völkner Elektronik, Braunschweig, Best.-Nr.:
032-916-692
(W) Einen Vorteil hat die Sache, man kann mit einem guten
Editor aus dem digitalisierten Signal die Kratzer herausmachen oder das
Rauschen wegradieren.
(Z) Der "Zweifelquotient" ist das Divisionsergebnis einer
Aussage in einer HiFizeitschrift im Verhältnis zu einer definierten
Anzahl anderer Blätter. Ein Beispiel! Blatt A stimmt in einer Aussage
von 7 Testberichten mit zweien überein, differiert aber mit 4 Blättern,
dann beträgt der Zweifelquotient 3:7. Der Zähler gibt also die
Zahl der in der Aussage gleichliegenden Berichte an. Im Nenner steht die
Zahl der untersuchten Berichte. Je näher der Quotient gegen Null strebt,
um so isolierter urteilt das Blatt, je näher der Wert gegen 1 strebt,
um so näher liegen alle Blätter in der Aussage beisammen - oder,
um so mehr haben alle voneinander abgeschrieben - oder, um so mehr Kapital
hat die Herstellerfirma in das "Sponsoring" ... gesteckt. Pardon! So kommen
schließlich die 0 und die 1 doch noch zu den Analogen. (1.4.96)
(ZeM) Dieser Aufsatz erscheint in der HIFIscene/Schweiz
und im Mitteilungsheft der ZeM-Vereine Freiburg/ Bremen (ZeM). Daher bitte
ich die HIFIscene um Nachsicht, wenn ich ausnahmsweise nun in die Niederungen
trivialer Studiopraxis hinabsteige, anstatt in den höchsten highfidelen
Soundetagen herumzuturnen, weil sonst unsere Studios unbezahlbar würden.
Mein Studio hat weit über 100 Steckdosen, die SUN-Leiste nicht mitgerechnet!
Andere kommen mit 5 Steckdosen aus, an der fünften hängt die
Stehlampe.
Ich meine auch, daß man fachübergreifende
Probleme in fairer Weise fachübergreifend diskutieren sollte. Und
ein Gedankengang läßt mich nicht los. Ausgerechnet in Dübendorf
sitzt Dr. habil. Guerino Mazzola (ETH Zürich), der einen höchst
ernstzunehmenden Verein für Grundlagenforschung in der Musik gegründet
hat, in dem sich zusammen mit höchst renommierten Leuten aus der Mathematik,
Musik, Akustik und Hirnforschung wieder Mitglieder von ZeM befinden. Alle
zusammen könnten da eine Menge bewegen, wenn man sie nur zusammenbringen
würde. Und ich werde mein Bemühen in diese Richtung lenken. Der
nächste Kongreß von PRO IFM in Zürich muß mit einer
Begegnung mit den Leuten der HIFIscene verbunden werden. Laßt diese
Leute aufeinandertreffen, es kann bedeutsam sein. Allein der Austausch
der Aspekte und Erfahrungen wäre ein Beitrag zur Grundlagenforschung
in der Musik, oder etwa nicht?
5/1996
↑
Gerda Schneider
Auf hören eingestellt, und sonst gar nichts
Aus verschiedenen Gründen wird die extreme oder konsequente Einseitigkeit,
mit der die Vorführungen von ZeM sich auf das nur Akustische beschränken,
immer wieder kritisiert. Einerseits koppelt ZeM sich damit von dem populären
Trend zu Multimedia ab und vergibt damit vielleicht eine Chance, ein größeres
Publikum für seine Vorführungen zu gewinnen. Vielleicht verweigert
sich ZeM aber hierbei nicht nur einer Mode, sondern wird der menschlichen
Natur nicht gerecht, denn der Mensch ist ja mit seinen vielen Sinnen von
Natur aus multimedial angelegt. Handelt es sich also auch bei dieser strikten
Reduktion aufs Hören um eine "Unmenschlichkeit"? Oder ist es einfach
Bequemlichkeit, Unfähigkeit, eine Beziehung zwischen Visuellem und
Akustischem herzustellen und dem Hörer auf diese Weise den Zugang
zur Elektronischen Musik zu erleichtern?
In den ersten Jahren von ZeM haben einige Mitglieder sich dem Reiz,
Visuelles in Klang umzusetzen und umgekehrt nicht verschließen können,
zumal es in der Natur eines Programmes liegt, daß die Werte, die
berechnet werden, unterschiedlich interpretiert werden können: Sie
können z.B. als Werte einer Hüllkurve, als Frequenz, als Werte
eines Delay etc. aufgefaßt und umgesetzt werden, sie können
aber genauso gut als z. B. Farbwerte oder Bildpunkte eine Graphik gestalten.
Diese Vielseitigkeit eines Programmes ist eine Verlockung, und man kann
sich daran begeistern, zu welchen Ergebnissen die gleichen Werte führen,
je nachdem, ob man sich für die visuelle oder akustische Interpretation
entscheidet. Doch dann kommt nach der anfänglichen Begeisterung die
etwas ernüchternde Frage: Kann ich nun Elektronische Musik besser
hören, verstehen? Bekomme ich dadurch Anregungen für Produktionen?
Gelingt es mir nun, einen interessanten Sound zu produzieren?
U.U. kann das eine oder andere Mal die Frage mit ja beantwortet werden,
jedoch nicht im Prinzip, und das wiederum führt zu der Frage, woran
das liegen mag.
Sicher sind Prinzipien der Gestaltung übertragbar, und so kann
z.B. ein Algorithmus, der eine Graphik generiert, auf die Gestaltung eines
Sounds übertragen werden und zu interessanten und neuen Ergebnissen
führen. Aber das Ergebnis kann auch sehr enttäuschend sein. Denn
eine solche Umsetzung realisiert eine von vielen Möglichkeiten und
bleibt oft hinter der Erwartung zurück. Die visuellen Assoziationen
beim Hören eines Klanges entsprechen nicht genau der Graphik - es
sei denn, der Hörer hat sich an bestimmte Muster, sozusagen Pattern,
bereits gewöhnt -, und eine bestimmte Graphik erzeugt beim unvoreingenommenen
Hörer nicht den Klang, den er auf Grund des Bildes erwartet hat. Versucht
der Hörer nun, Graphik und Klang in eine eindeutige Beziehung zu setzen,
legt er sich fest: Er hört nicht das, was zu hören ist, sein
Hören ist durch die Graphik fremdbestimmt, es wird durch die Graphik
gelenkt oder sogar dominiert. Und im umgekehrten Fall wird die bildliche
Vorstellungskraft eingeengt auf das, was zu sehen ist.
Zunächst kann als Widerspruch aufgefaßt werden: die Begabung
des Menschen mit verschiedenen Sinnen und das Bedürfnis, eine direkte
Beziehung zwischen den Sinneseindrücken herzustellen - und dies gilt
nicht nur für die Beziehung zwischen Hören und Sehen- und auf
der anderen Seite die Unmöglichkeit, Wahrnehmungen eines Sinnes direkt
und eindeutig in eine andere Sinneswahrnehmung umsetzen zu können.
Es besteht die Gefahr, daß Hören und Sehen gelenkt werden, daß
Muster sich bilden wie Pattern, in welcher Weise Gehörtes und Gesehenes
sich entsprechen sollen. Und die Erfahrung zeigt auch: Entweder erfolgt
meine Wahrnehmung multimedial, dann ist im Prinzip jeder Sinn angesprochen,
dafür aber nur bis zu einem gewissen Grad - oder ich reduziere auf
einen Sinn, z.B. das Hören, gewinne aber durch diese Reduktion ein
höchstes Maß an Differenzierung.
Das bedeutet aber nichts anderes, als daß gerade durch die Reduktion
auf das Akustische die Fähigkeit zum Hören gesteigert werden
kann, und das ist es doch, was wir erreichen wollen. Jede Hinlenkung auf
ein anderes Medium ist eine Ablenkung vom konzentrierten Hören. Dazu
gehört, will man konsequent sein, auch Livespiel. Denn die Manipulationen
des Spielers an einem Synthesizer rufen eher Assoziationen hervor, die
im klassischen Konzertbetrieb anzusiedeln sind, und eine bestimmte Handbewegung
erklärt nicht die Entstehung und Bewegung eines Klanges im Raum. Genau
so wenig wird durch eine Mausbewegung dem Hörer der Aufbau eines Klanges
deutlich.
Fazit: Was zeitweise als ein gewisser Mangel der Vorführungen von
ZeM angesehen werden konnte, stellt sich als der richtige Weg heraus: Konzentration
durch Reduktion, Einseitigkeit als Angemessenheit, unimedial und damit
im eigentlichen Wortsinn universal, d.h. dem Einen zugewandt.
↑
Georg Sichma
Zum Unterrichtsversuch "Kreatives Arbeiten mit dem Computer
im Musikunterricht"
Es handelte sich bei den Schülern um die Halbgruppe einer 9. Gymnasialklasse,
die ich seit Februar '95 bedarfsdeckend und eigenverantwortlich unterrichtete.
Die Gruppe bestand aus fünf Mädchen und sieben Jungen. Die Schüler
verfügten über recht unterschiedliche Musikkenntnisse und -fertigkeiten.
Es sind teilweise keine Notenkenntnisse vorhanden. Dieses fehlende Wissen
wirkt sich nachteilig auf die Motivation der Schüler aus, sich im
Unterrichtsverlauf an musikpraktischen Aktivitäten zu beteiligen.
Einige Schüler waren der Meinung, sie könnten ja doch keine Musik
selber machen und zogen sich daher lieber hinter theoretischer Auseinandersetzung
und Musik hören zurück. Während drei Jungen eigene Computer
besitzen, haben zwei Mädchen noch nie einen Computer bedient. Die
Vorkenntnisse und Fertigkeiten der übrigen Schüler waren zwischen
diesen beiden Polen anzusiedeln.
Die Situation an der Schule
Diese Unterrichtseinheit am Schulzentrum Schaumburger Straße in
Bremen kann als Pilotprojekt bezeichnet werden, da die vorgefundenen Voraussetzungen
unzureichend waren, die anstehenden Erfahrungen aber entsprechende Neuinvestitionen
anregen können und in entsprechende Überlegungen der Schulleitung
eingeflossen sind. Seit Anfang des Jahres 1995 ist ein Apple-Computerraum
mit acht Schülerarbeitsplätzen und einem Lehrerarbeitsplatz mit
LC-Display und Overheadprojektor ausgestattet. Die beiden letzten Computer
sind ältere Modelle (Apple Classic II) und nicht für die Musiksoftware
der UE geeignet. Der Raum wurde bislang noch nicht für das Unterrichtsfach
Musik genutzt, so daß sowohl Musik-Software als auch die periphere
Hardware fehlten. Freundlicherweise wurde auf meine Anfrage hin die Software
wie auch MIDI-Interfaces von den Vertreiberfirmen für einen begrenzten
Zeitraum kostenlos zur Verfügung gestellt. Der benötigte Sampler
wurde von mir gestellt und die Verstärkeranlage ist Eigentum der Schule.
Vorüberlegungen
Der Gegenstand dieser Unterrichtseinheit (UE) ist der Einsatz des Computers
im heutigen Musikleben. Neben der den Schülern vertrauten Popmusik
wird mit diesem Medium auch im Bereich experimenteller Musik gearbeitet.
Im Unterrichtsvorhaben sollen Fragen diskutiert werden, etwa wie: "Hat
die experimentelle Computermusik ihre eigenen Kompositionsregeln?", oder:
"Was hat das Gehörte noch mit Musik zu tun?". Insbesondere wenn Geräusche
als Klangmaterial eingesetzt werden, neigen Laien zu der Position, dies
sei doch keine Musik. Doch anhand einiger musikspezifischer Parameter wie
Rhythmus, Ton- bzw. Klanghöhe, Transparenz und Dichte kann einer solchen
Ansicht begegnet werden.
Diese musikimmanenten Faktoren bieten eine erste Orientierung, wie
mit neuem Material (nämlich dem Geräusch) kompositorisch umgegangen
werden kann. Abgeleitet von einem Hörbeispiel folgt die Umsetzung
von Schülerideen mit dem MIDI-Instrumentarium. Hierzu wird ein eigenes
Thema (Titel eines Werkes) benannt, das musikalisch bearbeitet werden soll.
Ausgewähltes Klangmaterial ist im Sampler ansteuerbar, kann also nach
Belieben "gespielt" werden. Was gespielt werden soll, wird in das Sequenzerprogramm
des Computers eingegeben, kann schließlich hörbar gemacht werden,
um so Veränderungsvorschläge zu erarbeiten und umzusetzen. Ist
der Kompositionsprozeß beendet, kann das Werk vorgeführt werden.
Didaktisch-methodische Überlegungen
Viele Schüler wissen bereits, daß zur Produktion von Popmusik
sehr häufig der Computer eingesetzt wird. Vereinzelt arbeiten sie
bereits selber mit diesen Mitteln und tauschen im Freundeskreis Programme
und Ideen aus. Von den zahlreichen Möglichkeiten soll die Arbeit mit
dem Sequenzer exemplarisch praktiziert werden, zumal diese Anwendung auch
die häufigste ist. Die Veröffentlichungen in der musikpädagogischen
Fachpresse beschreiben meist Unterrichtsversuche mit Ausrichtung auf die
Popularmusik. Achim GIESELER beschreibt in MuB 6/89 den "Einsatz von Sequenzerprogrammen
in der Rock- und Popmusik", Heiner BLECKMANN und Niels KNOLLE(1) berichten
in der gleichen Ausgabe über den Produktionsprozeß eines Blüs
auf dem Computer. Die neuen Arbeitsmittel werden durch die praktische Schülertätigkeit
ausprobiert und ein Bereich des Leistungsspektrums erfahren. Die Musik
selber erfordert weniger Konzentration und Aufmerksamkeit, da sie zuvor
bereits mit herkömmlichen Mitteln (Instrumente, Gesang, Tonbandgerät)
erarbeitet wurde. Die handlungsorientierte Verfahrensweise der o.g. Ansätze
erscheint mir für diesen Unterrichtsgegenstand dringend geboten. Allerdings
halte ich die Fokussierung auf die populäre Musik dem Medium gegenüber
für nicht angemessen. Da der Computer bei Jugendlichen ohnehin ein
gewisses, manchmal auch spielerisches Interesse weckt und dementsprechend
Motivation und Konzentration zunehmen, ist hier meiner Meinung nach ein
idealer Raum, um mit einer neuen Technologie auch neue Wege in der Musik
zu gehen. Es war daher geplant, mit Geräuschen, die per Sequenzerprogramm
im Sampler angesteuert werden, eine Schülerkomposition zu erarbeiten.
Dabei gibt die Länge eines Events an, wie lange dieses Geräusch
erklingt, ob es kurz angespielt wird, sich in seiner ganzen Länge
entfalten kann oder gar darüber hinaus verlängert, d.h. teilweise
wiederholt wird (Loopbildung). Die erklingende Höhe eines Geräusches
ist davon abhängig, welche "Note" dem Original zugeordnet wird und
in welcher Relation das ausgelöste Event dazu steht. Wird beispielsweise
das Original dem c3 zugeordnet, erklingt ein c4-Event mit doppelter Frequenz,
entsprechend dem Frequenzverhältnis einer Oktave. Die Transponierung
wird innerhalb des Samplers vorgenommen. (2) Durch das Zusammenwirken unterschiedlicher
Klänge und deren einzelnen Veränderungen ergibt sich eine Musik,
deren wesentliches Merkmal die jeweilig wahrnehmbare Klangfarbe ist. Die
Schüler erarbeiten somit eine Klangfarbenkomposition. Im Schülerduden
"Die Musik" ist hierzu folgende Definition zu lesen:
" ... In einer exemplarischen Klangfarbenkomposition würde der
"melodische" Eindruck ausschließlich von den Helligkeitsgraden, der
"harmonische" von den Dichtegraden und der "rhythmische" von der zeitlichen
Abfolge der Klangfarben herrühren ..."(3)
Den Schülern gab ich zuerst die Möglichkeit, sich selber
ein Thema auszusuchen, das sie klanglich erarbeiten wollen. Alternativ
dazu bot ich drei Themen zur Auswahl an, wenn kein eigenes Thema gefunden
würde. Das Klangmaterial für die Klangfarbenkomposition wurde
danach von den Schülern selber geschaffen. Mit Cassettenrecorder und
Mikrophon wurden Aufnahmen außerhalb der Schule angefertigt, die
später im Plenum ausgewertet wurden, um die besten bzw. zutreffendsten
Ergebnisse auf den Sampler zu übertragen. In der Unterrichtssituation
arbeiteten jeweils zwei Schüler gemeinsam an einem Computer. Die Schüler
sollten soweit wie möglich auftretende Probleme selber bewältigen.
Aus diesem Grund wies ich die Schüler an, bei Schwierigkeiten zuerst
ihre Mitschüler zu befragen. Andernfalls sollten sie die entsprechende
Hilfe dem vorliegenden Handbuch entnehmen und erst am Schluss den Lehrer
einbeziehen. Die gegenseitige Hilfe der Arbeitsgruppen untereinander erscheint
mir hinsichtlich der sozialen Kommunikation und Interaktion aufbauend.
- Zudem ist im Anfangsstadium mit sehr vielen Fragen zu rechnen, die den
Lehrer vollkommen einnehmen würden.
Die Schüler hatten bislang vorwiegend rezeptiv im Musikunterricht
gearbeitet. Versuche, im Rahmen einer Unterrichtseinheit Jazz eigene musikalische
Ideen zu erarbeiten und umzusetzen, waren nicht sehr erfolgreich, was aber
auch mit einem nur mäßigen Interesse an dieser Musik zu tun
hat.
Mit dem für diese UE ausgewählten Hörbeispiel erfuhren
die Schüler, um welche Art von Musik es sich handelt. Sie gewannen
einen ersten Eindruck. Trotzdem war den Schülern diese Musik im Wesen
fremd, die "Spielregeln" waren ihnen nicht vertraut. Dieses Neue aber bescherte
den Schülern einen großen Freiraum, in dem mehrere Versuche
mit anschließender Hörkontrolle des klanglichen Resultates möglich
waren. Eigene Ideen konnten entwickelt, Fehlversuche leicht korrigiert
oder gelöscht werden. Nach Diskussion der ersten Ansätze wurden
Hilfestellungen durch den Lehrer angeboten, mit denen eine Strukturierung
der eigenen Kompositionsarbeit erleichtert werden sollte. Hier fanden allgemeinmusikalische
Kriterien wie rhythmische Muster, klangliche Transparenz und Dichte sowie
tonhöhenrelevante Strukturen ihre Anwendung.
Warum überhaupt experimentelle Musik?
In der experimentellen Musik werden die Möglichkeiten des Computers
in hohem Masse genutzt, insbesondere werden Arbeitsverfahren entwickelt,
die in dieser Form mit keinem anderen Werkzeug realisierbar sind. Daher
eignet sich diese Musik sehr gut, um die Computerarbeit kennenzulernen.
Die Neugierde nach der klanglichen Umsetzung einer abstrakt erstellten
Sequenz (Eingabe durch einen Editor ohne gleichzeitige Hörkontrolle)
war groß. Der erste Durchgang wurde mit dem voreingestellten Tempo
Viertel=120 und einem Saxophonklang gespielt. Die Schüler fanden das
Resultat "echt geil", womit sie nicht nur ihre Zufriedenheit, sondern auch
ihre Freude zum Ausdruck brachten. Sie waren zwar nicht so vermessen, in
ihrem Ergebnis eine neuzeitliche Komposition zu sehen, aber sie hatten
Spaß an ihrer Arbeit und der Entstehung. Als alle Beiträge gehört
wurden, wiederholte ich den Durchlauf und veränderte hierzu zuerst
das Tempo und dann den Klang. Da die Schülersequenzen meist sehr kurz
waren, bot es sich an, das Tempo deutlich zu verlangsamen, um die einzelnen
Events differenzierter wahrnehmen zu können. Dies begrüßten
die Schüler ausdrücklich, denn ihrem subjektiven Empfinden nach
passierte plötzlich viel mehr. Zwar korrigierten sie sich sofort selbst,
da ihnen objektiv durchaus bewußt war, daß die Events gleich
geblieben waren, aber das langsame Abhören ermöglichte ihnen
ein ausführlicheres Hören.
Ich ließ eine Sequenz mit dem Klang eines gezupften Kontrabasses
ablaufen. Während mit dem Saxophonklang die hohen "Noten" gut klangen,
waren es nun die tiefen. Die Schüler bemerkten dabei den Zusammenhang
zwischen Tonhöhenzuordnung des Events und dazugehörigem Klangmaterial.
Es deutete sich die Erkenntnis an, daß je nach Klang die Events unterschiedlich
zu setzen sind.
Eine weitere Klangvariante konnte in den noch verbleibenden Minuten
versucht werden: basierend auf den bekannten Schülersequenzen verwendete
ich nun Schlagzeugklänge. Sie sind zwar als von einem Musikinstrument
stammend akzeptiert, haben aber kaum eine melodiöse Eignung und kommen
der akustischen Wirkung von Geräuschen nahe. Die Wahl des Schlagzeugs
bildet somit eine Brücke zu der geplanten Komposition mit Klangfarben.
Die Schüler hörten ihre Sequenzen mit drei verschiedenen Klangquellen
und waren über die teilweise recht unterschiedliche Wirkung erstaunt.
In jener Unterrichtsstunde sind die Schüler mit zahlreichen Neuheiten
konfrontiert worden und haben dem eine große Aufmerksamkeit entgegengebracht.
Diese Bereitschaft ist meiner Ansicht nach vom spielerischen Aspekt der
ersten Computernutzung unterstützt worden. Im Verlauf von vier Unterrichtsstunden
hatten die Schüler umfangreiches Klangmaterial gesammelt und eine
Auswahl daraus getroffen. Vier Mädchen entschieden sich für Billardkugeln,
Fahrradklingel, Hundegebell und Kamm, über dessen Zacken mit dem Fingernagel
geratscht wurde. Die übrigen Schüler wählten Klospülung
und Straßenbahn. Die Klänge wurden in den Sampler übertragen
und waren nun jederzeit abrufbar. Die zentralen Arbeitstechniken waren
geübt worden und die Schüler hatten Kriterien der Klangfarbenkomposition
kennengelernt.
Auswertung der Unterrichtseinheit
Bereits in der ersten Unterrichtsstunde hatte ich den Schülern
bei der Vorstellung meiner Planung eingestanden, daß ich durchaus
unsicher sei, ob oder wie wir die vorgegebenen Ziele erreichen würden,
da wir teilweise Neuland beträten. Zu meiner eigenen Freude haben
sich die Schüler im Rahmen ihrer Möglichkeiten bei diesem Vorhaben
engagiert, so daß sich das Erreichte durchaus sehen und hören
lassen kann.
Die geplanten Ziele sind im wesentlichen erreicht worden. Lediglich
die Entwicklung einer kompositorischen Idee und deren Umsetzung in eine
MIDI-Sequenz müssen mit Einschränkungen betrachtet werden. Die
Schüler probierten Sequenzen direkt am Computer aus und ließen
sich dabei nur bedingt von musikalischen Überlegungen leiten. Vielmehr
gewann zeitweise der spielerische Umgang mit dem Medium an Bedeutung und
stand im Vordergrund. Ich hatte den Eindruck, sie spielten nur mit dem
Computer als einem angenehmen Zeitvertreib, statt auf ein musikalisches
Ziel hinzuarbeiten. Ließen sie ihre Sequenzen am Lehrerarbeitsplatz
abspielen, stellte sich bei ihnen aber doch eine musikalische Empfindung
ein, die sie zu einer gezielteren Korrektur veranlaßte. Aus einer
spielerischen Entstehung wurde eine musikalische Veränderung, die
durch ein entdeckendes Lernen in Gang gesetzt wurde. Das Hören machte
die Events zur Musik.
Stelle ich meine Planungen ein wenig in den Hintergrund, so ist festzuhalten,
daß die Schüler eine praktikable Lösung für sich gefunden
hatten. Sie schufen erst einmal ETWAS, gleichgültig aus welchem Ansatz
heraus, und dieses ETWAS wurde Ausgangspunkt ihrer weiteren Bearbeitungen,
ermöglichte ihnen eine musikalische Gestaltung. Der Schaffensprozeß
weist Züge der aleatorischen Kompositionsweise auf, wie sie John Cage
vielfach verwendet hatte, die den Schülern allerdings nicht bekannt
ist. Aber nicht die fachliche Zuordnung läßt mich diese Arbeitsweise
akzeptieren, sondern die Tatsache, daß es zu einer (nicht immer,
aber immer öfter) musikalischen Arbeit wurde. Ekkehard ARNOLD äußerte
sich in einem Leserbrief zum Thema "Musik und Computer" und formulierte
hierzu eine zentrale Frage: "Bei allem Medienaufwand sollte immer wieder
gefragt werden: Was wird an Musikalität entwickelt und inwieweit wird
musikalisches Verständnis, Kreativität und Spontaneität
gefördert?(4)
Gerade das entdeckende Lernen aufgrund der Hörkontrollen setzte
eine entwickelnde Überlegung in Bewegung, und das erhoffte kreative
Arbeiten fand tatsächlich statt.
Die Eventeingabe am Bildschirm ist sehr abstrakt. Aufgrund der beschränkten
Ausstattung war es nicht möglich, an den Schüler-Arbeitsplätzen
jeweils einen Sampler anzuschließen, um die Sequenzen direkt abhören
zu können und die Wirkung der Klänge umgehend zu erleben. Die
Schüler kannten ihre Klänge aus der Cassettenaufnahme und diese
begegneten ihnen als Variationen in der Hörkontrolle wieder. Dazwischen
lag theoretische Arbeit. Als ein Schüler in einer Fünf-Minuten-Pause
an den Lehrer-Arbeitsplatz kam, spielte er seine Klänge über
die Tastatur des Samplers. Er war begeistert über die Veränderung
eines Klanges, wenn er das eine Mal in der Tiefe und das andere Mal in
der Höhe spielte. Diese Herangehensweise bot dem Schüler einen
deutlich umfassenden Eindruck als die Hörkontrolle der eigenen Sequenzen,
zumal die Schüler ihre Events meistens in einem begrenzten "Tonumfang"
setzten. Aufgrund dieser Beobachtung würde ich bei einer Neuauflage
dieser Unterrichtseinheit den Schülern Gelegenheit bieten, ihre Klänge
über die Tastatur des Samplers zu spielen, damit sie unmittelbar erfahren
können, wie sich der Klang verändert. Durch das Spielen bzw.
Improvisieren am Sampler können schließlich Muster entstehen,
die dann nicht mit der Maus am Bildschirm sondern mit der Tastatur über
die MIDI-Verbindung eingegeben werden. Solch eine eingespielte Sequenz
kann anschließend am Bildschirm bearbeitet werden.
Die Computerarbeit im Musikunterricht erweitert die Erfolgsaussichten
insbesondere notenunkundiger Schüler. In meiner Lerngruppenbeschreibung
führte ich u.a. aus, daß einige Schüler der Meinung seien,
sie könnten ja doch keine Musik selber machen. Dies wollten sie im
Verlauf der Unterrichtseinheit in dieser Form nicht mehr gelten lassen.
Ihnen waren zwar nach wie vor ihre beschränkten musikalischen Fertigkeiten
bewußt, doch hatten sie hier einen Weg kennengelernt, mit ihren Voraussetzungen
die musikalischen Möglichkeiten zu erweitern. Diese ursprüngliche
Selbsteinschätzung einiger Schüler revidieren zu helfen, ist
in meinen Augen schon eine ausreichende Begründung, den Computer im
Musikunterricht einzusetzen. Allerdings darf dies keinesfalls ausschließlich
geschehen, da die sinnlichen Erfahrungen herkömmlicher Musizierpraxis
durch den Computer nicht ersetzt werden können.
(1) H. BLECKMANN/N. KNOLLE, in Musik und Bildung, Heft 6, 1989, S. 334-336
(2) Es besteht die Möglichkeit, die Frequenzverhältnisse
zwischen Original und den anderen Höhen frei zu wählen. Dieses
"microtuning" erlaubt es, entweder eine kontinuierliche Frequenzveränderung
vorzunehmen, wie es für die Vierteltonmusik erforderlich ist, oder
aber es wird jedem einzelnen Note-Event eine eigene Frequenzrelation zugeordnet.
Allerdings verfügen nicht alle Sampler über diese Option. Ich
habe allerdings innerhalb der Unterrichtseinheit auf diese Anwendung verzichtet,
um die Arbeit nicht zusätzlich zu abstrahieren.
(3) Schüler-Duden, Die Musik, 1989, S. 175
(4) E. ARNOLD, in: Musik und Bildung, Heft 10, 1989, S. 532
↑
Rettbehr Meier
Elektronische Klanginstallationen am 30./31. März
1996 in der Elzhalle Emmendingen-Wasser - ein subjektiver Bericht
Zum Beginn der Veranstaltung am Samstag um 14 Uhr führte K. Weinhold
die Zuhörer mit seinen Soundprozessen und Erläuterungen des kulturgeschichlichen
Hintergrundes in die elektronische Klangwelt ein. Die Prozesse waren sowohl
moderate, computerunterstützte Interpretationen von klassischen Werken
wie Schumanns "Träumerei", aber auch oktophone Raumklang-Soundschichtungs-Verfremdungen
und extreme Time-Stretchings von OA (dokumentarische Originalaufnahmen
vom Emmendinger Musikfest '95), sowie überraschend frisch klingende
Collagen aus älterem, analogem Synthese-Material der frühen 80er
Jahre. Apropos Raumklang: Bei vielen ursprünglich rein stereophonen
Aufnahmen, wurde ein erweiterter Raumklang mittels Surround-Decoding auf
sechs Lautsprecher erreicht. Dies bot während der zwei Tage z.T. überraschende,
zufällige Raumortungen, denn die Aufnahmen waren ja nicht entsprechend
codiert.
H. Arnolds bot im weiteren eine halbstündige Live-Demonstration
des Alesis Quadrasynth, unterstützt von einem Atari-Computer und weiteren
Korg-Soundmodulen. Die Bandbreite lag hier zwischen klassischer Tonalität
einerseits und atonalen, je nach Programm sogar mikrotonalen Improvisationen.
Besonders die Soundflächen und rauchigen "Röchel-Sounds" des
Alesis kamen gut zur Geltung.
Darauf folgten P. Weyren-Melers zwei Soundcollagen "Readymix 1" und "Readymix
2" aus OA des Weihnachtsurlaubes, die er in einer bewußt improvisatorischen
Studiosituation verfremdet (Pitch-Shifting, Hall, Echos, rückwärts,
gefiltert usw.) und in einem Take, also quasi roh und in einem Rutsch - deshalb
"Readymix" - erneut auf DAT mastern wollte. Allerdings mußte dieser
Vorgang dann doch erst einige Male wiederholt werden, bis ein zufriedenstellenes
Resultat erreicht wurde. Der improvisatorische Vorgang, also Live-Elektronik,
ist ab einem gewissen Grad der Komplexität der Sound-Manipulationen
eben nicht mehr fehlerfrei möglich, das hat dieses Experiment wieder
einmal deutlich gemacht. Wenn wir also diesen Grad an Komplexität
überschreiten wollen, so ist die vorgefertigte Studioproduktion die
einzig praktikable Lösung.
Gegen 16 Uhr folgte dann die traditionelle Gesprächsrunde bei
einem Glas Sekt und einem Stück Kuchen. Es wurden die einzelnen Werke
von den Autoren und Zuhörern kommentiert und diskutiert, sowie auch
mehr allgemeine, aktuelle Aspekte der E. M. behandelt. Besonders interessant
waren die Beiträge des Leiters des elektronischen Studios in Brasilia,
Herr de Silva, mit seinen Schilderungen der dortigen Musiksituation. Er
war zufällig zu Besuch in Freiburg, hatte unsere Annonce gelesen und
zeigte sich nun überrascht und erfreut, daß ein kleiner Verein
wie ZeM so progressive Elektronik darbieten kann.
Gegen fünf Uhr wurden dann weitere Soundprozesse von K. Weinhold
dargeboten, insbesondere die "Mixturen" aus Bach-Werken mit Debussys "Nachmittag
eines Fauns", die nicht einfach nebeneinander abgespielt wurden, sondern
vielmehr als neue Gestalt erstanden. Die Kompositionsmerkmale wurden aus
beiden Werken vom Computer extrahiert, kompositorisch ineinander zu etwas
neuem verwoben, was im aufmerksamen Zuhörer das merkwürdige Gefühl
einer fremden Vertrautheit, bzw. vertrauten Fremde hervorrief.
F.M. Löhle zeigte dann mit seinen FM-Prozessen, daß diese
Frequenzmodulations-Synthese-Technik keineswegs überholt ist, sondern
im Gegenteil hochinteressante, dynamische und flexible Sounds zur Verfügung
stellen kann. Dies betraf sowohl flächige, gleichsam schwebende Gebilde
wie auch die fast schon brutalen, gehämmerten, stakkatoartigen "Soundblitze".
Dank seiner ausgefeilten Sys-Ex-Midi-Steuerung - in diesem Gebiet ist F.M.
Löhle als Experte und Programmierer bekannt - wurden die Möglichkeiten
der Synthesemaschinen wirklich ausgenutzt, und bei ca. 2000 Parametern
gibt es deren viele.
Zum Abschluß des Samstages gegen 18 Uhr folgten Weyren-Melers "Readymixes"
Nr. 3 und 4, die wie oben beschrieben realisiert wurden und zum einen aus
Feuerwerks-Aufnahmen, zum anderen aus OA der öffentlichen Verkehrsmittel
der Stadt Freiburg bestanden.
Am Sonntag bot G. Schneider - nach einleitenden Worten und weiteren,
teils analogen Soundprozessen von K. Weinhold - quadrophone Produktionen
mit zwei Yamaha TX81Z. Es wurde eindrucksvoll gezeigt, daß auch mit
nur vier FM-Operatoren höchst interessante Strukturen möglich
sind. Die Ansteuerung der Module geschah im Studio mittels selbstgeschriebener
Software in GFA-Basic auf dem Atari, wodurch sämtliche Sys-Ex-Parameter
zur Verfügung standen. Dies wurde besonders schön in der Produktion
"Coarse and Fine" dargestellt, wobei die Modulator- und Träger-Frequenzen
mit sehr hoher Auflösung verändert wurden, was so mittels "normalem"
Midi nicht möglich gewesen wäre.
Weyren-Meler brachte im weiteren drei eher tonale Stücke für je drei
Synthesizer (Waldorf Wave, Yamaha TG77 und Roland D70), die eigentlich
für die Illustration der verschiedenen Synthesetechniken an der Pädagogischen
Hochschule in Freiburg gedacht waren, aber wegen des klanglichen Gehaltes
auch für eine Soundaustellung als durchaus geeignet erscheinen.
Nach der Gesprächsrunde führte Dr. Birg als äußerst
gelungene Live-Überraschung einen kleinen Alu-Koffer mit 486er Laptopp
und GM-Expander nebst Software und Minilautsprechern vor, als "mobile Kleinlösung
für den urlaubsreifen Komponisten", wie er sagte. Die Tauglichkeit
der Hardware wurde sogleich mit aleatorischen 2-Timer-Prozessen in Visual-Basic
bewiesen, die uns schon von Dr. Birgs großem, nicht so transportablen
486er wohlbekannt waren.
Zum Ausklang der Veranstaltung improvisierte K. Weinhold noch über
Bach-Choräle auf dem Arnoldschen Alesis und brachte einige weitere
oktophone Sampler-Prozesse mit dem K2000.
Fazit: Meiner Meinung nach wurden wieder einmal sehr innovative und
qualitativ überzeugende Produktionen von ZeM einer interessierten
Öffentlichkeit dargeboten. Besonders das Surround-Decoding hat mir
gut gefallen und sollte unbedingt beibehalten werden. Der Gesamtklang erschien
mir gegenüber früheren Gelegenheiten in der Elzhalle durch die
optimierte Lautsprecheraufstellung weiter verbessert. Die Produktionen
sind anstrengend für den Hörer, dessen ist man sich bewußt.
Es herrscht durch das Prinzip der "Offenen Tür" kein Gruppenzwang
wie im Konzertsaal, und trotzdem, oder gerade deswegen setzten sich die
Besucher diesen Sounds stundenlang aus. Wenn man bedenkt, wie wenige Menschen
sich überhaupt für Musik, dann für sog. neue ernste Musik,
geschweige denn experimentelle E. M. interessieren, so können wir
mit dem Zuhörerinteresse hoch zufrieden sein. Weiter kann man
erfreut feststellen, daß die Veranstaltung dank großzügiger
Spenden die Vereinskasse nur unwesentlich belastet hat, ein Eintrittsgeld
wurde ja wie immer, gemäß der Idee der "Offenen Tür", nicht
erhoben. Die Organisation funktionierte im wesentlichen reibungslos.
Ich denke, die Veranstaltung können wir damit künstlerisch
wie finanziell, sowie organisatorisch, als gelungen und erfolgreich bewerten.
Im Namen des Vereins bedanke ich mich bei folgenden Personen:
H. Arnolds für den Alesis Quadrasynth und Fahrtdienst
M. Baumann von der Fa. Delta Musik für die Stereo PA und Fahrtdienst
Dr. Birg für Fahrtdienst
F. M. Löhle für Organisation und Fahrtdienst
G. Schneider für die Erstellung der Prospekte
K. Weinhold für den unermüdlichen Einsatz für die E.
M., die Quadro- und Okto-Anlage mit Surround, die, wie immer allen Mitgliedern
zur Verfügung stand.
↑
Torbe Reyber
Analoge Pilze
Röhren, Vintage, Tweed-Verstärker. Was bis vor ein, zwei Jahren
nur in den Musikabteilungen für die Strom-Gitarristen zu beobachten
war, erreicht nun auch die bis dato volldigitale Welt der Tastatöre.
Man hat offenbar die Lust am "Schrauben" wieder entdeckt, und überall
schießen analoge Synthesizer, auch in Form von Modularsystemen -
was sonst - , wie die Pilze aus dem Boden. Im Internet gibt es die Enthusiasten,
die auf ihrer eigenen Homepage ihr eigenes Selbstbau-System nebst Bauplänen
mit viel Aufwand stolz der restlichen Menschheit präsentieren. Man
gebe einer Suchmaschine wie "alta vista" einmal Suchbegriffe wie VCO, LFO
usw. vor und man wird sehen. Das paßt gut zum Retro-Zeitgeist dieser
Tage. 70er T-Shirts, James-Brown-Samples, Plattformschuhe, "ich find Schlager
toll!!", da fühlt sich der Moog oder ARP so richtig wohl.
Nein, im Ernst, es ist wohl mehr als eine Modeerscheinung. Nachdem die
Midi-und DSP-Euphorie etwas abgeklungen ist, hat man die Qualitäten
der "altmodischen" Modularsysteme wiederentdeckt und schätzen gelernt
(s.a. [1],[4]). Es gibt da sicherlich tief in die Köpfe eingedrungenen
Werbe-Pauschal-Unsinn, wie analog = gut und digital = böse, was ich
schon von Berufs wegen selbstverständlich ablehne. Es kommt eben sehr
auf die jeweilige Implementierung an. Die Offenheit der analogen Geräte
und der intuitive Echtzeit-Zugang zur Synthese, die man ja per Patchchord
tatsächlich BEGREIFEN und verändern kann, diese Vorteile lassen
die Nachteile leicht vergessen. Hier sind die digitalen Geräte momentan
noch nicht so weit. Und nicht zuletzt ist es der Sound (man höre [2]),
der für jedes System einzigartig ist, und durch bloßes Aufzeichnen
als totes Sample nicht dargestellt werden kann.
Es ist also durchaus zu begrüßen, wenn derartiges wieder
neu auf dem Markt erscheint, denn wer ist schon in der glücklichen
Lage oder im richtigen Alter, ein original Vintage-System wie Moog 55 oder
inzwischen auch Roland 100M zu besitzen? Für die meisten Anwender,
gerade auch im Pop-Bereich sind diese neuen Geräte auch vollkommen
ausreichend. Die Resonanz im Internet zeigt, daß sie dankbar dafür
sind, obwohl zum Teil die technische Ausführung bemängelt wird.
Wie ist das aber nun mit der Eignung für E. M.? Daß hier
höhere Ansprüche als bei Pop-Produktionen zu stellen sind, ist
wohl jedem klar. Eine ergonomische Bedienung ist Pflicht. Dazu gehört
vor allem ein durchdachtes und logisches Konzept. Vor allem sollte aber
das Grundprinzip, nämlich die universelle Spannungssteuerung, unter
keinen Umständen verletzt werden, denn dies ist gerade für die
Ausdrucksmöglichkeiten der E. M. von entscheidender Bedeutung. Jeder
Parameter im System sollte, wenn es nur irgendwie machbar ist, spannungssteuerbar
sein, jedes Modul sollte damit jedes andere kontrollieren können.
Zwischen audiofrequenten- und DC-Steuerspannungen sollte kein prinzipieller
Unterschied gemacht werden. Nur dann hat man die totale Modulationsmatrix,
die wirklich ausgefallene Sounds erlaubt.
Dr. Moog kann man zurechnen, 1968 dieses Spannungssteuerungsprinzip
erstmals kommerziell den Musikern zur Verfügung gestellt zu haben.
Die Schaltungstechnik war aber damals noch nicht so weit, daß wirklich
jeder Parameter, der irgendwie beeinflußbar war, auch spannungsgesteuert
zur Verfügung stand. Doch in der Mitte der 70er Jahre war man dorthin
gekommen, natürlich nicht den Musikern zuliebe. Vielmehr hatte das
der Bau von microcomputergesteuerten polyphonen Synthesizern (z.B. Prophet
5) erfordert, denn der Microprozessor stellte die abgespeicherten Soundparameter
via D/A-Wandler eben als Steuerspannung den analogen Synthesechips zur
Verfügung. Diese waren somit zwangsläufig voll spannungssteuerbar:
Beim ADSR z.B. waren dies die A, D und R-Zeit und der S-Pegel. Beim Filter
war dies die Eckfrequenz und die Resonanzstärke, usw. Es gab 1983
ein Modulsystem (Soundlab von Dr. Böhm), das weitgehenden Gebrauch
von dieser technischen Entwicklung machte (s. [3],[1]), leider jedoch nicht
lange auf dem Markt war. Auf die Gründe für den kommerziellen
Mißerfolg komme ich später noch zu sprechen.
Soweit der Stand der Technik, denn die Analogtechnik hat allgemein
seit etwa 1970 einen gewissen Sättigungsgrad erreicht, so daß
wirkliche Neuerungen sehr selten geworden sind.
Um so unverständlicher ist es, daß 1996 bei den neu auf dem
Markt erschienenen Geräten diese Errungenschaften weitgehend fehlen.
Meist ist weder der ADSR noch die Filterresonanz spannungssteuerbar, die
Liste ließe sich fortsetzen. Das ist nicht nur sehr schade, das ist
eindeutig technischer Rückschritt!
Dabei werden z.T. dieselben Chips verwendet, wie vor mehr als zehn
Jahren. Die Möglichkeiten sind also da, sie sind im Gehäuse eingebaut,
werden aber nicht mittels Klinkenbuchse nach außen geführt.
Offenbar wurde so knapp kalkuliert, daß diese wenigen DM pro Modul
nicht geopfert werden konnten. Oder umgekehrt: wenn der Preis für
ein Produkt auf dem Markt feststeht und wenn der durchschnittliche Kunde
zufrieden ist, oder die potentiellen Möglichkeiten gar nicht kennt,
dann ist jede eingesparte Eigenschaft bares Geld auf dem Konto des Herstellers.
Und wie sieht es mit der Ergonomie aus? Zum Teil werden zu kleine, unübersichtliche
Frontplatten und schlecht bedienbare Potentiometer, Schalter und Buchsen
bemängelt. Das mag Geschmackssache sein. Für manche Systeme wird
eine Unzahl von Modultypen angeboten. Aber eigentlich sollte ein Entwickler
darauf achten, daß die Module möglichst universell anwendbar
sind. Er sollte eher wenige, aber dafür sehr gut durchdachte Modultypen
designen. Außerdem sollte er berücksichtigen, welche Module
durch Zusammenschaltungen anderer Module vielleicht ersetzbar sind. Er
sollte ein logisches, harmonisches Gesamtkonzept haben, man nennt das dann
Ingenieurskunst. Der Nutzer hat es in diesem Falle mit der Bedarfsplanung
und vor allem der Anwendung viel einfacher und die angesprochene Universalität
eröffnet ganz neue Möglichkeiten. Leider ist das bei den neuen
Systemen oft nicht der Fall. Schaltungstechnisch ist es z. B. so, daß
bei einem VCA die lineare und die exponentielle Charakteristik mit geringen
Kosten sehr leicht in einem Modul angeboten werden können. Das macht
durchaus musikalisch Sinn (linear für Modulationen im Audio-Bereich
klingt angenehmer, exponentiell eher für Hüllkurven). Tatsächlich
fertigt man lieber zwei verschiedene Module, ein lineares, und ein exponentielles.
Man verschlechtert so bei gleichzeitiger Nutzung den Signal-Rauschabstand
und muß Platz und Geld für zwei Module spendieren.
Die aktuellen Modulsysteme gefallen mir also allesamt nicht, ich halte
sie speziell für E. M. als ungeeignet. Ich habe aus dieser Bewertung
die Konsequenzen gezogen und werde mein eigenes Modulsystem zu Ende bauen,
selbst wenn das lange dauern wird. Um keinen falschen Eindruck aufkommen
zu lassen: Dieses System wird ein Unikat und ist unverkäuflich! Der
Ringmodulator als Spin-Off dieser Entwicklungsarbeit wird jedenfalls schon
am ZeM-Wochenende im September '96 zu hören sein.
Die Medaille hat natürlich immer zwei Seiten. Der Untergang der
Firmen Moog, ARP, Kurzweil, Dr. Böhm usw. hat gezeigt, daß Qualität
und Genialität allein nicht für das Überleben einer Firma
ausreichen. Man kann im Gegenteil sogar beobachten, daß sich tendenziell
immer das schlechteste, idiotischste System auf dem Markt durchsetzt, da
es meist mit der wirtschaftlich optimalen Lösung zusammenfällt
(z.B. der IBM-kompatible PC, VHS-Video, vielleicht auch Midi?). Großer Einsatz
lohnt sich nicht, der Kunde dankt es einem offenbar in diesen hochkompetitiven
Märkten nicht. Mit diesen frustrierenden Einsichten einerseits und
der Verantwortung für eine Firma andererseits würde ich es genauso
machen: schnell den Hype ausnutzen, irgendein Gerät herausbringen
und den Markt abschöpfen, denn wer weiß schon ob es sich morgen
noch verkauft?
[1] T. Reyber, Die Synthesizerausstellung
..., ZeM MT 16, Januar 1995, S5.ff.
[2] M. Becker et al. , "Synthesizer von Gestern", CD 1,2,3, sowie das
gleichnamige Buch Band 1 und 2
[3] Dr. B. Enders: Die Klangwelt des Musiksynthesizeres, München
1985.
[4] Dr. J. Stange-Elbe, Elektronische Musik
im Spannungsfeld ..., ZeM MT 17 April 1995, S4. ff.
↑
Franz Martin Löhle
Neues aus ZeM Freiburg
ZeM im Internet
Parallel zum Erscheinen dieses Heftes hat nun auch ZeM Freiburg (ZeM
Bremen wird folgen) eine Internetseite mit der Adresse: "http://www.ZeM.de".
Die neuen Möglichkeiten, die uns dieser Schritt bringen wird,
sind natürlich noch nicht abzusehen und sollen erst nach einem einjährigen
Testlauf analysiert werden.
Zunächst stellt unsere Seite einfache Informationen über
ZeM dar. Was ZeM will, wie ZeM strukturiert ist und welche Aktivitäten
unser Verein durchführt: Inhalte, Zeit und Ort.
Auszüge aus den Mitteilungsheften und in spe auch Sound werden
folgen.
Sobald die meisten Mitglieder einen Zugang zum "Netz" besitzen, können
wir dieses Medium auch nutzen, kurzfristig angesetzte Veranstaltungen mitzuteilen.
Wer keine Internetzugangsmöglichkeit hat, dem sei ein Besuch der
Internet Galerie "Equinoxe"
in Freiburg, Adlerstraße 7, empfohlen. Hier ist gegen einen kleinen
Unkostenbeitrag der Zugang mit Kurzerklärung möglich.
Mitgliedertreffen bis auf weiteres ausgesetzt
Bis Ende dieses Jahres wird es in Freiburg keine regelmäßigen
Mitgliedertreffen geben. Diese fanden bis dato seit 1989 jeden letzten
Mittwoch im Monat statt.
Für nächstes Jahr wird im Januar neu entschieden, wie weitere
Treffen aussehen sollen.
Bis dahin wird es gezielte Treffen geben, wie z.B. das Treffen für
die Steinhallen-Vorbereitung. Auch der Jahresabschluß im Einbeckerstüble
wird weiterhin stattfinden. In diesem Jahr am 18. Dezember um 19.30 Uhr.
↑
Rückseite
|