ZeM Mitteilungsheft Nr. 26 - 2005
Redaktion: Rettbehr Meier
Editorial
Musik und Texte. In Stein gemeißelt, sichtbar und tastbar,
langlebig. Auf der anderen Seite nur momentan hörbares,
flüchtiges. Wir wissen viel über die Bauten, aber fast nichts
über die Musik vergangener Zeiten. Archäologie ist
Geisteswissenschaft. Wie aber hat Musik damals geklungen? Wir leben
(noch) in einer Kultur der Schrift. Boshaft: es wird falsch
abgeschrieben, was andere schon falsch aufgeschrieben haben.
Das erste Sinnesorgan des Menschen ist immer noch das Auge und
nicht das Ohr. Was ist also höher zu schätzen: der Klang oder
der interpretierende Text? Das einmalige Ereignis oder die Noten? Warum
werden in Schriften über Musik die Randerscheinungen zum Zentrum?
Mephisto: "... Im ganzen haltet Euch
an Worte! Dann geht Ihr durch die sichre Pforte zum Tempel der
Gewißheit ein." Schüler: "Doch ein Begriff
muß bei dem Worte
sein".
Mephisto: "Schon gut! Nur muß man sich nicht allzu
ängstlich quälen. Denn eben wo Begriffe fehlen, da stellt ein
Wort zur rechten Zeit sich ein. Mit Worten läßt sich
trefflich streiten,
mit Worten ein System bereiten, an Worte läßt sich trefflich
glauben, von einem Wort läßt sich kein Jota rauben
...".
Ein weiteres Mitteilungsheft über E. M. liegt hiermit
vor. Es wird in drei Artikeln beschrieben, wie E. M. gemacht wird. Zwei
andere haben den Gegensatz von Schrift und Klang zum Inhalt. Nicht die
Randerscheinung, der fernliegende Berührungspunkt mit Gedanken
anderer, sondern das Zentrale selbst ist immer wieder Gegenstand der
Erörterung. Und das Zentrale ist der Klang.
Rettbehr Meier,
21. Dezember 2005
↑
Peter Kiethe
Raumklang und Rotation
Grundsätzliches: Es ist bekannt, dass man die Tonhöhe eines
Samples erhöht, indem man das Sample schneller abspielt. Bei alten
Vinylscheiben konnte man diesen Effekt erzeugen, indem man die
Drehgeschwindigkeit des Plattentellers zu hoch schaltete. Man spricht
auch vom Mickey Mouse Effekt oder entsprechend vom Dinosaurier Effekt,
wenn die Abspielgeschwindigkeit verringert wird. Ein Problem war lange
Zeit, dass bei der Erhöhung der Abspielgeschwindigkeit auch die
Länge des Samples verkürzt wurde. Durch schnellere
Prozessoren und verbesserte Algorithmen kann man heute durch Pitch
Shifting zeitlich gleich lange Aufnahmen erzeugen. Ein interessantes
Feature, wenn man natürlicher klingende Samples erzeugen will.
Für den elektronischen Musiker, der die Verfremdung und
Neugestaltung der akustischen Umwelt zum Ziel hat und nicht die
Nachbildung, ist das nicht unbedingt notwendig. Es kann sogar durchaus
spannend sein, ein Sample extrem schneller laufen zu lassen. Das
Ergebnis klingt nicht immer "schön", aber in jedem Falle
unerhört.
Konzeptmusik: Es gibt sehr viele Möglichkeiten, Musik zu
komponieren. Ausgehend von musikalischen Experimenten kann ein
Kunstwerk entstehen, oder man ordnet sich der Maschine unter und
lässt dem Computer gewisse kreative Freiräume zur Erstellung
einer Musikstruktur. Sehr verbreitet ist sicher die "romantische"
Vorgehensweise. Musikalische Strukturen werden improvisiert - z. B.
harmonische Muster - und was gefällt wird notiert. Eine
grundsätzlich andere Vorgehensweise ist ein "Konzept". Eine
musikalische Idee - z. B. eine formale Struktur - wird theoretisch
ausgearbeitet. Nach der Ausarbeitung dieses musikalischen Plans wird
dieser praktisch umgesetzt. Man kann nicht vorhersagen, ob die
praktische Umsetzung musikalisch interessant klingen wird.
Meiner Meinung nach ist die Kenntnis des Musikkonzepts zum
Verständnis der Konzeptmusik von großer Bedeutung. Selbst
von geübten Ohren ist der musikalische Plan in der Regel nicht aus
der Musik zu erschließen. Erst wenn man den Plan kennt, kann in
den Ohren des Zuhörers aus einer Kakophonie Musik werden.
Kompositionskonzept: In meiner Komposition "Raumklang" gehe
ich von einem kompositorischen Konzept aus, das wesentlich auf der
zuvor erklärten Transposition und der damit verbundenen
Verkürzung des Samples aufbaut. Stellen Sie sich dazu vier
Fahrzeuge vor, die alle eine Strecke von München nach Hamburg
zurücklegen müssen. Das erste Fahrzeug benötigt für
die Strecke 10 Stunden, das zweite nur 9 Stunden, das dritte 8 und das
vierte 7 Stunden. Die Fahrzeuge fahren jeweils um eine Stunde versetzt
von München ab, d. h. durch die unterschiedlichen
Geschwindigkeiten kommen alle zur selben Zeit in Hamburg an.
Musikalisch umgesetzt bedeutet das: bei einem 35 mal schneller
gespielten Sample wird im Verlauf von 12 Minuten kontinuierlich die
Abspielgeschwindigkeit verringert, bis es am Ziel die
Originalgeschwindigkeit erreicht hat. Alle 3 Minuten, also nach 3, 6
und 9 Minuten, setzen neue Klänge ein, deren
Abspielgeschwindigkeit jedoch schneller verringert wird, so dass nach
12 Minuten alle 4 Klänge gleichzeitig die Originalgeschwindigkeit
erreicht haben.
Nicht nur die Abspielgeschwindigkeit des Samples wird
verändert. Die Komposition ist quadrophon ausgelegt. Jeder der 4
Klänge dreht sich um den Zuhörer. Zu Beginn werden von jedem
Klang innerhalb einer Sekunde 200 Drehungen durchlaufen. Die
Drehgeschwindigkeit wird ebenfalls kontinuierlich verringert, so dass
alle 4 Klänge nach 12 Minuten eine Geschwindigkeit von 0.1
Umdrehungen pro Sekunde erreicht haben.
Historie: Vor einigen Jahren experimentierte ich mit der
extremen Transponierung von Samples. Ein Sample glitt innerhalb eines
langen Zeitraums kontinuierlich zur Originaltonhöhe. Gleichzeitig
drehte sich der Klang im quadrophonen Raum, wobei die
Drehgeschwindigkeit kontinuierlich verringert wurde. Das
Hörergebnis beeindruckte mich zutiefst. Durch die Änderung
der Drehgeschwindigkeit unterliegt das Ohr einer Art akustischer
Täuschung. Dieser Effekt ist vergleichbar mit der visuellen
Täuschung bei der Kameraaufnahme eines sich drehenden Rades. Durch
die Veränderung der Radgeschwindigkeit, scheinen die Speichen
plötzlich stehen zu bleiben und sich kurze Zeit später sogar
rückwärts zu drehen, um spontan wieder zu beschleunigen.
Ähnliches hört man, wenn ein Klang mit sehr hoher
Drehgeschwindigkeit allmählich abgebremst wird. Setzt ein zweiter
Klang später ein und wird mit erhöhter Geschwindigkeit in
seiner Tonhöhe abwärts gefahren, so tritt ein zweiter Effekt
ein: Durch die unterschiedliche Geschwindigkeit der beiden Klänge
kommt es zu Knotenpunkten, in denen die Frequenz beider Klänge in
ganzzahligem Frequenzverhältnis zueinander stehen. Hierbei sind
beide Klänge kaum voneinander zu unterscheiden. Diese
Zustände sind sehr selten und lösen sich sofort wieder auf.
Bei leichten Verstimmungen nimmt man die bekannten Schwebungen war. Die
Schwebungen werden zu Raumeindrücken. Dies verstärkt sich mit
der Anzahl der nacheinander einsetzenden "Stimmen".
Damals verwarf ich das Projekt, da die technische Umsetzung
noch zu unbefriedigend war. So lässt der K2000 nur eine
Transposition um 3 Oktaven nach oben zu. Um höher zu transponieren
musste diese Transposition gesampelt werden und ihrerseits nach oben
verstimmt werden, was natürlich zu erheblichen klanglichen
Qualitätsverlusten führte. Außerdem war die
Auflösung der Tonhöhe ungenügend. Mit den heutigen
Computern ist ein solches musikalisches Konzept kein Problem mehr. Es
wurde von mir in Csound zum einem Konzert im Jahr 2004 umgesetzt.
Variationen? Offenes Kunstwerk? Unendliche Komposition? Bei
der Umsetzung dieser Konzeptmusik habe ich als Komponist gewisse
Vorgaben gemacht. Wieso gerade ein Wortsample? Ebenso kann man einen
Flötenton nehmen, ein Musikausschnitt, oder einen ganzen Satz.
Wieso gerade eine Länge von 12 Minuten? Wieso ein Einsatz eines
neuen Klangs alle 3 Minuten? Und nicht zuletzt: wieso eine
Beschränkung auf 4 Stimmen? Mit welcher Geschwindigkeit soll sich
der Klang drehen und wie langsam soll er werden?
Das realisierte Stück ist nur eine Möglichkeit aus
einer unendlichen Anzahl von Varianten, eine Festsetzung verschiedener
Parameter, die mir zur Zeit der Produktion als sinnvoll erschienen.
Eine andere Variation, die ich ebenfalls für ein Konzert in 2004
produzierte, geht von 8 Klangeinsätzen aus. Der Klangeinsatz
verschiebt sich in seiner Räumlichkeit immer um einen Lautsprecher
nach rechts. Alle 39.5 Sekunden beginnt ein neuer Klang. Der Einsatz
der Klänge wird im Verlauf einer Drehung eingeblendet. Eine
Drehung dauert 4 Sekunden und verändert seine Drehgeschwindigkeit
nicht, d. h. am Ende - wenn alle 8 Klänge zu hören sind - ist
der quadrophone Raum in 8 gleichgroße Abschnitte unterteilt. Der
erste Klang wird auch als erster ausgeblendet. Eine Drehung später
wird der zweite Klang ausgeblendet, usw. Allmählich verringert
sich am Ende des Stückes die Dichte des Klangraumes.
Für Interessierte:
<CsoundSynthesizer>; Raum (Konkret
1)
<CsOptions>
</CsOptions>
<CsInstruments>
sr = 44100
kr = 4410
ksmps = 10
nchnls = 4
instr 1; raum a
idur = p3
kdreh expon 200, idur, .1
abreit oscil 1, kdreh , 2; stereobreite 10 bis 0.1 drehung pro sekunde
atief oscil 1, kdreh , 3; quadrotiefe
ktranspose expseg 20, 720, 1/1.5, 40, 1/1.5
aout oscil 10000, ktranspose, 1
aout1 = aout*(1-abreit)*(1-atief)
aout2 = aout*(abreit)*(1-atief)
aout3 = aout*(abreit)*(atief)
aout4 = aout*(1-abreit)*(atief)
outq aout1, aout2, aout3, aout4
endin
instr 2; raum b
idur = p3
kdreh expon 200, idur, .1
abreit oscil 1, kdreh , 2; stereobreite 10 bis 0.1 drehung pro sekunde
atief oscil 1, kdreh , 3; quadrotiefe
ktranspose expseg 20, 540, 1/1.5, 40, 1/1.5
aout oscil 10000, ktranspose, 1
aout2 = aout*(1-abreit)*(1-atief)
aout3 = aout*(abreit)*(1-atief)
aout4 = aout*(abreit)*(atief)
aout1 = aout*(1-abreit)*(atief)
outq aout1, aout2, aout3, aout4
endin
instr 3; raum c
idur = p3
kdreh expon 200, idur, .1
abreit oscil 1, kdreh , 2; stereobreite 10 bis 0.1 drehung pro sekunde
atief oscil 1, kdreh , 3; quadrotiefe
ktranspose expseg 20, 360, 1/1.5, 40, 1/1.5
aout oscil 10000, ktranspose, 1
aout3 = aout*(1-abreit)*(1-atief)
aout4 = aout*(abreit)*(1-atief)
aout1 = aout*(abreit)*(atief)
aout2 = aout*(1-abreit)*(atief)
outq aout1, aout2, aout3, aout4
endin
instr 4; raum d
idur = p3
kdreh expon 200, idur, .1
abreit oscil 1, kdreh , 2; stereobreite 10 bis 0.1 drehung pro sekunde
atief oscil 1, kdreh , 3; quadrotiefe
ktranspose expseg 20, 180, 1/1.5, 40, 1/1.5
aout oscil 10000, ktranspose, 1
aout4 = aout*(1-abreit)*(1-atief)
aout1 = aout*(abreit)*(1-atief)
aout2 = aout*(abreit)*(atief)
aout3 = aout*(1-abreit)*(atief)
outq aout1, aout2, aout3, aout4
endin
<CsInstruments>
<CsScore>
f1 0 65536 1 “konkret2.wav” 0 4 0
f2 0 4096 7 0 1024 1 1024 1 1024 0 1024 0 ; breite
f3 0 4096 7 0 1024 0 1024 1 1024 1 1024 0 ; tiefe
i1 0 760
i2 180 580
i3 360 400
i4 540 220
e
</CsScore>
</CsoundSythesizer>
↑
Gerda Schneider
Mehrkanaligkeit - Klang
im Raum
Mehrkanaligkeit meint im eigentlichen Sinn: es gibt mehrere
Schallquellen - im Falle der Elektronischen Musik Lautsprecher -, die
im Raum so verteilt sind, dass der gesamte Raum vom Klang durchdrungen
wird und zwar in mehreren Richtungen. Die Lautsprecher können -
müssen aber nicht - alle den vollen Frequenzgang haben. Jeder
Lautsprecher ist eine selbständige Schallquelle, nicht einfach
eine Verdopplung der Quellen und er hat ein Signal, das unabhängig
ist vom Signal eines anderen Lautsprechers. Dabei muss natürlich
die Zahl und Aufstellung der Lautsprecher der Größe und Form
des Raumes angepasst werden. Vier Lautsprecher können fast immer
im Raum optimal verteilt werden, weshalb die Quadrophonie eine
übliche Realisation darstellt [1]. Sie ermöglicht eine
akustische Orientierung im Raum wie die vier Himmelsrichtungen in der
Landschaft.
Echte Mehrkanaligkeit ist - auch seit es Vorführungen von
Elektronischer Musik von und unter der Leitung von Klaus Weinhold v. a.
nach der Gründung des Vereins "Zentrum für Elektronische
Musik e.V. Freiburg" in Freiburg und Umgebung gibt - Standard und wird
bewusst eingesetzt für Klangwirkungen, wie sie mit einer
Stereo-Anlage nicht zu erreichen sind. So wird bereits in der
Vorbesprechung einer solchen Veranstaltung am 6. / 7. April 1991 in der
Aula und im Musiktrakt der PH Freiburg die Mehrkanaligkeit der
Vorführung betont. Hier heißt es u. a.: "Klanglandschaften
mit elektronischen Klängen aller Art sind das Thema von
Vorführungen mehrkanaliger radiophoner Musik am kommenden
Wochenende in der PH Freiburg" [2]. Damit soll nun nicht behauptet
werden, mit den genannten Vorführungen sei die Mehrkanaligkeit
überhaupt eingeführt worden, Tatsache ist aber, dass der
Veranstalter als aktiv in dieser Sache gelten kann.
Die Entstehung und Entwicklung der modernen Mehrkanaligkeit
ist eng verknüpft mit den Medien Rundfunk und Film. Geht man in
der Musikgeschichte jedoch weiter zurück, so kann in der
Mehrchörigkeit der Renaissance bereits ein Vorläufer gesehen
werden. Es ist wohl kein Zufall, dass in der Zeit der Entdeckung und
Eroberung des geographischen Raumes der Welt auch in der Musik der Raum
Bedeutung gewinnt. Damals erklangen im konkreten Raum aus verschiedenen
Richtungen Vokalstimmen und mechanische Instrumente. In unserer Zeit
geht es im Hörfunk darum, dem Hörspiel Räumlichkeit und
Bewegung in der Vorstellung des Hörers zu bewirken, dem Hörer
einen virtuellen Raum für das gehörte Geschehen zu
vermitteln. Im Film soll durch den sich bewegenden Klang Bewegung
simuliert werden und der Zuschauer soll durch den im Raum verteilten
Klang eingehüllt sein. Der Zuschauer sollte den Eindruck erhalten,
er sei nicht nur Zuschauer der Ereignisse auf der Leinwand, sondern
befinde sich mitten im Geschehen [3].
Die Intention ging also in beiden Medien dahin, den Raum der
Produktion - z. B. ein Gebäude, eine Straße, einen Garten -
optimal in der Wahrnehmung des Hörers bzw. Zuschauers abzubilden.
Aus diesem Grund musste auch die Platzierung der Lautsprecher und die
Verteilung der Kanäle nach einer exakten Berechnung, die den
Gesetzen des menschlichen Ohres und der Wahrnehmung von Klang
entspricht, vorgenommen werden [4]. Dieses Ziel, den Raum der
Produktion - hier nun v. a. den Konzertsaal - in der Wahrnehmung des
Hörers entstehen zu lassen, verfolgte auch die Initiative "Quadro
Action", die die Quadrophonie für den normalen Verbraucher als
Standard durchsetzen wollte, bei der CD-Industrie jedoch keinen Erfolg
hatte [5].
Bei meiner Suche nach dem Begriff Mehrkanaligkeit bzw.
Vierkanaligkeit in Artikeln der ZeM-Hefte stieß ich auf folgenden
Bericht aus dem Jahr 1993: "Marc erzählt am Schluß noch
über seinen Besuch beim Elektronischen Studio des WDR. Dort hat er
die Originalversion (quadrophon) von Stockhausens 'Kontakte' im Studio
selbst gehört und ist fasziniert von dem Eindruck. Es sei kein
Vergleich mit der auf CD verbreiteten Fassung..." [6]. Hier werden
Wirkungen der Mehrkanaligkeit angesprochen, die anderes Hören
erzeugen und erfordern. So sind auch bei den Vorführungen von ZeM
nicht nur die neuen Klänge für viele Hörer
gewöhnungsbedürftig, vielmehr verlangt die Mehrkanaligkeit
ein anderes Hören, denn durch sie gewinnt der Klang im Raum und
die Wahrnehmung des Klanges in diesem eine andere Dimension: "Durch
diese Raumklang-Technik entfalten sich die Klänge im Raum und
führen dort ein freies, ungebundenes Wesen" heißt es zum
Thema Raumklang in dem Artikel über die Elektronische Musik des
WDR [7].
Was ist nun diese "andere Dimension"? Da der Klang aus
mehreren Richtungen kommt, ist eine feste Ausrichtung nicht mehr
gegeben. Der Hörer befindet sich inmitten der Klänge. Nun
kann ein mehrkanaliges Stück so komponiert werden, dass vom
Komponisten der Hörer an einer bestimmten Position gedacht wird.
Er hat dann einen festen Standpunkt, hört aber in verschiedene
Richtungen, also in mehren Perspektiven. Je nach Konzeption des
Stückes können auf jedem Kanal ganz bestimmte Klänge
oder Frequenzen bzw. Frequenzbereiche gehört werden. Die
entsprechende Anordnung der Lautsprecher beruht dann auf einer "neuen
Ästhetik der Montage der Richtungen" [8]. Diese wird v. a. mit der
Surround-Komposition verfolgt. Ein besonderer Effekt entsteht, wenn die
Schallquellen so lokalisiert sind, dass die Richtungswahrnehmung
erschwert wird, was bei sehr geringem Abstand der Lautsprecher
voneinander (ein Winkel von 1-3°) der Fall ist. Der Hörer kann
die Richtungsänderung nicht deutlich wahrnehmen, wird dadurch
verunsichert, irritiert. Dieser Effekt kann bewusst mit einer
entsprechenden Konfiguration eingesetzt werden, um eine "produktive
Irritation" des Hörers zu erzeugen [9].
Verstärkt werden diese Wirkungen noch, wenn sich der
Hörer bei einer solchen Vorführung im Raum bewegt, auf eine
bestimmte Schallquelle zugeht, den einen Klang aus der Nähe
aufnimmt, während die anderen Klänge aus größerer
Entfernung wahrgenommen werden. Beim Durchlaufen des Hörraumes
kann man erfahren, wie der Klang sich bewegt und durch den Raum
wandert. Hier kommt es gerade nicht darauf an, die "richtige" Position
im Raum einzunehmen, um den Klang authentisch zu hören, sondern
den Klang und seine Veränderung je nach Standort zu erfahren.
Für solche Vorführungen gilt: "Wie klingt es in diesem Raum,
mit diesen Lautsprechern, von verschiedenen Standpunkten aus? Wie
klingt es, wenn die Lautsprecher anders aufgestellt werden? Wie klingt
es, wenn ich in der Mitte oder in einer Ecke stehe?" Es gibt bei
solchen Vorführungen nicht den optimalen Platz, nicht das Zentrum,
das nach den Gesetzen der Akustik den besten Genuss verspricht. Und es
ist nicht der Sache angemessen, auf einem nummerierten Platz zu sitzen,
frontal ausgerichtet, sondern in der Bewegung durch den Raum den Klang
zu hören, und zwar nicht nur den Klang als solchen, sondern eben
auch, wie sich der Klang durch die Bewegung im Raum verändert. Und
wie durch diese Veränderungen neue Räume geöffnet
werden.
Wir nehmen dann die Klänge so wahr, wie wenn wir durch
die Straßen einer belebten Stadt gehen, verschiedene
Geräusche aus unterschiedlichen Richtungen hören, die je nach
Bewegungsrichtung stärker oder schwächer wirken, durch andere
in den Hintergrund gedrängt werden, mal da sind und immer wieder
verstummen. Oder wie wenn wir durch die Gegend laufend mal hier, mal
dort etwas hören, z. B. einen Vogel, vom Wind verursachtes
Rauschen, zwischendurch Verkehrsgeräusche, menschliche Stimmen
usw. Durch die Mehrkanaligkeit bewegen wir uns in einem akustischen
Raum, ohne festen Standpunkt, mit mehreren Perspektiven. Wir erfahren
eine komplexe akustische Umwelt, die - wie oben bereits gesagt - zu
Irritationen führen kann, je nach Aufstellung der Lautsprecher.
Es ist ja ganz natürlich, dass ein Mensch nicht immer am
selben Platz steht und dass er immer wieder seine Position
verändert, sei es, indem er zu Hause z. B. von einem Zimmer ins
andere geht, indem er verreist, sich zu Fuß auf den Weg zu seiner
Arbeit macht oder durch die Gegend fährt. Schließlich ist er
ja ein Lebewesen. Dass sich dabei die optischen Eindrücke
ständig verändern, ist für uns selbstverständlich,
gerade für diejenigen, die sich auch Filme anschauen. Für
einen Filmemacher ist der Wechsel der Perspektive und die
Veränderung des Abstandes vom Objekt unabdingbar. Die Filmmusik
hat dem Rechnung getragen. Wir profitieren davon, da wir die
Technologie der Mehrkanaligkeit für unsere Zwecke einsetzen
können, um zeitgemäße Musik bzw. akustische Kunst zu
produzieren und zu präsentieren. "Zeitgemäße Musik"
meint hier nicht nur Klangproduktionen, die unter Verwendung der
neuesten Technologien entstanden sind, sondern diejenigen, die ein
Abbild unserer komplexen, oft verwirrenden Welt sind.
Quellen:
[1] Hubert Henle: Das Tonstudio Handbuch, Carstensen Verlag,
4. Aufl., 1998
[2] Freiburger Kulturkalender der “Badischen Zeitung” von 6. / 7. April
1991
[3] Boris Goesl: Mehrkanaltechnik,
Besondere Anforderungen und kunstlerische Konsequenzen, Referat vom
22.01.2004,
[4] Boris Goesl, a. a. O.
[5] www.quadro-action.de
[6] ZeM-Heft 10, 1993, S. 6
[7] www.soundart-koeln.de/raumklaenge.php
[8] Boris Goesl, a. a. O.
[9] Boris Goesl, a. a. O.
↑
Astyanax Retriever
Klappentexte
Marshall McLuhan ... Global
Village ... Understanding Media ... Klangarchitekt Andres Bosshard mit
Telefonia ... räumlich disloziertes ... Bill Fontana der Donau ...
Radiowellen gar bis zum Mond ... dass fünf der aktivsten Musiker
der jungen, experimentellen Berliner Elektronik-Szene mit ihrem Projekt
4rooms ... barocken Wandelkonzerten ...polnischen Komponisten Zygmunt
Krauze ... Prunksälen des Barockschlosses Eggenberg ...
ursprünglich rein instrumentalen Klänge auf ihren
elektronischen Geräten live transformiert ... des Filmtitels von
Wim Wenders ... analoge Klangwandler, die weit "fleischiger" klingen
als die digitalen ... innere Identität ...befindlichen auch dort,
in den trauten vier Wänden der Hörer, wieder die ... dieser
Dialektik von nah und fern ... Kommunikationswissenschaftler
Vilém Flusser so genannten "Techno-Codes" gravierend ... Der
amerikanische Regisseur Peter Sellars hat diesen Sachverhalt der
verfremdenden "Bilderflut" ... elektronische Mittel eine Klangquelle so
manipuliert werden kann, dass zwar noch eine Nähe ... Einzig durch
die physische Präsenz des Instrumentalduos ... kann der
Zuhörer die Manipulationen als solche entlarven ...
Der Schutzumschlag eines Buches enthält oft sogenannte
Klappentexte, die den Inhalt umschreiben und vielleicht noch
werbewirksam die Schlagzeile einer positiven Rezension bringen: "Irre,
witzig und spritzig, Berliner Mittagspost". So etwas ähnliches
gibt es auch in der Musik, besonders der "Neuen Musik". Zur Probe stand
kursiv am Anfang einiges an solchem Schrifttum, beispielsweise der
elektronischen Performances in Donaueschingen 2004, Datum und Ort ist
hier absolut belanglos, in Form einer beliebigen Anreihung. Wer oder
was wurde hier nicht alles heranzitiert? Und was hat dies alles mit den
recht einfachen Klängen zu tun, die dargeboten wurden? Diese
Performance handelte von der Tatsache, daß Begriffe wie Nähe
und Entfernung, Original und Kopie seit der Einführung der
Elektroakustik in der Breite um etwa 1930 unklar, oder zumindest
relativiert worden sind, das war die dürre Aussage. Ich erinnere
hier an den Bericht [1], der einen Eindruck vermittelte. Wer die
klassischen Werke der frühen E. M. kennt, kann über diese
Diskrepanz zwischen magerer Akustik und aufwendiger Schrift nur den
Kopf schütteln. Dabei waren diese Texte noch vergleichsweise nah
am Gehörten. Was ich über die in [1] geschilderten vier
Orchesterstücke zu lesen bekam, hatte mit dem akustischen Ergebnis
noch viel weniger zu tun.
Ich schrieb hier einmal vom "Programmhefttrick" [2]. Ein Text,
mit möglichst gewichtig klingenden Zitaten, Anspielungen und
bekannten Namen, oder einem aktuellen Aufhänger, vielleicht
politisch oder skandalös, besser noch beidem, aber möglichst
wenig akustisch Nachvollziehbarem soll das an Impuls nachliefern, was
dem Werk selbst faktisch oder vermeintlich fehlt. Komponisten
früherer Zeiten fanden solche Rechtfertigungen nicht nötig.
Sie haben es so gemacht, wie sie es für richtig hielten. Man hatte
keine Zeit für seitenlanges Schrifttum, denn die nächste
Komposition mußte bearbeitet werden. Es gibt freilich tonnenweise
interpretierende "Sekundärliteratur" mit z. T. grotesken
Deduktionen. Hatte der Meister vielleicht genau beim Schreiben dieser
Stelle Bauchweh, oder schnäuzte er gar in sein Taschentuch? Wir
werden es nie wissen und es interessiert eigentlich auch niemanden. Mit
diesem Wortschwall wird die Musik beschädigt, denn das
Hörbare, das psychoakustische Erlebnis wird zur Nebensache
degradiert.
Man kann nach dem Warum dieses Treibens fragen. Woher kommt
das? In der Frühzeit der E. M. waren schriftliche Aufzeichnungen
zur Komposition zweifelsohne unabdingbar, da selbst einfache
Herstellungsprozesse Wochen in Anspruch nahmen und genaueste Planung
erforderten, was das Kurzzeitgedächtnis eindeutig
überforderte. Heute ist das aber nicht mehr so, es gibt den Befehl
"UNDO". Seit Marcel Duchamps Pissoir "Fountain" und Kurt Schwitters
"objet trouvé" ist aber der Unterschied zwischen Kunst und
Nicht-
Kunst noch sehr viel schwieriger zu definieren, als schon zuvor.
Künstler sind daher versucht, Angriffen auf ihr Werk schon im
Voraus durch pseudowissenschaftliche oder pseudopoetische Schriften zu
begegnen: "Seht her, ich habe mir tiefe Gedanken gemacht, daher ist es
erwiesenermaßen Kunst". Herbert Eimert vollzog wohl auch aus
diesem Grund die Abkehr von "freier Klanggestaltung" und
begrüßte den Serialismus als Legitimation des eigenen
Schaffens, man sah die Gefahr des Abgleitens ins "Chaos", in die
"Minderwertigkeit", in eine "Position ohne theoretischen Grund unter
den Füßen" (1953). Dieses Verlangen nach "Legitimation" ist
sicher auch durch die z. T. vernichtenden Kritiken an der frühen
E. M. bedingt [3].
Wer sich das typische Einreicheformular zu
Kompositionswettbewerben ansieht, stellt fest, daß hier vor allem
vier Punkte interessieren: der Name des Kompositionslehrers,
Studienfach, Notation und möglichst umfangreiches Schrifttum zum
Werk. Dabei müßte doch zuallererst der eingeschickte
Tonträger interessieren, bzw. sein Inhalt. Hören, liebe
Juroren, mühsames, anstrengendes Hören ist angesagt, Stille
und nicht Rascheln mit Papieren, während das Stück
läuft, Vorspiel hinter schwarzem Vorhang. Weitere Informationen
braucht man allenfalls, um die Gelehrsamkeit des Kandidaten zu
prüfen, mit besonderer Berücksichtigung der richtigen
akademischen Glaubensrichtung, damit nur ja nichts Unerhörtes
aufkommt und damit die Frage "ist das Kunst?" formal gelöst wird -
selbst mit richtigem Stammbaum und Vorturner kann man da nicht
absolut sicher sein. Wirtschaftliche Aspekte spielen dabei auch eine
Rolle. Man kann nicht von Elektronischer Musik allein leben.
Stipendien, Aufträge und nicht zuletzt Positionen mit Salär
sind lebenswichtig. Das bestehende System hält den Kreis der
Teilnehmer klein, eine Gilde regelt die Verteilung des Wenigen an
Wenige, es sei ihnen gegönnt.
Es gibt Ausnahmen, ein Kompositionswettbewerb hat
unlängst die Angabe von jeglicher Information außer einem
Zuordnungscode auf dem neutralen Tonträgerumschlag bei Strafe der
Disqualifikation verboten. Diese Vorgehensweise ist sehr
gefährlich. Man stelle sich vor: ein völlig Unbekannter, am
besten noch ohne jede konventionelle formale Ausbildung, hätte
das beste elektronische Stück eingesandt und bekannte Musiker mit
bekannten Ausbildern aus bekannten Einrichtungen auf die Plätze
verwiesen. Das ist durchaus möglich, denn die herkömmliche
Ausbildung ist für Elektronische Musik etwa so nützlich wie
das sprichwörtliche Fahrrad für den Fisch. Für
interessante Klänge sind eher die Ergebnisse der
Nachrichtentechnik von Interesse als die klassische Theorie des
Tonsatzes. Jene theoretischen Aussagen, mit ganz anderem Hintergrund
und Zweck, müssen allerdings für die Praxis der
Elektronischen Musik erst nutzbar gemacht werden. Ein Mensch muß
daher lange Zeit alleine vor dem Gerät oder dem Programm sitzen,
sich immer wieder damit beschäftigen, also (lebens)langes Lernen
durch häufiges eigenes Tun, um die Aufgabe zu meistern. Das ist
eine selbstverständliche Forderung aus der Komplexität der
Sache. Diese Erkundung des Gebietes geht deshalb am besten in Ruhe zu
Hause, mit der eigenen Ausrüstung zu jeder gewünschten
Tageszeit. In Vorlesungen, Seminaren, Übungen oder Stipendien in
bekannten Studios kann dies nicht oder nur oberflächlich
stattfinden, es steht zu wenig Zeit für den einzelnen zur
Verfügung. Die Oberaufsicht durch den Meister nützt dann
nichts, weil seine Ratschläge abstrakte Theorie bleiben.
Es wäre für die Musik selbst sehr vorteilhaft, wenn
die Auswahl bzgl. des Absenders zufälligen Charakter hätte.
Denn wie viele Werke von Rang bringt ein Komponist für E. M. im
Laufe seines Lebens bei bestem Bemühen zu Stande? Und wieviel
weniger davon wird die Zeit überdauern? Die Selbstähnlichkeit,
bis hin zum direkten Zitat und gar zum Plagiat, in Werken bekannter
und weniger bekannter Komponisten ist systembedingt schon immer da
gewesen. Bei E. M., die doch den Aspekt der echten Neuheit
programmatisch enthält, stellt sich dieses Problem in noch
schärferer Form. Am Ende bleibt es nach jahrzehntelanger Arbeit an
der Sache bei vielleicht fünfzig Versuchen und fünf
Stücken von bleibendem Wert.
Zu Beginn der E. M. vor 50 Jahren war dies so, weil
die technischen Beschränkungen sehr bald Selbstähnliches
hervorbrachten. Man kann in dieser Zeit durchaus vom "Studioklang"
sprechen. Das WDR-Studio in Köln klang anders als das Siemens-Studio in
München, bis hin zum Hallraum. Heute sind Verfahren immerhin
erahnbar, die die Komplexität elektronischer Klangerzeugung in
eine ganz neue Größenordnung bringen, die das bisherige
trivial erscheinen läßt. Dann wird die Technik nicht
länger die beschränkende Komponente sein, sondern die
notwendige Personalunion von Komponist und Techniker, der Mensch
selbst wird noch stärker als schon jetzt seine individuellen
Grenzen erfahren. Dies sind die Grenzen der Beherrschung der Methode,
aber auch des Einfallsreichtums und vor allem der Gesamtschau auf die
Zusammenhänge der Verfahren. Durch Probieren allein ist schon
heute nichts Originelles mehr zu gewinnen, man muß schon in
vollem Bewußtsein die ausgetretenen Pfade verlassen. Auch dies
ist ein Grund für eine möglichst breite Basis bei der Suche
nach gelungener E. M.
Es ist die Natur der Musik als transitorischer Kunst selbst
ein Problem für das geschriebene Wort. Texte, die in Minuten,
Stunden und Tagen entstehen, sollen Klangereignisse widerspiegeln, die
Sekundenbruchteile andauern, und auch nicht, zumindest in der
Konzertsituation, wiederholt werden. Diese Unsagbarkeit des
Phänomens Klang wird bereits in [4] gewürdigt. Das Zentrum
der Sache ist textueller Beschreibung schwer zugänglich, obwohl
solche Beschreibung nicht völlig unmöglich ist, also wird
auf Randbereiche ausgewichen. Texte zur Komposition können
eventuell nützlich sein, aber nur, wenn der Bezug konkret ist und
akustisch auch so nachvollzogen werden kann. Ansonsten beschränke
man sich auf die Fakten der Realisation, das "wie ist es gemacht?".
Dies ist eine Position des musikalischen Positivismus oder Empirismus,
allein aus der psychoakustischen Erfahrung können wir etwas
über Musik erfahren, Ideen sind nur Begleitumstand.
Quellen:
[1] Peter Kiethe, ZeM-Heft 25, Bericht aus Donaueschingen 2004
[2] Rettbehr Meier, ZeM-Heft 23, Blick über den Zaun
[3] Marietta Morawska-Büngeler, Schwingende Elektronen, ...
Elektronische Musik ... des Westdeutschen Rundfunks ... 1951-1986,
Tonger MUSIKVERLAG 1988
[4] Klaus Weinhold, ZeM-Heft 26, Beschreibung des Unbeschreibbaren
↑
Klaus Weinhold
Beschreibung des
Unbeschreibbaren
Seit Jahren veranstalten wir, ZeM Freiburg, die "Klingende Steinhalle".
Manch einer mag sich gefragt haben, was dies sei und soll. Der
Untertitel "Elektronische Soundperformance" lässt viele Fragen,
nach dem, was es sei, offen. Fragen dieser Art stehen im krassen
Gegensatz zu solchen über klassische Konzerte, für die
für jeden Teilbereich und für das Ganze eindeutig klare
Muster zur Gestaltung und vor allem zur sprachlichen "Besprechung" und
"Beschreibung" zur Verfügung stehen. Konzerte dieser Art beginnen
mit einer beschreibenden Vorschau und enden nach der eigentlichen
"Aufführung" mit Kritiken in Tageszeitungen und Fachzeitschriften,
mit beschreibenden Beurteilungen. In der Vorschau werden
"Ausführende" angekündigt, meist bekannte Namen, Werke werden
beschreibend angekündigt und der Leser weiß Bescheid, kann
alles im Rahmen bestehenden Bildungswissens und nach eigener Erinnerung
an Vorangegangenes einordnen. Etwa Beethovens "Fünfte", diesmal im
Konzerthaus mit einem neuen Stardirigenten und einer
außergewöhnlichen Interpretation. Die nachfolgende Kritik
beschreibt die Leistung der Ausführenden und lobt die
Besonderheiten der Interpretation. Eine geschlossene Abfolge mit hohem
Bekanntheitsgrad und Erinnerungswert ist damit erfüllt.
Eine entscheidende Frage bleibt jedoch: Was ist in solchen
Fällen beschreibbar und beschrieben worden? Es sind dies
Leistungen, Namen, Orte, Zeiten, Konzertsäle. Ist jedoch das
Eigentliche, das erklungene Objekt, sind die Töne, die
Klangfarben, die Instrumente beschreibbar und damit beschrieben worden?
Oder ist dieses sinnliche Klangerlebnis nur zu verstehen, indem es sich
einer Beschreibung und damit einem Feststellen und Festhalten
ständig entzieht? Ist das nur Hörbare und offenbar nicht
Begreifbare in begrifflichen Worten fassbar? Die Antwort muss lauten:
Nein! Beschreibbar sind vordergründig konstituierende Elemente,
Superstrukturen, Themen, Entwicklungen, Bewegungen,
Gesichtsausdrücke, ja sogar "Tränen in den Augen". Aber das
Zentrale, der Klang, entschwebt einer Beschreibung, er ist nur
"realtime" vorhanden und entzieht sich allem außer einer im
Moment wahrzunehmenden sinnlichen Erhörung. Die beschreibenden
Begriffe stellen fest, bleiben, sind nachvollziehbar, der Klang
entzieht sich, unstetig, ständig entschwebend.
Was ist nun an der "Klingenden Steinhalle" diesbezüglich
beschreib- und begreifbar? Immer wieder wird dem Versuch, dieser
Forderung zu genügen, nachgegangen. Beschreibbar und
erklärbar sind auch hier nur gewisse Äußerlichkeiten,
z. B. die zur Verfügung stehenden technischen Geräte, die
eine Reproduktion des Unbeschreiblichen ermöglichen. Die
Reproduktionsgeräte können mit einem einsehbaren und
nachvollziehbaren "Notentext" verglichen werden. Dieser kann vom Blatt
gespielt werden, auswendig gelernt werden und erlaubt damit
vordergründige Einblicke in das zugrunde liegende klingende
System, das sich wiederum einer Beschreibung entzieht. In der
Elektronischen Musik sind nun Notenschrift und damit die
Beschreibbarkeit, jedoch nicht eine gewisse Form der Erklärbarkeit
völlig verschwunden. Zurück bleibt der erklärende
Hinweis auf die Medien, die eine technische Herstellung der Klänge
ermöglichen, die doch recht unangemessene Beschreibbarkeit der
Möglichkeiten, diese technischen Elemente der Klangerzeugung
zusammenzusetzen und damit so etwas wie Komposition zu erstellen. Die
Begreifbarkeit und Beschreibbarkeit technischer Geräte zur
Produktion sind so etwas wie eine neue Kompositionslehre dieser
Technik.
Es bleibt die Frage nach der Beschreibbarkeit der
hörbaren Ergebnisse: Es klingt in der Steinhalle, der Klang
entschwebt Lautsprechern und Computern und verflüchtigt sich,
verwischt sich, summiert sich, lässt sich nicht lokalisieren, um
schließlich unwiederholbar zu entschweben. Hinweise auf
Lautsprecher oder Lautstärken sind als Erklärungsmodelle
völlig unzureichend. Wie es klang, ist nur im Hören zu
erleben, akustisch sinnlich wahrzunehmen und damit mitvollziehbar. Auch
die Frage des "schön oder hässlich" entzieht sich einer
Beschreibung nach klassischen, geschichtlichen Kriterien. Die
traditionelle klassische Musikästhetik hat den Versuch gemacht,
das Musiksystem und die daraus resultierenden Produkte erklärend
mit Worten zu beschreiben und damit sprachlich zu erfassen. Der
begrenzte Umfang der traditionellen Parameter hat dies ohne Probleme
und Einschränkungen erlaubt. Für die Elektronische Musik und
damit auch für die Soundperformance "Klingende Steinhalle" gilt
dies nicht mehr. Diese sind nicht beschreibbar, kaum erklärbar,
sondern nur erhörbar und sprachlos sinnlich wahrnehmbar.
↑
Perper Weyren-Meler
Die Faltung
Ich habe vor einigen Jahren eine Programmgruppe zur Berechnung und
Anwendung der sogenannten Faltung geschrieben, eine Übung in der
Programmiersprache C, denn so etwas gibt schon seit mehr als 30 Jahren,
und in manchen Kompositionen auch angewendet. Es lassen sich damit sehr
interessante Ergebnisse erzielen. Dabei handelt es sich um eine sehr
verallgemeinerte Operation, die psychoakustischen Auswirkungen sind
daher vielfältig. Das Verfahren ist im zeitdiskreten Bereich recht
einfach zu verstehen, es lohnt sich allerdings eine Gesamtschau, die
die Zusammenhänge offenlegt. Der Ausgangspunkt ist die Theorie der
linearen, zeitinvarianten Systeme (LZS). Ein System sei hier ein Kasten
mit einem Eingang und einem Ausgang. Man gibt ein Signal hinein
(Eingangssignal, e(t)), z. B.
weißes Rauschen, dies wird im Kasten irgendwie verändert und
erscheint dann so verändert am Ausgang (Ausgangssignal, a(t)).
Der Begriff Zeitinvarianz ist einfach zu verstehen: das System
soll seine Eigenschaften zeitlich nicht ändern. Z. B. ist ein
Festfilter als bestimmendes Element im Kasten zeitinvariant und das
Rauschen klingt damit am Ausgang immer gleich, solange ich nicht an den
Knöpfen drehe und auch kein Defekt vorliegt. Anders gesehen: egal
wann ich ein festgelegtes Eingangssignal anlege, am Ausgang erscheint
immer das selbe Ausgangssignal, eben nur entsprechend zeitverschoben.
Es gibt so etwas wie Laufzeit im Kasten, aber sie ist konstant. Wenn a(t) aus e(t) folgt, so a(t-d) aus e(t-d). Mit der Linearität ist
es nur etwas schwieriger. Es gibt sie einerseits als
Verstärkungslinearität. Verstärkt man e(t) mit dem Faktor v, so kommt auch a(t) um v verstärkt heraus. Es
passiert nichts überraschendes, stärkerer Eingang ergibt
stärkeren Ausgang. Die andere Variante ist die
Überlagerungslinearität: ist a(t) die Systemantwort auf e(t) und b(t) die Antwort auf f(t), so passiert nichts
Aufregendes, wenn man am Eingang die Summe e(t)+ f(t) anlegt, man erhält
einfach a(t) + b(t) (s. Abb.).
Konkrete Beispiele für LZS sind Lautsprecher,
Verstärker, Mikrophone, Filter, Mischpulte, Hallgeräte,
Aufzeichnungsmaschinen, usw. Zeitinvarianz bedeutet, daß
dieselben Lautsprecher, Mikrophone, usw. jetzt genauso klingen, wie vor
fünf Minuten oder gestern, wenn sich niemand daran zu schaffen
macht. Mit der Linearität ist es schwieriger: Lautsprecher sind
ziemlich nichtlinear, Analog-
Digital-Wandler dagegen sind heute sehr linear. Linearität ist zur
Wiedergabe erforderlich, ansonsten werden aus Sinustönen
Klänge, aber aus Zusammenklängen wird meist nur Klangbrei.
Die allgemeine Nutzbarkeit von Geräten oder Vorrichtungen für
Audio erfordert daher eine möglichst gute Annäherung an LZS.
Es gibt natürlich Ausnahmen: das Leslie-Kabinet mit seinem
Röhrenverstärker und den schnell rotierenden Lautsprechern
ist weder linear, noch zeitinvariant.
Es lassen sich weitreichende Folgerungen für das
Verhalten der LZS ableiten. Wie hängt e(t) und a(t) allgemein zusammen? Dazu
machen wir ein Gedankenexperiment. Am Eingang legen wir nacheinander
eine Reihe von Pulsen an, zeitlich immer schmaler werdend. Damit die
Systemantwort nicht verschwindend klein wird, müssen wir die
Pulsenergie konstant halten, das ist die Fläche unter der
Pulskurve. Den Ausgang beobachten wir mit dem Oszilloskop. Ist der Puls
genügend schmal, so wird sich die Ausgangsfunktion nicht mehr
ändern. Diese ist für das LZS charakteristisch, man nennt sie
Systemimpulsantwort, oder kurz: Impulsantwort (s. Abb.) wir wollen sie
mit g(t) bezeichnen.
Die Impulsantwort erlaubt die Berechnung beliebiger
Ein/Ausgangssignalpaare mittels der Operation der Faltung (°): a(t) = e(t) ° g(t), bzw. a(t) = g(t) ° e(t) (die Faltung
ist also kommutativ). Ein LZS ist bezüglich Eingang und Ausgang
vollständig durch die Impulsantwort bestimmt. Durch
äußeres Messen der Impulsantwort kann man die Charakteristik
eines LZS abschöpfen, ohne jede Kenntnis des Inneren.
Wie funktioniert die Operation der Faltung? Im diskreten
("digitalen") Bereich ist die Erklärung relativ einfach: das
Eingangssignal ist eine Folge von Zahlen, die per Schieberegister an
einer anderen Folge von Zahlen (der Impulsantwort) vorbeigeschoben
wird, wobei bei jedem Schiebetakt die Zahlenpaare aus Signal und
Impulsantwort miteinander multipliziert und die Produkte aufsummiert
werden.
Die Impulsantwort (s. Abb.) sei: 1, 2.1, -0.2, 3, 4, 5.
Unser Signal sei: -3.0, 1.0, -3.3, 4.5, ... .
Nun wird das Signal an der Impulsantwort vorbeigeschoben, bei jedem
Takt wird multipliziert und summiert.
Der erste Ausgangswert ist -3.0 × 1= -3,
der zweite 1.0*× 1+ -3.0*× 2.1=-5.3,
der dritte -3.0 × -0.2 + 1.0 × 2.1 + -3.3 × 1 = -0.6
usw.
Aus diesem Algorithmus kann man auch die Beweisidee für die
Allgemeingültigkeit der Faltungsoperation erkennen: ein
Einheitsimpuls ist die Folge 1, 0, 0, 0, ... . Wenn man so einen Impuls
durch das Schieberegister schiebt, wird nacheinander nur ein Produkt
"aktiviert", alle anderen Produkte sind Null. Dadurch wird exakt die
Impulsantwort ausgegeben. Beliebige Signale können als
Überlagerungen von verzögerten Einheitsimpulsen konstruiert
werden (Ausnutzung der Zeitinvarianz), die jeweils mit dem
darzustellenden Abtastwert skaliert werden (Ausnutzung der
Linearität).
Dies war die Betrachtung im Zeitbereich, das Bild wird aber
erst komplett mit der Ansicht im Frequenzbereich. Zunächst stellt
man fest, daß sinusförmige Signale Eigenfunktionen der LZS
sind, also nicht wesentlich verändert werden. Dazu kann man
folgendes Experiment machen: ein Sinusgenerator wird am Eingang des LZS
angeschlossen. Nach Abklingen der Einschwingvorgänge (das ist
wichtig) beobachtet man am Ausgang wieder ein sinusförmiges Signal
mit unveränderter Frequenz, aber i. a. mit veränderter Phase
und Amplitude. Verallgemeinerte sinusförmige Signale führen
zur Laplace-Transformation und als deren Spezialfall zur
Fourier-Transformation. Jedes Signal x(t)
im Zeitbereich läßt sich demnach als Integral über
unendlich viele, frequenzmäßig beliebig dicht beieinander liegende, sinusförmige Komponenten darstellen. Die
Transformationen ordnen dabei jedem x(t)
eine Funktion X(s) (der
verallgemeinerten Frequenz s)
zu, die für jedes s die
Amplitude und Phase der sinusförmigen Komponente definiert. X(s) nennt man deshalb auch
Spektrum in Anlehnung an die Zerlegung von weißem Licht in seine
Bestandteile, X(s) kann man
zusammen mit der Transformation als Zerlegungsvorschrift auffassen.
Die genannten Transformationen überführen vom
Zeitbereich in den Frequenzbereich und umgekehrt. Diese Dualität
hält sehr interessante Einsichten bereit. Z. B. wird die im
Zeitbereich aufwendige Faltung a(t)
= e(t) ° g(t) im Frequenzbereich zu einer Multiplikation der
Spektren: A(s) = E(s) • G(s).
Umgekehrt wird die Multiplikation ("Ringmodulation") a(t) = e(t) • g(t) im Zeitbereich
zu einer Faltung der Spektren im Frequenzbereich A(s) = E(s) ° G(s).
Jede der beiden Sichtweisen ist vollständig: das LZS ist
sowohl durch die Impulsantwort g(t)
als auch deren Spektrum G(s)
eindeutig definiert, G(s)
nennt man deshalb auch Übertragungsfunktion des LZS. Wir kommen
somit zu folgendem Schaubild:
In der Praxis treten nun drei Probleme auf: zum einen wird die
Messung der Impulsantwort mit sehr schmalen Pulsen großer
Amplitude zu Übersteuerungen und damit zu Verzerrungen
führen. Reduziert man aber die Amplitude, so geht das
Ausgangssignal im Rauschen unter. Statt eines einzelnen Pulses benutzt
man daher eine lange, zyklische Folge von Impulsen mit zufälliger
Gewichtung, dies entspricht spektral flachem Rauschen. Das
Ausgangssignal muß dann durch ein spezielles Verfahren im
Frequenzbereich zur Impulsantwort aufbereitet werden.
Ein zweites Problem ist der Rechenaufwand. In der Praxis kann
die Impulsantwort durchaus eine Million Abtastwerte haben (z. B. die
lange Hallfahne eines großen Raumes), 10 Minuten Eingangssignal
hat um die 26 Millionen Abtastwerte. Für jeden Eingangsabtastwert
sind ca. eine Million Multiplikationen und Additionen notwendig,
insgesamt haben wir 2.6*1013 Multiplikationen und Additionen
auszuführen. Diese Berechnung dauert auf einem sehr schnellen
Rechner mehr als 7 Stunden, für nur etwas mehr als 10 Minuten
Audio! Mit einigem mathematischen Aufwand (Transformation in den
Frequenzbereich, Überlapp-Addition, Rücktransformation)
läßt sich aber eine enorme Beschleunigung der Rechnung
erreichen, aus Stunden werden wenige Minuten. Diese sog. "Schnelle
Faltung" braucht meist weniger Zeit als das Abspielen des
Eingangssignals selbst.
Ein drittes Problem ist der dynamische Bereich des
Ausgangssignals. Er ist extrem abhängig vom Eingang und damit
nicht gut vorhersagbar. Sind Impulsantwort und Eingangssignal kurz und
spektral verschieden, so sind die Ausgangsabtastwerte sehr klein. Sind
Impulsantwort und Eingangssignal identisch und lang, so erhält man
extrem große Werte. Die Berechnung erfolgt deshalb besser nicht
in Echtzeit (digitale Übersteuerungen). Es wird zuerst ein
hochgenaues Zwischenergebnis gerechnet (eine Auflösung von 32 Bit
ist dabei keineswegs ein Luxus, sondern notwendig), gespeichert und
nachher richtig normalisiert auf das bevorzugte 16- oder 24-Bit Format
konvertiert.
Was kann man nun mit der Faltung und der Theorie der LZS
anstellen? Z. B. kann man die Charakteristik von Räumen ermitteln.
Man stellt dazu einen Meßlautsprecher und ein Meßmikrophon
auf. Dann wird zyklisches Rauschen (etwa 2 Minuten) abgespielt und
wieder aufgenommen, der Rechner ermittelt daraus die Raumimpulsantwort.
Schon diese allein erinnert sehr an die Verhältnisse im Raum, sie
klingt wie ein "Pistolenschuß" in genau dieser Situation. Faltet
man nun beliebige Signale mit dieser Impulsantwort, so klingt das
Ergebnis genau wie das Abspielen des Signales über diesen
Lautsprecher in besagtem Raum mit der Hörposition an der Stelle
des Mikrophones. Man kann verschiedene Positionen für Lautsprecher
und Mikrophon ausprobieren (es kommt gar nicht so sehr auf ein
besonderes System dabei an, denn die Rückwurfmuster der
Schallwellen sind in einem gewissen Sinn chaotisch) und erhält
eine Menge von Impulsantworten, die sich speichern, vielleicht
verschönern und später wieder benutzen lassen, auch wenn der
Raum dann gar nicht mehr existiert oder nicht mehr zugänglich ist.
Früher wurden Hallräume zur natürlichen Verhallung
benutzt, mit der Faltung wird dieser Klangreichtum wieder möglich,
ohne jedoch die Nachteile der natürlichen Verhallung in Kauf
nehmen zu müssen (Lärmbelästigung, Nebengeräusche,
Kosten, mangelnde Flexibilität). Es spricht nichts dagegen, die
Akustik einer kleinen Kammer, eines Schachtes, eines Waldes oder einer
Wiese einzufangen. Man kann auch die Charakteristik bestimmter
Lautsprecher oder Mikrophone einfangen, oder Kombinationen daraus. Auch
die Aufnahme von mechanisch-akustischen Resonatoren, wie z. B.
Stahlröhren, Wasserleitungen, Klavieren mit gehaltenem Pedal usw.
ist nach Anbringen geeigneter Wandler möglich.
Selbstverständlich läßt sich direkt
elektronisch die Impulsantwort jedes Hallgerätes messen, sei es
nun "digital", oder ein Federhall oder eine Hallplatte. Durch eine
lange Messung werden alle Störungen ausgemittelt, man bekommt das,
was der Konstrukteur des Gerätes eigentlich wollte, aber wegen
technologischer Grenzen nie ganz erreichte. Jede Art von elektrischem
Übertragungsapparat kann gemessen und nachgebildet werden.
Die Anwendung auf nichtlineare Systeme kann die spektrale
Charakteristik eines eventuell vorhandenen linearen Anteils erbringen.
Bei zeitvariablen Systemen erhält man das spektrale zeitliche
Mittel. Da jedoch die Korrelation zwischen Eingang und Ausgang in
beiden Fällen nicht mehr vollständig hergestellt werden kann,
so werden die Ergebnisse i. a. stark verrauscht sein.
Es gibt mehr als Systemidentifikation und Nachbildung. Man
kann insbesondere die Theorie der FIR- oder IIR-Filter nutzen, um z. B.
Filter mit sehr steilen Flanken und/oder starker Resonanz zu erzeugen,
d. h. die i. a. recht lange Impulsantwort wird dann aus theoretischen
Erwägungen exakt errechnet. Einfachen (billigen) elektronischen
Filtern mangelt es in den meisten Fällen an dieser Prägnanz
im Zeitbereich. Aus dieser Sicht repräsentiert eine Impulsantwort
von z. B. 10000 Abtastwerten ein Filter mit 10000 Koeffizienten. Dies
läßt die Vielzahl der Möglichkeiten erahnen.
Schließlich steht nichts der Methode entgegen, die
Faltung einfach als einen schwarzen Kasten mit zwei Eingängen (die
Impulsantwort und das bisher so genannte "Eingangssignal") zu
betrachten, woraus am Ausgang ein neues Klangereignis entsteht. Man
kann beliebige Signale miteinander falten und sich am Ergebnis freuen,
warum nicht zweimal das selbe Signal hineinstecken? So kann man
durchaus einen ganzen Winter mit Klangkreation ohne Langeweile
verbringen.
Wie klingt das? Das hängt von der Impulsantwort ab. Ist
sie kurz, unterhalb der Schwelle, wo Ereignisse psychoakustisch
zeitlich separiert werden können (etwa 50 ms), so kann man das
Ergebnis als "Filterung" im allerweitesten Sinne beschreiben. Wir
können das als psychoakustische Erfahrung im Frequenzbereich
interpretieren. Jeder beliebige Frequenzgang kann dargestellt werden,
nicht nur der sattsam bekannte Tiefpaß, Hochpaß oder
Bandpaß, sondern auch ganz extreme Resonanzerscheinungen,
Mehrfachbänder oder Kerben und Übertragungsfunktionen, die an
zerklüftete Bergrücken erinnern. Zu den subtileren
Merkwürdigkeiten gehören Filterflanken mit beliebig geringen
Steilheiten, anstatt der sonst üblichen grob gerasterten 6, 12
oder 24 db/oct.
Hat die Impulsantwort mehrere deutlich ausgeprägte
"Spitzen" in größerem als besagtem Abstand, oder ist sie
einfach in diesem Sinne lang, so kommen zusätzlich Hall- und
Echoerscheinungen hinzu, auch Klänge, wie wir sie von Vocodern
kennen. Es findet eine zeitliche "Verschmierung" statt. Wir können
das als psychoakustische Erfahrung zugleich im Frequenz- und
Zeitbereich interpretieren. Mit Rauschen als Impulsantwort bekommt man
künstliche Hallfahnen, die natürlich oder extrem seltsam
klingen können. Ebenso eigenartig klingen Echos, die durch
Zeichnen von mehrfachen Impulsen in verschiedenen Abständen jeder
Physik und Akustik spotten.
Das Ähnliche zweier Eingangssignale wird betont, die
Unterschiede werden abgeschwächt. Die Auffassung der Faltung als
Multiplikation der Spektren im Frequenzbereich erklärt dies:
schwach ausgeprägte Bereiche der Eingangsspektren (Nullstellen)
übertragen sich sofort auf den Ausgang, Resonanzen (Polstellen)
nur dann, wenn sie beiden Eingangssignalen "gemeinsam" sind und nicht
eine Polstelle auf der einen Seite eine Nullstelle auf der anderen
Seite kompensiert. Die Verstärkung von Ähnlichkeiten macht u.
U. eine Frequenzgangskorrektur notwendig, damit die natürliche
Tiefpaßcharakteristik von mechanisch-akustischen Vorgängen
nicht zu stark betont wird.
Die Operation der Faltung stellt einen bemerkenswerten
Sonderfall dar. Ich habe es in immerhin 26 Jahren der
Beschäftigung mit elektronischer Klangerzeugung und
Klangumwandlung noch nie erlebt, daß ein - wenigstens im Prinzip
- so simpler Algorithmus eine derartige Klangfülle und einen
derart weitgehenden Anwendungsbereich eröffnet und realistische
Imitation nahtlos mit völliger Neuschöpfung vereint. Dies ist
wohl deshalb möglich, weil die Faltung einen fundamentalen
Zusammenhang darstellt und ohne weiteres sowohl im Zeit- als auch im
Frequenzbereich Aktivität hervorbringt. Der als einziger
Konkurrent in Betracht kommende Algorithmus der verallgemeinerten
Phasenmodulation ist in dieser Hinsicht als nachrangig zu bezeichnen.
↑
Rückseite
|