pix
obl obr



ZeM Mitteilungsheft Nr. 26 - 2005

Redaktion: Rettbehr Meier

 


 

Editorial

Musik und Texte. In Stein gemeißelt, sichtbar und tastbar, langlebig. Auf der anderen Seite nur momentan hörbares, flüchtiges. Wir wissen viel über die Bauten, aber fast nichts über die Musik vergangener Zeiten. Archäologie ist Geisteswissenschaft. Wie aber hat Musik damals geklungen? Wir leben (noch) in einer Kultur der Schrift. Boshaft: es wird falsch abgeschrieben, was andere schon falsch aufgeschrieben haben.

Das erste Sinnesorgan des Menschen ist immer noch das Auge und nicht das Ohr. Was ist also höher zu schätzen: der Klang oder der interpretierende Text? Das einmalige Ereignis oder die Noten? Warum werden in Schriften über Musik die Randerscheinungen zum Zentrum?

Mephisto: "... Im ganzen haltet Euch an Worte! Dann geht Ihr durch die sichre Pforte zum Tempel der Gewißheit ein."
Schüler: "Doch ein Begriff muß bei dem Worte sein".
Mephisto: "Schon gut! Nur muß man sich nicht allzu ängstlich quälen. Denn eben wo Begriffe fehlen, da stellt ein Wort zur rechten Zeit sich ein. Mit Worten läßt sich trefflich streiten, mit Worten ein System bereiten, an Worte läßt sich trefflich glauben, von einem Wort läßt sich kein Jota rauben ...".

Ein weiteres Mitteilungsheft über E. M. liegt hiermit vor. Es wird in drei Artikeln beschrieben, wie E. M. gemacht wird. Zwei andere haben den Gegensatz von Schrift und Klang zum Inhalt. Nicht die Randerscheinung, der fernliegende Berührungspunkt mit Gedanken anderer, sondern das Zentrale selbst ist immer wieder Gegenstand der Erörterung. Und das Zentrale ist der Klang.

Rettbehr Meier, 21. Dezember 2005

 

 


Peter Kiethe

Raumklang und Rotation

Grundsätzliches: Es ist bekannt, dass man die Tonhöhe eines Samples erhöht, indem man das Sample schneller abspielt. Bei alten Vinylscheiben konnte man diesen Effekt erzeugen, indem man die Drehgeschwindigkeit des Plattentellers zu hoch schaltete. Man spricht auch vom Mickey Mouse Effekt oder entsprechend vom Dinosaurier Effekt, wenn die Abspielgeschwindigkeit verringert wird. Ein Problem war lange Zeit, dass bei der Erhöhung der Abspielgeschwindigkeit auch die Länge des Samples verkürzt wurde. Durch schnellere Prozessoren und verbesserte Algorithmen kann man heute durch Pitch Shifting zeitlich gleich lange Aufnahmen erzeugen. Ein interessantes Feature, wenn man natürlicher klingende Samples erzeugen will. Für den elektronischen Musiker, der die Verfremdung und Neugestaltung der akustischen Umwelt zum Ziel hat und nicht die Nachbildung, ist das nicht unbedingt notwendig. Es kann sogar durchaus spannend sein, ein Sample extrem schneller laufen zu lassen. Das Ergebnis klingt nicht immer "schön", aber in jedem Falle unerhört.

Konzeptmusik: Es gibt sehr viele Möglichkeiten, Musik zu komponieren. Ausgehend von musikalischen Experimenten kann ein Kunstwerk entstehen, oder man ordnet sich der Maschine unter und lässt dem Computer gewisse kreative Freiräume zur Erstellung einer Musikstruktur. Sehr verbreitet ist sicher die "romantische" Vorgehensweise. Musikalische Strukturen werden improvisiert - z. B. harmonische Muster - und was gefällt wird notiert. Eine grundsätzlich andere Vorgehensweise ist ein "Konzept". Eine musikalische Idee - z. B. eine formale Struktur - wird theoretisch ausgearbeitet. Nach der Ausarbeitung dieses musikalischen Plans wird dieser praktisch umgesetzt. Man kann nicht vorhersagen, ob die praktische Umsetzung musikalisch interessant klingen wird.

Meiner Meinung nach ist die Kenntnis des Musikkonzepts zum Verständnis der Konzeptmusik von großer Bedeutung. Selbst von geübten Ohren ist der musikalische Plan in der Regel nicht aus der Musik zu erschließen. Erst wenn man den Plan kennt, kann in den Ohren des Zuhörers aus einer Kakophonie Musik werden.

Kompositionskonzept: In meiner Komposition "Raumklang" gehe ich von einem kompositorischen Konzept aus, das wesentlich auf der zuvor erklärten Transposition und der damit verbundenen Verkürzung des Samples aufbaut. Stellen Sie sich dazu vier Fahrzeuge vor, die alle eine Strecke von München nach Hamburg zurücklegen müssen. Das erste Fahrzeug benötigt für die Strecke 10 Stunden, das zweite nur 9 Stunden, das dritte 8 und das vierte 7 Stunden. Die Fahrzeuge fahren jeweils um eine Stunde versetzt von München ab, d. h. durch die unterschiedlichen Geschwindigkeiten kommen alle zur selben Zeit in Hamburg an. Musikalisch umgesetzt bedeutet das: bei einem 35 mal schneller gespielten Sample wird im Verlauf von 12 Minuten kontinuierlich die Abspielgeschwindigkeit verringert, bis es am Ziel die Originalgeschwindigkeit erreicht hat. Alle 3 Minuten, also nach 3, 6 und 9 Minuten, setzen neue Klänge ein, deren Abspielgeschwindigkeit jedoch schneller verringert wird, so dass nach 12 Minuten alle 4 Klänge gleichzeitig die Originalgeschwindigkeit erreicht haben.

Nicht nur die Abspielgeschwindigkeit des Samples wird verändert. Die Komposition ist quadrophon ausgelegt. Jeder der 4 Klänge dreht sich um den Zuhörer. Zu Beginn werden von jedem Klang innerhalb einer Sekunde 200 Drehungen durchlaufen. Die Drehgeschwindigkeit wird ebenfalls kontinuierlich verringert, so dass alle 4 Klänge nach 12 Minuten eine Geschwindigkeit von 0.1 Umdrehungen pro Sekunde erreicht haben.

Historie: Vor einigen Jahren experimentierte ich mit der extremen Transponierung von Samples. Ein Sample glitt innerhalb eines langen Zeitraums kontinuierlich zur Originaltonhöhe. Gleichzeitig drehte sich der Klang im quadrophonen Raum, wobei die Drehgeschwindigkeit kontinuierlich verringert wurde. Das Hörergebnis beeindruckte mich zutiefst. Durch die Änderung der Drehgeschwindigkeit unterliegt das Ohr einer Art akustischer Täuschung. Dieser Effekt ist vergleichbar mit der visuellen Täuschung bei der Kameraaufnahme eines sich drehenden Rades. Durch die Veränderung der Radgeschwindigkeit, scheinen die Speichen plötzlich stehen zu bleiben und sich kurze Zeit später sogar rückwärts zu drehen, um spontan wieder zu beschleunigen. Ähnliches hört man, wenn ein Klang mit sehr hoher Drehgeschwindigkeit allmählich abgebremst wird. Setzt ein zweiter Klang später ein und wird mit erhöhter Geschwindigkeit in seiner Tonhöhe abwärts gefahren, so tritt ein zweiter Effekt ein: Durch die unterschiedliche Geschwindigkeit der beiden Klänge kommt es zu Knotenpunkten, in denen die Frequenz beider Klänge in ganzzahligem Frequenzverhältnis zueinander stehen. Hierbei sind beide Klänge kaum voneinander zu unterscheiden. Diese Zustände sind sehr selten und lösen sich sofort wieder auf. Bei leichten Verstimmungen nimmt man die bekannten Schwebungen war. Die Schwebungen werden zu Raumeindrücken. Dies verstärkt sich mit der Anzahl der nacheinander einsetzenden "Stimmen".

Damals verwarf ich das Projekt, da die technische Umsetzung noch zu unbefriedigend war. So lässt der K2000 nur eine Transposition um 3 Oktaven nach oben zu. Um höher zu transponieren musste diese Transposition gesampelt werden und ihrerseits nach oben verstimmt werden, was natürlich zu erheblichen klanglichen Qualitätsverlusten führte. Außerdem war die Auflösung der Tonhöhe ungenügend. Mit den heutigen Computern ist ein solches musikalisches Konzept kein Problem mehr. Es wurde von mir in Csound zum einem Konzert im Jahr 2004 umgesetzt.

Variationen? Offenes Kunstwerk? Unendliche Komposition? Bei der Umsetzung dieser Konzeptmusik habe ich als Komponist gewisse Vorgaben gemacht. Wieso gerade ein Wortsample? Ebenso kann man einen Flötenton nehmen, ein Musikausschnitt, oder einen ganzen Satz. Wieso gerade eine Länge von 12 Minuten? Wieso ein Einsatz eines neuen Klangs alle 3 Minuten? Und nicht zuletzt: wieso eine Beschränkung auf 4 Stimmen? Mit welcher Geschwindigkeit soll sich der Klang drehen und wie langsam soll er werden?

Das realisierte Stück ist nur eine Möglichkeit aus einer unendlichen Anzahl von Varianten, eine Festsetzung verschiedener Parameter, die mir zur Zeit der Produktion als sinnvoll erschienen. Eine andere Variation, die ich ebenfalls für ein Konzert in 2004 produzierte, geht von 8 Klangeinsätzen aus. Der Klangeinsatz verschiebt sich in seiner Räumlichkeit immer um einen Lautsprecher nach rechts. Alle 39.5 Sekunden beginnt ein neuer Klang. Der Einsatz der Klänge wird im Verlauf einer Drehung eingeblendet. Eine Drehung dauert 4 Sekunden und verändert seine Drehgeschwindigkeit nicht, d. h. am Ende - wenn alle 8 Klänge zu hören sind - ist der quadrophone Raum in 8 gleichgroße Abschnitte unterteilt. Der erste Klang wird auch als erster ausgeblendet. Eine Drehung später wird der zweite Klang ausgeblendet, usw. Allmählich verringert sich am Ende des Stückes die Dichte des Klangraumes.

Für Interessierte:

<CsoundSynthesizer>; Raum (Konkret 1)
<CsOptions>
</CsOptions>

<CsInstruments>
sr = 44100
kr = 4410
ksmps = 10
nchnls = 4

instr 1; raum a
idur = p3
kdreh expon 200, idur, .1
abreit oscil 1, kdreh , 2; stereobreite 10 bis 0.1 drehung pro sekunde
atief oscil 1, kdreh , 3; quadrotiefe
ktranspose expseg 20, 720, 1/1.5, 40, 1/1.5
aout oscil 10000, ktranspose, 1
aout1 = aout*(1-abreit)*(1-atief)
aout2 = aout*(abreit)*(1-atief)
aout3 = aout*(abreit)*(atief)
aout4 = aout*(1-abreit)*(atief)
outq aout1, aout2, aout3, aout4
endin

instr 2; raum b
idur = p3
kdreh expon 200, idur, .1
abreit oscil 1, kdreh , 2; stereobreite 10 bis 0.1 drehung pro sekunde
atief oscil 1, kdreh , 3; quadrotiefe
ktranspose expseg 20, 540, 1/1.5, 40, 1/1.5
aout oscil 10000, ktranspose, 1
aout2 = aout*(1-abreit)*(1-atief)
aout3 = aout*(abreit)*(1-atief)
aout4 = aout*(abreit)*(atief)
aout1 = aout*(1-abreit)*(atief)
outq aout1, aout2, aout3, aout4
endin

instr 3; raum c
idur = p3
kdreh expon 200, idur, .1
abreit oscil 1, kdreh , 2; stereobreite 10 bis 0.1 drehung pro sekunde
atief oscil 1, kdreh , 3; quadrotiefe
ktranspose expseg 20, 360, 1/1.5, 40, 1/1.5
aout oscil 10000, ktranspose, 1
aout3 = aout*(1-abreit)*(1-atief)
aout4 = aout*(abreit)*(1-atief)
aout1 = aout*(abreit)*(atief)
aout2 = aout*(1-abreit)*(atief)
outq aout1, aout2, aout3, aout4
endin

instr 4; raum d
idur = p3
kdreh expon 200, idur, .1
abreit oscil 1, kdreh , 2; stereobreite 10 bis 0.1 drehung pro sekunde
atief oscil 1, kdreh , 3; quadrotiefe
ktranspose expseg 20, 180, 1/1.5, 40, 1/1.5
aout oscil 10000, ktranspose, 1
aout4 = aout*(1-abreit)*(1-atief)
aout1 = aout*(abreit)*(1-atief)
aout2 = aout*(abreit)*(atief)
aout3 = aout*(1-abreit)*(atief)
outq aout1, aout2, aout3, aout4
endin

<CsInstruments>

<CsScore>
f1 0 65536 1 “konkret2.wav” 0 4 0
f2 0 4096 7 0 1024 1 1024 1 1024 0 1024 0 ; breite
f3 0 4096 7 0 1024 0 1024 1 1024 1 1024 0 ; tiefe

i1 0 760
i2 180 580
i3 360 400
i4 540 220

e
</CsScore>

</CsoundSythesizer>

 

 


Gerda Schneider

Mehrkanaligkeit - Klang im Raum

Mehrkanaligkeit meint im eigentlichen Sinn: es gibt mehrere Schallquellen - im Falle der Elektronischen Musik Lautsprecher -, die im Raum so verteilt sind, dass der gesamte Raum vom Klang durchdrungen wird und zwar in mehreren Richtungen. Die Lautsprecher können - müssen aber nicht - alle den vollen Frequenzgang haben. Jeder Lautsprecher ist eine selbständige Schallquelle, nicht einfach eine Verdopplung der Quellen und er hat ein Signal, das unabhängig ist vom Signal eines anderen Lautsprechers. Dabei muss natürlich die Zahl und Aufstellung der Lautsprecher der Größe und Form des Raumes angepasst werden. Vier Lautsprecher können fast immer im Raum optimal verteilt werden, weshalb die Quadrophonie eine übliche Realisation darstellt [1]. Sie ermöglicht eine akustische Orientierung im Raum wie die vier Himmelsrichtungen in der Landschaft.

Echte Mehrkanaligkeit ist - auch seit es Vorführungen von Elektronischer Musik von und unter der Leitung von Klaus Weinhold v. a. nach der Gründung des Vereins "Zentrum für Elektronische Musik e.V. Freiburg" in Freiburg und Umgebung gibt - Standard und wird bewusst eingesetzt für Klangwirkungen, wie sie mit einer Stereo-Anlage nicht zu erreichen sind. So wird bereits in der Vorbesprechung einer solchen Veranstaltung am 6. / 7. April 1991 in der Aula und im Musiktrakt der PH Freiburg die Mehrkanaligkeit der Vorführung betont. Hier heißt es u. a.: "Klanglandschaften mit elektronischen Klängen aller Art sind das Thema von Vorführungen mehrkanaliger radiophoner Musik am kommenden Wochenende in der PH Freiburg" [2]. Damit soll nun nicht behauptet werden, mit den genannten Vorführungen sei die Mehrkanaligkeit überhaupt eingeführt worden, Tatsache ist aber, dass der Veranstalter als aktiv in dieser Sache gelten kann.

Die Entstehung und Entwicklung der modernen Mehrkanaligkeit ist eng verknüpft mit den Medien Rundfunk und Film. Geht man in der Musikgeschichte jedoch weiter zurück, so kann in der Mehrchörigkeit der Renaissance bereits ein Vorläufer gesehen werden. Es ist wohl kein Zufall, dass in der Zeit der Entdeckung und Eroberung des geographischen Raumes der Welt auch in der Musik der Raum Bedeutung gewinnt. Damals erklangen im konkreten Raum aus verschiedenen Richtungen Vokalstimmen und mechanische Instrumente. In unserer Zeit geht es im Hörfunk darum, dem Hörspiel Räumlichkeit und Bewegung in der Vorstellung des Hörers zu bewirken, dem Hörer einen virtuellen Raum für das gehörte Geschehen zu vermitteln. Im Film soll durch den sich bewegenden Klang Bewegung simuliert werden und der Zuschauer soll durch den im Raum verteilten Klang eingehüllt sein. Der Zuschauer sollte den Eindruck erhalten, er sei nicht nur Zuschauer der Ereignisse auf der Leinwand, sondern befinde sich mitten im Geschehen [3].

Die Intention ging also in beiden Medien dahin, den Raum der Produktion - z. B. ein Gebäude, eine Straße, einen Garten - optimal in der Wahrnehmung des Hörers bzw. Zuschauers abzubilden. Aus diesem Grund musste auch die Platzierung der Lautsprecher und die Verteilung der Kanäle nach einer exakten Berechnung, die den Gesetzen des menschlichen Ohres und der Wahrnehmung von Klang entspricht, vorgenommen werden [4]. Dieses Ziel, den Raum der Produktion - hier nun v. a. den Konzertsaal - in der Wahrnehmung des Hörers entstehen zu lassen, verfolgte auch die Initiative "Quadro Action", die die Quadrophonie für den normalen Verbraucher als Standard durchsetzen wollte, bei der CD-Industrie jedoch keinen Erfolg hatte [5].

Bei meiner Suche nach dem Begriff Mehrkanaligkeit bzw. Vierkanaligkeit in Artikeln der ZeM-Hefte stieß ich auf folgenden Bericht aus dem Jahr 1993: "Marc erzählt am Schluß noch über seinen Besuch beim Elektronischen Studio des WDR. Dort hat er die Originalversion (quadrophon) von Stockhausens 'Kontakte' im Studio selbst gehört und ist fasziniert von dem Eindruck. Es sei kein Vergleich mit der auf CD verbreiteten Fassung..." [6]. Hier werden Wirkungen der Mehrkanaligkeit angesprochen, die anderes Hören erzeugen und erfordern. So sind auch bei den Vorführungen von ZeM nicht nur die neuen Klänge für viele Hörer gewöhnungsbedürftig, vielmehr verlangt die Mehrkanaligkeit ein anderes Hören, denn durch sie gewinnt der Klang im Raum und die Wahrnehmung des Klanges in diesem eine andere Dimension: "Durch diese Raumklang-Technik entfalten sich die Klänge im Raum und führen dort ein freies, ungebundenes Wesen" heißt es zum Thema Raumklang in dem Artikel über die Elektronische Musik des WDR [7].

Was ist nun diese "andere Dimension"? Da der Klang aus mehreren Richtungen kommt, ist eine feste Ausrichtung nicht mehr gegeben. Der Hörer befindet sich inmitten der Klänge. Nun kann ein mehrkanaliges Stück so komponiert werden, dass vom Komponisten der Hörer an einer bestimmten Position gedacht wird. Er hat dann einen festen Standpunkt, hört aber in verschiedene Richtungen, also in mehren Perspektiven. Je nach Konzeption des Stückes können auf jedem Kanal ganz bestimmte Klänge oder Frequenzen bzw. Frequenzbereiche gehört werden. Die entsprechende Anordnung der Lautsprecher beruht dann auf einer "neuen Ästhetik der Montage der Richtungen" [8]. Diese wird v. a. mit der Surround-Komposition verfolgt. Ein besonderer Effekt entsteht, wenn die Schallquellen so lokalisiert sind, dass die Richtungswahrnehmung erschwert wird, was bei sehr geringem Abstand der Lautsprecher voneinander (ein Winkel von 1-3°) der Fall ist. Der Hörer kann die Richtungsänderung nicht deutlich wahrnehmen, wird dadurch verunsichert, irritiert. Dieser Effekt kann bewusst mit einer entsprechenden Konfiguration eingesetzt werden, um eine "produktive Irritation" des Hörers zu erzeugen [9].

Verstärkt werden diese Wirkungen noch, wenn sich der Hörer bei einer solchen Vorführung im Raum bewegt, auf eine bestimmte Schallquelle zugeht, den einen Klang aus der Nähe aufnimmt, während die anderen Klänge aus größerer Entfernung wahrgenommen werden. Beim Durchlaufen des Hörraumes kann man erfahren, wie der Klang sich bewegt und durch den Raum wandert. Hier kommt es gerade nicht darauf an, die "richtige" Position im Raum einzunehmen, um den Klang authentisch zu hören, sondern den Klang und seine Veränderung je nach Standort zu erfahren. Für solche Vorführungen gilt: "Wie klingt es in diesem Raum, mit diesen Lautsprechern, von verschiedenen Standpunkten aus? Wie klingt es, wenn die Lautsprecher anders aufgestellt werden? Wie klingt es, wenn ich in der Mitte oder in einer Ecke stehe?" Es gibt bei solchen Vorführungen nicht den optimalen Platz, nicht das Zentrum, das nach den Gesetzen der Akustik den besten Genuss verspricht. Und es ist nicht der Sache angemessen, auf einem nummerierten Platz zu sitzen, frontal ausgerichtet, sondern in der Bewegung durch den Raum den Klang zu hören, und zwar nicht nur den Klang als solchen, sondern eben auch, wie sich der Klang durch die Bewegung im Raum verändert. Und wie durch diese Veränderungen neue Räume geöffnet werden.

Wir nehmen dann die Klänge so wahr, wie wenn wir durch die Straßen einer belebten Stadt gehen, verschiedene Geräusche aus unterschiedlichen Richtungen hören, die je nach Bewegungsrichtung stärker oder schwächer wirken, durch andere in den Hintergrund gedrängt werden, mal da sind und immer wieder verstummen. Oder wie wenn wir durch die Gegend laufend mal hier, mal dort etwas hören, z. B. einen Vogel, vom Wind verursachtes Rauschen, zwischendurch Verkehrsgeräusche, menschliche Stimmen usw. Durch die Mehrkanaligkeit bewegen wir uns in einem akustischen Raum, ohne festen Standpunkt, mit mehreren Perspektiven. Wir erfahren eine komplexe akustische Umwelt, die - wie oben bereits gesagt - zu Irritationen führen kann, je nach Aufstellung der Lautsprecher.

Es ist ja ganz natürlich, dass ein Mensch nicht immer am selben Platz steht und dass er immer wieder seine Position verändert, sei es, indem er zu Hause z. B. von einem Zimmer ins andere geht, indem er verreist, sich zu Fuß auf den Weg zu seiner Arbeit macht oder durch die Gegend fährt. Schließlich ist er ja ein Lebewesen. Dass sich dabei die optischen Eindrücke ständig verändern, ist für uns selbstverständlich, gerade für diejenigen, die sich auch Filme anschauen. Für einen Filmemacher ist der Wechsel der Perspektive und die Veränderung des Abstandes vom Objekt unabdingbar. Die Filmmusik hat dem Rechnung getragen. Wir profitieren davon, da wir die Technologie der Mehrkanaligkeit für unsere Zwecke einsetzen können, um zeitgemäße Musik bzw. akustische Kunst zu produzieren und zu präsentieren. "Zeitgemäße Musik" meint hier nicht nur Klangproduktionen, die unter Verwendung der neuesten Technologien entstanden sind, sondern diejenigen, die ein Abbild unserer komplexen, oft verwirrenden Welt sind.



Quellen:

[1] Hubert Henle: Das Tonstudio Handbuch, Carstensen Verlag, 4. Aufl., 1998
[2] Freiburger Kulturkalender der “Badischen Zeitung” von 6. / 7. April 1991
[3] Boris Goesl: Mehrkanaltechnik, Besondere Anforderungen und kunstlerische Konsequenzen, Referat vom 22.01.2004,
[4] Boris Goesl, a. a. O.
[5] www.quadro-action.de
[6] ZeM-Heft 10, 1993, S. 6
[7] www.soundart-koeln.de/raumklaenge.php
[8] Boris Goesl, a. a. O.
[9] Boris Goesl, a. a. O.

 

 


Astyanax Retriever

Klappentexte

Marshall McLuhan ... Global Village ... Understanding Media ... Klangarchitekt Andres Bosshard mit Telefonia ... räumlich disloziertes ... Bill Fontana der Donau ... Radiowellen gar bis zum Mond ... dass fünf der aktivsten Musiker der jungen, experimentellen Berliner Elektronik-Szene mit ihrem Projekt 4rooms ... barocken Wandelkonzerten ...polnischen Komponisten Zygmunt Krauze ... Prunksälen des Barockschlosses Eggenberg ... ursprünglich rein instrumentalen Klänge auf ihren elektronischen Geräten live transformiert ... des Filmtitels von Wim Wenders ... analoge Klangwandler, die weit "fleischiger" klingen als die digitalen ... innere Identität ...befindlichen auch dort, in den trauten vier Wänden der Hörer, wieder die ... dieser Dialektik von nah und fern ... Kommunikationswissenschaftler Vilém Flusser so genannten "Techno-Codes" gravierend ... Der amerikanische Regisseur Peter Sellars hat diesen Sachverhalt der verfremdenden "Bilderflut" ... elektronische Mittel eine Klangquelle so manipuliert werden kann, dass zwar noch eine Nähe ... Einzig durch die physische Präsenz des Instrumentalduos ... kann der Zuhörer die Manipulationen als solche entlarven ...

Der Schutzumschlag eines Buches enthält oft sogenannte Klappentexte, die den Inhalt umschreiben und vielleicht noch werbewirksam die Schlagzeile einer positiven Rezension bringen: "Irre, witzig und spritzig, Berliner Mittagspost". So etwas ähnliches gibt es auch in der Musik, besonders der "Neuen Musik". Zur Probe stand kursiv am Anfang einiges an solchem Schrifttum, beispielsweise der elektronischen Performances in Donaueschingen 2004, Datum und Ort ist hier absolut belanglos, in Form einer beliebigen Anreihung. Wer oder was wurde hier nicht alles heranzitiert? Und was hat dies alles mit den recht einfachen Klängen zu tun, die dargeboten wurden? Diese Performance handelte von der Tatsache, daß Begriffe wie Nähe und Entfernung, Original und Kopie seit der Einführung der Elektroakustik in der Breite um etwa 1930 unklar, oder zumindest relativiert worden sind, das war die dürre Aussage. Ich erinnere hier an den Bericht [1], der einen Eindruck vermittelte. Wer die klassischen Werke der frühen E. M. kennt, kann über diese Diskrepanz zwischen magerer Akustik und aufwendiger Schrift nur den Kopf schütteln. Dabei waren diese Texte noch vergleichsweise nah am Gehörten. Was ich über die in [1] geschilderten vier Orchesterstücke zu lesen bekam, hatte mit dem akustischen Ergebnis noch viel weniger zu tun.

Ich schrieb hier einmal vom "Programmhefttrick" [2]. Ein Text, mit möglichst gewichtig klingenden Zitaten, Anspielungen und bekannten Namen, oder einem aktuellen Aufhänger, vielleicht politisch oder skandalös, besser noch beidem, aber möglichst wenig akustisch Nachvollziehbarem soll das an Impuls nachliefern, was dem Werk selbst faktisch oder vermeintlich fehlt. Komponisten früherer Zeiten fanden solche Rechtfertigungen nicht nötig. Sie haben es so gemacht, wie sie es für richtig hielten. Man hatte keine Zeit für seitenlanges Schrifttum, denn die nächste Komposition mußte bearbeitet werden. Es gibt freilich tonnenweise interpretierende "Sekundärliteratur" mit z. T. grotesken Deduktionen. Hatte der Meister vielleicht genau beim Schreiben dieser Stelle Bauchweh, oder schnäuzte er gar in sein Taschentuch? Wir werden es nie wissen und es interessiert eigentlich auch niemanden. Mit diesem Wortschwall wird die Musik beschädigt, denn das Hörbare, das psychoakustische Erlebnis wird zur Nebensache degradiert.

Man kann nach dem Warum dieses Treibens fragen. Woher kommt das? In der Frühzeit der E. M. waren schriftliche Aufzeichnungen zur Komposition zweifelsohne unabdingbar, da selbst einfache Herstellungsprozesse Wochen in Anspruch nahmen und genaueste Planung erforderten, was das Kurzzeitgedächtnis eindeutig überforderte. Heute ist das aber nicht mehr so, es gibt den Befehl "UNDO". Seit Marcel Duchamps Pissoir "Fountain" und Kurt Schwitters "objet trouvé" ist aber der Unterschied zwischen Kunst und Nicht- Kunst noch sehr viel schwieriger zu definieren, als schon zuvor. Künstler sind daher versucht, Angriffen auf ihr Werk schon im Voraus durch pseudowissenschaftliche oder pseudopoetische Schriften zu begegnen: "Seht her, ich habe mir tiefe Gedanken gemacht, daher ist es erwiesenermaßen Kunst". Herbert Eimert vollzog wohl auch aus diesem Grund die Abkehr von "freier Klanggestaltung" und begrüßte den Serialismus als Legitimation des eigenen Schaffens, man sah die Gefahr des Abgleitens ins "Chaos", in die "Minderwertigkeit", in eine "Position ohne theoretischen Grund unter den Füßen" (1953). Dieses Verlangen nach "Legitimation" ist sicher auch durch die z. T. vernichtenden Kritiken an der frühen E. M. bedingt [3].

Wer sich das typische Einreicheformular zu Kompositionswettbewerben ansieht, stellt fest, daß hier vor allem vier Punkte interessieren: der Name des Kompositionslehrers, Studienfach, Notation und möglichst umfangreiches Schrifttum zum Werk. Dabei müßte doch zuallererst der eingeschickte Tonträger interessieren, bzw. sein Inhalt. Hören, liebe Juroren, mühsames, anstrengendes Hören ist angesagt, Stille und nicht Rascheln mit Papieren, während das Stück läuft, Vorspiel hinter schwarzem Vorhang. Weitere Informationen braucht man allenfalls, um die Gelehrsamkeit des Kandidaten zu prüfen, mit besonderer Berücksichtigung der richtigen akademischen Glaubensrichtung, damit nur ja nichts Unerhörtes aufkommt und damit die Frage "ist das Kunst?" formal gelöst wird - selbst mit richtigem Stammbaum und Vorturner kann man da nicht absolut sicher sein. Wirtschaftliche Aspekte spielen dabei auch eine Rolle. Man kann nicht von Elektronischer Musik allein leben. Stipendien, Aufträge und nicht zuletzt Positionen mit Salär sind lebenswichtig. Das bestehende System hält den Kreis der Teilnehmer klein, eine Gilde regelt die Verteilung des Wenigen an Wenige, es sei ihnen gegönnt.

Es gibt Ausnahmen, ein Kompositionswettbewerb hat unlängst die Angabe von jeglicher Information außer einem Zuordnungscode auf dem neutralen Tonträgerumschlag bei Strafe der Disqualifikation verboten. Diese Vorgehensweise ist sehr gefährlich. Man stelle sich vor: ein völlig Unbekannter, am besten noch ohne jede konventionelle formale Ausbildung, hätte das beste elektronische Stück eingesandt und bekannte Musiker mit bekannten Ausbildern aus bekannten Einrichtungen auf die Plätze verwiesen. Das ist durchaus möglich, denn die herkömmliche Ausbildung ist für Elektronische Musik etwa so nützlich wie das sprichwörtliche Fahrrad für den Fisch. Für interessante Klänge sind eher die Ergebnisse der Nachrichtentechnik von Interesse als die klassische Theorie des Tonsatzes. Jene theoretischen Aussagen, mit ganz anderem Hintergrund und Zweck, müssen allerdings für die Praxis der Elektronischen Musik erst nutzbar gemacht werden. Ein Mensch muß daher lange Zeit alleine vor dem Gerät oder dem Programm sitzen, sich immer wieder damit beschäftigen, also (lebens)langes Lernen durch häufiges eigenes Tun, um die Aufgabe zu meistern. Das ist eine selbstverständliche Forderung aus der Komplexität der Sache. Diese Erkundung des Gebietes geht deshalb am besten in Ruhe zu Hause, mit der eigenen Ausrüstung zu jeder gewünschten Tageszeit. In Vorlesungen, Seminaren, Übungen oder Stipendien in bekannten Studios kann dies nicht oder nur oberflächlich stattfinden, es steht zu wenig Zeit für den einzelnen zur Verfügung. Die Oberaufsicht durch den Meister nützt dann nichts, weil seine Ratschläge abstrakte Theorie bleiben.

Es wäre für die Musik selbst sehr vorteilhaft, wenn die Auswahl bzgl. des Absenders zufälligen Charakter hätte. Denn wie viele Werke von Rang bringt ein Komponist für E. M. im Laufe seines Lebens bei bestem Bemühen zu Stande? Und wieviel weniger davon wird die Zeit überdauern? Die Selbstähnlichkeit, bis hin zum direkten Zitat und gar zum Plagiat, in Werken bekannter und weniger bekannter Komponisten ist systembedingt schon immer da gewesen. Bei E. M., die doch den Aspekt der echten Neuheit programmatisch enthält, stellt sich dieses Problem in noch schärferer Form. Am Ende bleibt es nach jahrzehntelanger Arbeit an der Sache bei vielleicht fünfzig Versuchen und fünf Stücken von bleibendem Wert.

Zu Beginn der E. M. vor 50 Jahren war dies so, weil die technischen Beschränkungen sehr bald Selbstähnliches hervorbrachten. Man kann in dieser Zeit durchaus vom "Studioklang" sprechen. Das WDR-Studio in Köln klang anders als das Siemens-Studio in München, bis hin zum Hallraum. Heute sind Verfahren immerhin erahnbar, die die Komplexität elektronischer Klangerzeugung in eine ganz neue Größenordnung bringen, die das bisherige trivial erscheinen läßt. Dann wird die Technik nicht länger die beschränkende Komponente sein, sondern die notwendige Personalunion von Komponist und Techniker, der Mensch selbst wird noch stärker als schon jetzt seine individuellen Grenzen erfahren. Dies sind die Grenzen der Beherrschung der Methode, aber auch des Einfallsreichtums und vor allem der Gesamtschau auf die Zusammenhänge der Verfahren. Durch Probieren allein ist schon heute nichts Originelles mehr zu gewinnen, man muß schon in vollem Bewußtsein die ausgetretenen Pfade verlassen. Auch dies ist ein Grund für eine möglichst breite Basis bei der Suche nach gelungener E. M.

Es ist die Natur der Musik als transitorischer Kunst selbst ein Problem für das geschriebene Wort. Texte, die in Minuten, Stunden und Tagen entstehen, sollen Klangereignisse widerspiegeln, die Sekundenbruchteile andauern, und auch nicht, zumindest in der Konzertsituation, wiederholt werden. Diese Unsagbarkeit des Phänomens Klang wird bereits in [4] gewürdigt. Das Zentrum der Sache ist textueller Beschreibung schwer zugänglich, obwohl solche Beschreibung nicht völlig unmöglich ist, also wird auf Randbereiche ausgewichen. Texte zur Komposition können eventuell nützlich sein, aber nur, wenn der Bezug konkret ist und akustisch auch so nachvollzogen werden kann. Ansonsten beschränke man sich auf die Fakten der Realisation, das "wie ist es gemacht?". Dies ist eine Position des musikalischen Positivismus oder Empirismus, allein aus der psychoakustischen Erfahrung können wir etwas über Musik erfahren, Ideen sind nur Begleitumstand.



Quellen:

[1] Peter Kiethe, ZeM-Heft 25, Bericht aus Donaueschingen 2004
[2] Rettbehr Meier, ZeM-Heft 23, Blick über den Zaun
[3] Marietta Morawska-Büngeler, Schwingende Elektronen, ... Elektronische Musik ... des Westdeutschen Rundfunks ... 1951-1986, Tonger MUSIKVERLAG 1988
[4] Klaus Weinhold, ZeM-Heft 26, Beschreibung des Unbeschreibbaren

 

 


Klaus Weinhold

Beschreibung des Unbeschreibbaren

Seit Jahren veranstalten wir, ZeM Freiburg, die "Klingende Steinhalle". Manch einer mag sich gefragt haben, was dies sei und soll. Der Untertitel "Elektronische Soundperformance" lässt viele Fragen, nach dem, was es sei, offen. Fragen dieser Art stehen im krassen Gegensatz zu solchen über klassische Konzerte, für die für jeden Teilbereich und für das Ganze eindeutig klare Muster zur Gestaltung und vor allem zur sprachlichen "Besprechung" und "Beschreibung" zur Verfügung stehen. Konzerte dieser Art beginnen mit einer beschreibenden Vorschau und enden nach der eigentlichen "Aufführung" mit Kritiken in Tageszeitungen und Fachzeitschriften, mit beschreibenden Beurteilungen. In der Vorschau werden "Ausführende" angekündigt, meist bekannte Namen, Werke werden beschreibend angekündigt und der Leser weiß Bescheid, kann alles im Rahmen bestehenden Bildungswissens und nach eigener Erinnerung an Vorangegangenes einordnen. Etwa Beethovens "Fünfte", diesmal im Konzerthaus mit einem neuen Stardirigenten und einer außergewöhnlichen Interpretation. Die nachfolgende Kritik beschreibt die Leistung der Ausführenden und lobt die Besonderheiten der Interpretation. Eine geschlossene Abfolge mit hohem Bekanntheitsgrad und Erinnerungswert ist damit erfüllt.

Eine entscheidende Frage bleibt jedoch: Was ist in solchen Fällen beschreibbar und beschrieben worden? Es sind dies Leistungen, Namen, Orte, Zeiten, Konzertsäle. Ist jedoch das Eigentliche, das erklungene Objekt, sind die Töne, die Klangfarben, die Instrumente beschreibbar und damit beschrieben worden? Oder ist dieses sinnliche Klangerlebnis nur zu verstehen, indem es sich einer Beschreibung und damit einem Feststellen und Festhalten ständig entzieht? Ist das nur Hörbare und offenbar nicht Begreifbare in begrifflichen Worten fassbar? Die Antwort muss lauten: Nein! Beschreibbar sind vordergründig konstituierende Elemente, Superstrukturen, Themen, Entwicklungen, Bewegungen, Gesichtsausdrücke, ja sogar "Tränen in den Augen". Aber das Zentrale, der Klang, entschwebt einer Beschreibung, er ist nur "realtime" vorhanden und entzieht sich allem außer einer im Moment wahrzunehmenden sinnlichen Erhörung. Die beschreibenden Begriffe stellen fest, bleiben, sind nachvollziehbar, der Klang entzieht sich, unstetig, ständig entschwebend.

Was ist nun an der "Klingenden Steinhalle" diesbezüglich beschreib- und begreifbar? Immer wieder wird dem Versuch, dieser Forderung zu genügen, nachgegangen. Beschreibbar und erklärbar sind auch hier nur gewisse Äußerlichkeiten, z. B. die zur Verfügung stehenden technischen Geräte, die eine Reproduktion des Unbeschreiblichen ermöglichen. Die Reproduktionsgeräte können mit einem einsehbaren und nachvollziehbaren "Notentext" verglichen werden. Dieser kann vom Blatt gespielt werden, auswendig gelernt werden und erlaubt damit vordergründige Einblicke in das zugrunde liegende klingende System, das sich wiederum einer Beschreibung entzieht. In der Elektronischen Musik sind nun Notenschrift und damit die Beschreibbarkeit, jedoch nicht eine gewisse Form der Erklärbarkeit völlig verschwunden. Zurück bleibt der erklärende Hinweis auf die Medien, die eine technische Herstellung der Klänge ermöglichen, die doch recht unangemessene Beschreibbarkeit der Möglichkeiten, diese technischen Elemente der Klangerzeugung zusammenzusetzen und damit so etwas wie Komposition zu erstellen. Die Begreifbarkeit und Beschreibbarkeit technischer Geräte zur Produktion sind so etwas wie eine neue Kompositionslehre dieser Technik.

Es bleibt die Frage nach der Beschreibbarkeit der hörbaren Ergebnisse: Es klingt in der Steinhalle, der Klang entschwebt Lautsprechern und Computern und verflüchtigt sich, verwischt sich, summiert sich, lässt sich nicht lokalisieren, um schließlich unwiederholbar zu entschweben. Hinweise auf Lautsprecher oder Lautstärken sind als Erklärungsmodelle völlig unzureichend. Wie es klang, ist nur im Hören zu erleben, akustisch sinnlich wahrzunehmen und damit mitvollziehbar. Auch die Frage des "schön oder hässlich" entzieht sich einer Beschreibung nach klassischen, geschichtlichen Kriterien. Die traditionelle klassische Musikästhetik hat den Versuch gemacht, das Musiksystem und die daraus resultierenden Produkte erklärend mit Worten zu beschreiben und damit sprachlich zu erfassen. Der begrenzte Umfang der traditionellen Parameter hat dies ohne Probleme und Einschränkungen erlaubt. Für die Elektronische Musik und damit auch für die Soundperformance "Klingende Steinhalle" gilt dies nicht mehr. Diese sind nicht beschreibbar, kaum erklärbar, sondern nur erhörbar und sprachlos sinnlich wahrnehmbar.

 

 


Perper Weyren-Meler

Die Faltung

Ich habe vor einigen Jahren eine Programmgruppe zur Berechnung und Anwendung der sogenannten Faltung geschrieben, eine Übung in der Programmiersprache C, denn so etwas gibt schon seit mehr als 30 Jahren, und in manchen Kompositionen auch angewendet. Es lassen sich damit sehr interessante Ergebnisse erzielen. Dabei handelt es sich um eine sehr verallgemeinerte Operation, die psychoakustischen Auswirkungen sind daher vielfältig. Das Verfahren ist im zeitdiskreten Bereich recht einfach zu verstehen, es lohnt sich allerdings eine Gesamtschau, die die Zusammenhänge offenlegt. Der Ausgangspunkt ist die Theorie der linearen, zeitinvarianten Systeme (LZS). Ein System sei hier ein Kasten mit einem Eingang und einem Ausgang. Man gibt ein Signal hinein (Eingangssignal, e(t)), z. B. weißes Rauschen, dies wird im Kasten irgendwie verändert und erscheint dann so verändert am Ausgang (Ausgangssignal, a(t)).

Der Begriff Zeitinvarianz ist einfach zu verstehen: das System soll seine Eigenschaften zeitlich nicht ändern. Z. B. ist ein Festfilter als bestimmendes Element im Kasten zeitinvariant und das Rauschen klingt damit am Ausgang immer gleich, solange ich nicht an den Knöpfen drehe und auch kein Defekt vorliegt. Anders gesehen: egal wann ich ein festgelegtes Eingangssignal anlege, am Ausgang erscheint immer das selbe Ausgangssignal, eben nur entsprechend zeitverschoben. Es gibt so etwas wie Laufzeit im Kasten, aber sie ist konstant. Wenn a(t) aus e(t) folgt, so a(t-d) aus e(t-d). Mit der Linearität ist es nur etwas schwieriger. Es gibt sie einerseits als Verstärkungslinearität. Verstärkt man e(t) mit dem Faktor v, so kommt auch a(t) um v verstärkt heraus. Es passiert nichts überraschendes, stärkerer Eingang ergibt stärkeren Ausgang. Die andere Variante ist die Überlagerungslinearität: ist a(t) die Systemantwort auf e(t) und b(t) die Antwort auf f(t), so passiert nichts Aufregendes, wenn man am Eingang die Summe e(t)+ f(t) anlegt, man erhält einfach a(t) + b(t) (s. Abb.).

26/lts.gif

Konkrete Beispiele für LZS sind Lautsprecher, Verstärker, Mikrophone, Filter, Mischpulte, Hallgeräte, Aufzeichnungsmaschinen, usw. Zeitinvarianz bedeutet, daß dieselben Lautsprecher, Mikrophone, usw. jetzt genauso klingen, wie vor fünf Minuten oder gestern, wenn sich niemand daran zu schaffen macht. Mit der Linearität ist es schwieriger: Lautsprecher sind ziemlich nichtlinear, Analog- Digital-Wandler dagegen sind heute sehr linear. Linearität ist zur Wiedergabe erforderlich, ansonsten werden aus Sinustönen Klänge, aber aus Zusammenklängen wird meist nur Klangbrei. Die allgemeine Nutzbarkeit von Geräten oder Vorrichtungen für Audio erfordert daher eine möglichst gute Annäherung an LZS. Es gibt natürlich Ausnahmen: das Leslie-Kabinet mit seinem Röhrenverstärker und den schnell rotierenden Lautsprechern ist weder linear, noch zeitinvariant.

Es lassen sich weitreichende Folgerungen für das Verhalten der LZS ableiten. Wie hängt e(t) und a(t) allgemein zusammen? Dazu machen wir ein Gedankenexperiment. Am Eingang legen wir nacheinander eine Reihe von Pulsen an, zeitlich immer schmaler werdend. Damit die Systemantwort nicht verschwindend klein wird, müssen wir die Pulsenergie konstant halten, das ist die Fläche unter der Pulskurve. Den Ausgang beobachten wir mit dem Oszilloskop. Ist der Puls genügend schmal, so wird sich die Ausgangsfunktion nicht mehr ändern. Diese ist für das LZS charakteristisch, man nennt sie Systemimpulsantwort, oder kurz: Impulsantwort (s. Abb.) wir wollen sie mit g(t) bezeichnen.

puls.gif

Die Impulsantwort erlaubt die Berechnung beliebiger Ein/Ausgangssignalpaare mittels der Operation der Faltung (°): a(t) = e(t) ° g(t), bzw. a(t) = g(t) ° e(t) (die Faltung ist also kommutativ). Ein LZS ist bezüglich Eingang und Ausgang vollständig durch die Impulsantwort bestimmt. Durch äußeres Messen der Impulsantwort kann man die Charakteristik eines LZS abschöpfen, ohne jede Kenntnis des Inneren.

Wie funktioniert die Operation der Faltung? Im diskreten ("digitalen") Bereich ist die Erklärung relativ einfach: das Eingangssignal ist eine Folge von Zahlen, die per Schieberegister an einer anderen Folge von Zahlen (der Impulsantwort) vorbeigeschoben wird, wobei bei jedem Schiebetakt die Zahlenpaare aus Signal und Impulsantwort miteinander multipliziert und die Produkte aufsummiert werden.

konv3.gif

Die Impulsantwort (s. Abb.) sei: 1, 2.1, -0.2, 3, 4, 5.
Unser Signal sei: -3.0, 1.0, -3.3, 4.5, ... .
Nun wird das Signal an der Impulsantwort vorbeigeschoben, bei jedem Takt wird multipliziert und summiert.
Der erste Ausgangswert ist -3.0 × 1= -3,
der zweite 1.0*× 1+ -3.0*× 2.1=-5.3,
der dritte -3.0 × -0.2 + 1.0 × 2.1 + -3.3 × 1 = -0.6 usw.
Aus diesem Algorithmus kann man auch die Beweisidee für die Allgemeingültigkeit der Faltungsoperation erkennen: ein Einheitsimpuls ist die Folge 1, 0, 0, 0, ... . Wenn man so einen Impuls durch das Schieberegister schiebt, wird nacheinander nur ein Produkt "aktiviert", alle anderen Produkte sind Null. Dadurch wird exakt die Impulsantwort ausgegeben. Beliebige Signale können als Überlagerungen von verzögerten Einheitsimpulsen konstruiert werden (Ausnutzung der Zeitinvarianz), die jeweils mit dem darzustellenden Abtastwert skaliert werden (Ausnutzung der Linearität).

Dies war die Betrachtung im Zeitbereich, das Bild wird aber erst komplett mit der Ansicht im Frequenzbereich. Zunächst stellt man fest, daß sinusförmige Signale Eigenfunktionen der LZS sind, also nicht wesentlich verändert werden. Dazu kann man folgendes Experiment machen: ein Sinusgenerator wird am Eingang des LZS angeschlossen. Nach Abklingen der Einschwingvorgänge (das ist wichtig) beobachtet man am Ausgang wieder ein sinusförmiges Signal mit unveränderter Frequenz, aber i. a. mit veränderter Phase und Amplitude. Verallgemeinerte sinusförmige Signale führen zur Laplace-Transformation und als deren Spezialfall zur Fourier-Transformation. Jedes Signal x(t) im Zeitbereich läßt sich demnach als Integral über unendlich viele, frequenzmäßig beliebig dicht beieinander liegende, sinusförmige Komponenten darstellen. Die Transformationen ordnen dabei jedem x(t) eine Funktion X(s) (der verallgemeinerten Frequenz s) zu, die für jedes s die Amplitude und Phase der sinusförmigen Komponente definiert. X(s) nennt man deshalb auch Spektrum in Anlehnung an die Zerlegung von weißem Licht in seine Bestandteile, X(s) kann man zusammen mit der Transformation als Zerlegungsvorschrift auffassen.

Die genannten Transformationen überführen vom Zeitbereich in den Frequenzbereich und umgekehrt. Diese Dualität hält sehr interessante Einsichten bereit. Z. B. wird die im Zeitbereich aufwendige Faltung a(t) = e(t) ° g(t) im Frequenzbereich zu einer Multiplikation der Spektren: A(s) = E(s) • G(s). Umgekehrt wird die Multiplikation ("Ringmodulation") a(t) = e(t) • g(t) im Zeitbereich zu einer Faltung der Spektren im Frequenzbereich A(s) = E(s) ° G(s).

Jede der beiden Sichtweisen ist vollständig: das LZS ist sowohl durch die Impulsantwort g(t) als auch deren Spektrum G(s) eindeutig definiert, G(s) nennt man deshalb auch Übertragungsfunktion des LZS. Wir kommen somit zu folgendem Schaubild:

lts_5.gif

In der Praxis treten nun drei Probleme auf: zum einen wird die Messung der Impulsantwort mit sehr schmalen Pulsen großer Amplitude zu Übersteuerungen und damit zu Verzerrungen führen. Reduziert man aber die Amplitude, so geht das Ausgangssignal im Rauschen unter. Statt eines einzelnen Pulses benutzt man daher eine lange, zyklische Folge von Impulsen mit zufälliger Gewichtung, dies entspricht spektral flachem Rauschen. Das Ausgangssignal muß dann durch ein spezielles Verfahren im Frequenzbereich zur Impulsantwort aufbereitet werden.

Ein zweites Problem ist der Rechenaufwand. In der Praxis kann die Impulsantwort durchaus eine Million Abtastwerte haben (z. B. die lange Hallfahne eines großen Raumes), 10 Minuten Eingangssignal hat um die 26 Millionen Abtastwerte. Für jeden Eingangsabtastwert sind ca. eine Million Multiplikationen und Additionen notwendig, insgesamt haben wir 2.6*1013 Multiplikationen und Additionen auszuführen. Diese Berechnung dauert auf einem sehr schnellen Rechner mehr als 7 Stunden, für nur etwas mehr als 10 Minuten Audio! Mit einigem mathematischen Aufwand (Transformation in den Frequenzbereich, Überlapp-Addition, Rücktransformation) läßt sich aber eine enorme Beschleunigung der Rechnung erreichen, aus Stunden werden wenige Minuten. Diese sog. "Schnelle Faltung" braucht meist weniger Zeit als das Abspielen des Eingangssignals selbst.

Ein drittes Problem ist der dynamische Bereich des Ausgangssignals. Er ist extrem abhängig vom Eingang und damit nicht gut vorhersagbar. Sind Impulsantwort und Eingangssignal kurz und spektral verschieden, so sind die Ausgangsabtastwerte sehr klein. Sind Impulsantwort und Eingangssignal identisch und lang, so erhält man extrem große Werte. Die Berechnung erfolgt deshalb besser nicht in Echtzeit (digitale Übersteuerungen). Es wird zuerst ein hochgenaues Zwischenergebnis gerechnet (eine Auflösung von 32 Bit ist dabei keineswegs ein Luxus, sondern notwendig), gespeichert und nachher richtig normalisiert auf das bevorzugte 16- oder 24-Bit Format konvertiert.

Was kann man nun mit der Faltung und der Theorie der LZS anstellen? Z. B. kann man die Charakteristik von Räumen ermitteln. Man stellt dazu einen Meßlautsprecher und ein Meßmikrophon auf. Dann wird zyklisches Rauschen (etwa 2 Minuten) abgespielt und wieder aufgenommen, der Rechner ermittelt daraus die Raumimpulsantwort. Schon diese allein erinnert sehr an die Verhältnisse im Raum, sie klingt wie ein "Pistolenschuß" in genau dieser Situation. Faltet man nun beliebige Signale mit dieser Impulsantwort, so klingt das Ergebnis genau wie das Abspielen des Signales über diesen Lautsprecher in besagtem Raum mit der Hörposition an der Stelle des Mikrophones. Man kann verschiedene Positionen für Lautsprecher und Mikrophon ausprobieren (es kommt gar nicht so sehr auf ein besonderes System dabei an, denn die Rückwurfmuster der Schallwellen sind in einem gewissen Sinn chaotisch) und erhält eine Menge von Impulsantworten, die sich speichern, vielleicht verschönern und später wieder benutzen lassen, auch wenn der Raum dann gar nicht mehr existiert oder nicht mehr zugänglich ist. Früher wurden Hallräume zur natürlichen Verhallung benutzt, mit der Faltung wird dieser Klangreichtum wieder möglich, ohne jedoch die Nachteile der natürlichen Verhallung in Kauf nehmen zu müssen (Lärmbelästigung, Nebengeräusche, Kosten, mangelnde Flexibilität). Es spricht nichts dagegen, die Akustik einer kleinen Kammer, eines Schachtes, eines Waldes oder einer Wiese einzufangen. Man kann auch die Charakteristik bestimmter Lautsprecher oder Mikrophone einfangen, oder Kombinationen daraus. Auch die Aufnahme von mechanisch-akustischen Resonatoren, wie z. B. Stahlröhren, Wasserleitungen, Klavieren mit gehaltenem Pedal usw. ist nach Anbringen geeigneter Wandler möglich.

Selbstverständlich läßt sich direkt elektronisch die Impulsantwort jedes Hallgerätes messen, sei es nun "digital", oder ein Federhall oder eine Hallplatte. Durch eine lange Messung werden alle Störungen ausgemittelt, man bekommt das, was der Konstrukteur des Gerätes eigentlich wollte, aber wegen technologischer Grenzen nie ganz erreichte. Jede Art von elektrischem Übertragungsapparat kann gemessen und nachgebildet werden.

Die Anwendung auf nichtlineare Systeme kann die spektrale Charakteristik eines eventuell vorhandenen linearen Anteils erbringen. Bei zeitvariablen Systemen erhält man das spektrale zeitliche Mittel. Da jedoch die Korrelation zwischen Eingang und Ausgang in beiden Fällen nicht mehr vollständig hergestellt werden kann, so werden die Ergebnisse i. a. stark verrauscht sein.

Es gibt mehr als Systemidentifikation und Nachbildung. Man kann insbesondere die Theorie der FIR- oder IIR-Filter nutzen, um z. B. Filter mit sehr steilen Flanken und/oder starker Resonanz zu erzeugen, d. h. die i. a. recht lange Impulsantwort wird dann aus theoretischen Erwägungen exakt errechnet. Einfachen (billigen) elektronischen Filtern mangelt es in den meisten Fällen an dieser Prägnanz im Zeitbereich. Aus dieser Sicht repräsentiert eine Impulsantwort von z. B. 10000 Abtastwerten ein Filter mit 10000 Koeffizienten. Dies läßt die Vielzahl der Möglichkeiten erahnen.

Schließlich steht nichts der Methode entgegen, die Faltung einfach als einen schwarzen Kasten mit zwei Eingängen (die Impulsantwort und das bisher so genannte "Eingangssignal") zu betrachten, woraus am Ausgang ein neues Klangereignis entsteht. Man kann beliebige Signale miteinander falten und sich am Ergebnis freuen, warum nicht zweimal das selbe Signal hineinstecken? So kann man durchaus einen ganzen Winter mit Klangkreation ohne Langeweile verbringen.

Wie klingt das? Das hängt von der Impulsantwort ab. Ist sie kurz, unterhalb der Schwelle, wo Ereignisse psychoakustisch zeitlich separiert werden können (etwa 50 ms), so kann man das Ergebnis als "Filterung" im allerweitesten Sinne beschreiben. Wir können das als psychoakustische Erfahrung im Frequenzbereich interpretieren. Jeder beliebige Frequenzgang kann dargestellt werden, nicht nur der sattsam bekannte Tiefpaß, Hochpaß oder Bandpaß, sondern auch ganz extreme Resonanzerscheinungen, Mehrfachbänder oder Kerben und Übertragungsfunktionen, die an zerklüftete Bergrücken erinnern. Zu den subtileren Merkwürdigkeiten gehören Filterflanken mit beliebig geringen Steilheiten, anstatt der sonst üblichen grob gerasterten 6, 12 oder 24 db/oct.

Hat die Impulsantwort mehrere deutlich ausgeprägte "Spitzen" in größerem als besagtem Abstand, oder ist sie einfach in diesem Sinne lang, so kommen zusätzlich Hall- und Echoerscheinungen hinzu, auch Klänge, wie wir sie von Vocodern kennen. Es findet eine zeitliche "Verschmierung" statt. Wir können das als psychoakustische Erfahrung zugleich im Frequenz- und Zeitbereich interpretieren. Mit Rauschen als Impulsantwort bekommt man künstliche Hallfahnen, die natürlich oder extrem seltsam klingen können. Ebenso eigenartig klingen Echos, die durch Zeichnen von mehrfachen Impulsen in verschiedenen Abständen jeder Physik und Akustik spotten.

Das Ähnliche zweier Eingangssignale wird betont, die Unterschiede werden abgeschwächt. Die Auffassung der Faltung als Multiplikation der Spektren im Frequenzbereich erklärt dies: schwach ausgeprägte Bereiche der Eingangsspektren (Nullstellen) übertragen sich sofort auf den Ausgang, Resonanzen (Polstellen) nur dann, wenn sie beiden Eingangssignalen "gemeinsam" sind und nicht eine Polstelle auf der einen Seite eine Nullstelle auf der anderen Seite kompensiert. Die Verstärkung von Ähnlichkeiten macht u. U. eine Frequenzgangskorrektur notwendig, damit die natürliche Tiefpaßcharakteristik von mechanisch-akustischen Vorgängen nicht zu stark betont wird.

Die Operation der Faltung stellt einen bemerkenswerten Sonderfall dar. Ich habe es in immerhin 26 Jahren der Beschäftigung mit elektronischer Klangerzeugung und Klangumwandlung noch nie erlebt, daß ein - wenigstens im Prinzip - so simpler Algorithmus eine derartige Klangfülle und einen derart weitgehenden Anwendungsbereich eröffnet und realistische Imitation nahtlos mit völliger Neuschöpfung vereint. Dies ist wohl deshalb möglich, weil die Faltung einen fundamentalen Zusammenhang darstellt und ohne weiteres sowohl im Zeit- als auch im Frequenzbereich Aktivität hervorbringt. Der als einziger Konkurrent in Betracht kommende Algorithmus der verallgemeinerten Phasenmodulation ist in dieser Hinsicht als nachrangig zu bezeichnen.

 


 

Rückseite


© ZeM e.V. | ZeM Mitteilungsheft Nr. 26 - 2005

oblu obru
pix