Urban Acoustics: Wie Sound unsere Städte definiert

von Marko Vincent Reiß

Ein kleiner Park zwischen Hochhäusern, abgeschirmt durch Wände, die fast vollständig unter dichter Begrünung verschwinden. Der Boden besteht aus Naturstein. Tische und Bänke laden zum Verweilen ein. Über allem erhebt sich ein künstlicher Wasserfall, dessen Rauschen den Verkehrslärm aussperrt. Das ist der Paley Park, mitten in Manhattan, New York City. Eine Oase der Ruhe in der Stadt, die niemals schläft.

Im Vergleich zur Großstadt ist es auf dem Land relativ still. Als ich in einem Seminar die Aufgabe bekam, eine Soundscape (also die charakteristischen Umgebungsgeräusche eines Ortes) aufzunehmen, konnte ich mir nicht vorstellen, dass es etwas aufzunehmen gibt. Besagte Aufnahme entstand in der Grünanlage eines Wohngebietes außerhalb einer Kleinstadt, umgeben von einem knapp zehn Meter hohen Lärmschutzwall samt Begrünung. Erste Erkenntnis beim Abhören: Mir war nicht bewusst, dass es hier so viele Vögel gibt. Zweite Erkenntnis: Die Autos sind ja doch ganz schön laut.

Mit der hörbaren Verfasstheit von Umwelt beschäftigt sich die Forschungsrichtung der Acoustic Ecology. Wie ist unsere akustische Umgebung beschaffen? Wie verändert sie sich? Wie können wir sie verändern und dabei positiv beeinflussen? Geräusche und Klänge spielen eine nicht zu unterschätzende Rolle in der menschlichen Entwicklung und im Alltag. Der Klang um uns herum ist ein wichtiger Indikator für die Beschaffenheit von Umgebungen: Welche (anderen) Lebewesen gibt es? Wo befinden sich bestimmte Objekte? Aus welchen Materialien bestehen sie? Wenn ich durch Köln laufe, dann kann ich oft nicht einmal meine eigenen Schritte auf dem Beton hören. Das ständige Brummen von Motoren schließt jeden Menschen in eine eigene kleine Blase ein. Anhaltender Lärm schädigt unser Gehör, senkt unsere Lernfähigkeit, und verursacht Stress, der zu unzähligen Folgeerkrankungen führen kann.

Orte wie der Paley Park veranschaulichen einige wichtige Prinzipien, die Stadtplaner*innen berücksichtigen sollten. Der Park ist durch die umliegenden Gebäude vergleichsweise gut isoliert, was die Stadtgeräusche – ganz ohne zusätzliche Lärmschutzwände – mindert. Zusätzlich sind die Häuserwände, die ihn umgeben, begrünt. Gerade den Pflanzen kommt in der Stadtplanung eine wichtige Rolle zu: Sie wirken nicht nur lärmmindernd (bis zu 40 dB), indem sie Vibrationen aufnehmen, sondern bieten auch Lebensraum für Insekten und weitere Kleintiere und haben zudem einen kühlenden Effekt. Die Beschaffenheit von Oberflächen ist ebenfalls von Bedeutung. Weiche Materialien absorbieren mehr Schall und reduzieren damit die harten Echos, die man aus Häuserschluchten kennt. Außerdem sind sie durchlässiger als beispielsweise Beton und verhindern Überflutungen bei starkem Regen. Zu guter Letzt vermag der Wasserfall alle verbliebenen Störgeräusche zu übertönen. Leiser wird es dadurch nicht, aber die meisten Menschen würden zustimmen, dass rauschendes Wasser beruhigender wirkt als Motorenlärm.

Mit der fortschreitenden Urbanisierung wird es immer wichtiger, Städte auch in akustischer Hinsicht nachhaltig zu planen. Die hier vorgestellten Prinzipien markieren nur einen Ausschnitt aus den Ansätzen, die die Forschung seit einigen Jahren aufzeigt.

Verwendete Quellen:
The Acoustic City, hrsg. von M. Gandy und BJ Nilsen, Berlin 2014.
– Reeman Mohammed Rehan, The phonic identity of the city urban soundscape for sustainable spaces, HBRC Journal 12/3 (2016), S. 337-349.

Das Problem selektiver auditiver Aufmerksamkeit – oder warum Chion überholt ist

von Daniel Janz

Insbesondere in der Filmindustrie stellt das Tondesign eine große Herausforderung dar. Legen die den Klang gestaltenden Personen den Fokus auf das Gesprochene? Welche Bedeutung soll Hintergrundgeräuschen beigemessen werden? Und wie ist mit der Musik umzugehen, die noch über den Streifen gelegt wird?

Es gibt verschiedene theoretische Ansätze, sich dieser Problematik zu nähern. Ein bekannter Ansatz stammt von Michel Chion, der 1994 drei Hörkategorien postulierte, um die genannten Fragen beantworten zu können. Diese Kategorien, das Causal listening (Ursachenhören), das Semantic listening (Bedeutungshören) und das Reduced listening (reduziertes Hören nach Pierre Schaeffer), erscheinen wie eine Gebrauchsanweisung für Klanggestaltende. Chion unterteilt diese Kategorien nach unterschiedlichen Eigenschaften. So versteht er unter dem Causal listening das (An-)Hören eines Geräuschs, um etwas über dessen Ursprung zu erfahren und es ggf. mit visuellen Informationen in Verbindung zu bringen. Im Kontrast dazu stehen das Semantic listening, welches vornehmlich auf das Verständnis von Sprache gerichtet ist, und das Reduced listening mit seinem Fokus auf die Beschaffenheit eines Klanges losgelöst von dessen Quelle, was durch die ‚Fixierung‘ (also Aufzeichnung) des betreffenden Klangs begünstigt wird.

Dieser Versuch mag so ambitioniert wie notwendig sein, ist es doch im Bereich der Klanggestaltung eine große Herausforderung, welche Tonzusammenstellungen zu welchem Zeitpunkt in den Vordergrund zu rücken sind. Legt man besonders großen Wert auf die Sprachverständlichkeit? Spielt die Musik eine Rolle? Was ist mit dem kleinen Vogel, der im oberen Drittel des Filmbildes in einem Baum sitzt? Soll dessen Zwitschern überhaupt eingespielt werden, oder würde es den Modus des Causal listening überproportional bedienen? An diesem Beispiel wird das Problem von Chions Hörweisen deutlich: Es sind künstliche Kategorien für den Einsatz in einem Klanglabor, um ebenso künstliche Klangmischungen im filmischen Kontext herzustellen. Doch in Bezug auf die Realität finden sie ihre Grenzen. Denn Chion lässt ein entscheidendes Kriterium unberücksichtigt: die Fähigkeit des Menschen zur selektiven auditiven Aufmerksamkeit.

Das Cocktailparty-Phänomen zur Verdeutlichung selektiver auditiver Aufmerksamkeit

Die selektive auditive Aufmerksamkeit wurde als Begriff im Jahr 1958 durch u. a. Donald Eric Broadbent eingeführt und später von Anne M. Treisman 1960, Neville Moray 1970, und schließlich von Ulric Neisser 1974 verfeinert. Im Wesentlichen beschreiben diese Forschenden auf Basis empirischer Studien das Phänomen, dass Menschen in der Lage sind, in einer Geräuschkulisse nicht nur unterschiedliche akustische Quellen wahrzunehmen, sondern diese auch selektiv zu verstärken. Die menschliche Fähigkeit zur selektiven auditiven Aufmerksamkeit ist also dafür zuständig, dass wir spezifischen Geräuschquellen selbst bei großem Geräuschpegel folgen können. Am bekanntesten ist das so genannte Cocktailparty-Phänomen: Vielen dürfte das Problem bekannt sein, bei einem solchen Anlass mit dutzenden parallel verlaufenden Diskussionen den Faden bei der eigenen Unterhaltung nicht zu verlieren. Und trotzdem gelingt es uns Menschen, aktiv über lange Zeit einem Gespräch zu folgen und daran teilzunehmen – selbst wenn es von äußeren Störquellen konterkariert oder geräuschmäßig überlagert wird. Eine solche Unterscheidungsfähigkeit ist Maschinen bisweilen nicht gegeben.

Bei der weiteren Erforschung dieses Phänomens kam Vivien Tartter 1988 zu dem Ergebnis, dass bereits die Aufteilung von unterschiedlichen Reizen auf beide Ohren zu einer Verbesserung der Identifizierbarkeit einer Geräuschquelle sowie (bei Sprache) deren Inhalt hatte. Für Chions Ansatz bedeutet das: Die Art und Weise des Hörens ist nicht nur von der Art der Aufmerksamkeit bestimmt, sondern maßgeblich davon, welche Nebengeräusche aus welcher Richtung präsentiert werden. So lassen sich bereits erhebliche Verbesserungen der Verständlichkeit feststellen, wenn unterschiedliche Geräusche auf beide Ohren aufgeteilt werden. Ein Umstand, der das Causal listening zusammen mit dem Reduced listening nicht nur problematisch, sondern im letzten Fall sogar unmöglich gestalten würde. Tartters Forschungsergebnissen zufolge würde die Vernehmbarkeit eines Geräusches und das damit einhergehende Verständnis über dessen Ursprung verbessert werden, wenn es sich gegenüber anderen Geräuschquellen – entweder mechanisch oder durch selektive auditive Aufmerksamkeit verstärkt – durchsetzt.

In diesem Zusammenhang lässt Chion auch die zentralauditive Verarbeitung von Hörreizen außen vor. Letzteres Modell der Hörwahrnehmung stellt nicht nur da, dass ein Geräusch von außerhalb auf das Gehör eines Menschen (im Bottom-up-Prozess) wirkt, sondern dass auch Aufmerksamkeit, mentale Erwartung und Ergänzungen aus dem eigenen Erfahrungsschatz die Wahrnehmung jedes Geräuschs (im Top-down-Prozess) nachhaltig beeinflussen. Mit anderen Worten: Ein wie von Chion gefordertes reduziertes Hören ist nur Menschen möglich, die noch nie zuvor Geräusche gehört haben, sodass sie diese Sinnesreize nicht mit früheren Erfahrungen abgleichen können. Es ist zudem ein Widerspruch, den Chions Ansatz in sich selbst trägt, denn gerade seine Idee des Causal listening setzt einen bereits vorhandenen Erfahrungsreichtum voraus.

Darüber hinaus verkennt Chion das Phänomen der Immersion. Diese ist ein Feld für sich, das Johannes Scherzer 2010 in sechs Kategorien aufteilt, um die unterschiedlichen Dimensionen von Immersivität aufzuzeigen. So spricht er beispielsweise von narrativer, sensorischer, emotionaler und auch räumlicher Immersion – alles Phänomene, die ein Wechselspiel zwischen Sender und Empfänger voraussetzen, was Chion aber ausschließt. Darüber hinaus ist ein maßgeblicher Aspekt der sensorischen Immersion die Präsentation mit einem möglichst (im physikalischen Sinne) realen Raum. Insofern macht es also einen ganz erheblichen Unterschied, ob der im oberen Drittel des Filmbildes sitzende Vogel tatsächlich zu hören ist. Im Unterschied zu Chions Ansatz kann das Fehlen solch immersiver Momente sogar dazu führen, ein Filmerlebnis zu zerstören, anstatt es zu spezifizieren.

Es gäbe noch viele weitere Fragen zu Chions Hörmodell. Wie beispielsweise die Sprache selbst – sei es im Dialog filmisch zu sehender Personen, sei es durch einen Erzähler aus dem Off oder als Text – zu behandeln ist, bleibt (zumindest im hier diskutierten Text) ungeklärt. Dasselbe gilt auch für die Behandlung von Filmmusik. Es scheint, als wäre das Klangdesign in Chions Vorstellung eine sterile, abgeschottete Angelegenheit, die nichts anderes kennt als die Aneinanderreihung von Einzelgeräuschen. Dabei sollte – gerade auch im Hinblick auf die Immersion – gefragt werden, ob es nicht eher auf die gelungene Komposition der Klänge ankommt. Das Modell Chions ist damit als Anleitung zur Klanggestaltung im Film nur bedingt geeignet. Bei der Einführung von unterschiedlichen Ebenen der Hörwahrnehmung greift es zu kurz und schneidet sich an der Realität. Inwiefern so ein Konzept hilfreich oder überhaupt zutreffend ist, sei daher infrage gestellt. Über die nischenhafte Anwendung im Bereich des filmischen Tondesigns hinaus dürfte es jedenfalls wenige Anwendungsmöglichkeiten geben.

Verwendete Quellen:
– Michel Chion, Audio-vision: Sound on Screen, Kap. The Three Listening Modes, New York 1994.
– Shin-Lin Lin und Pi-Cheng Tung, A Modified Method for Blind Source Separation, in: Proceedings of the 6th WSEAS International Conference on Applied Computer Science, Tenerife, Canary Islands, Spain, December 16-18, 2006.
– Gernot-Andreas Nieder, Auditive Aufmerksamkeit, Seminararbeit Universität Wien 1999, S. 3-5.
– Johannes Scherzer, Der Tondramaturgische Raum als Gestaltungsmittel für die Immersive Ästhetik, Diplomarbeit Filmuniversität Babelsberg Konrad Wolf 2010.

Sonifikation: Anwendungsfälle datenbasierter Verklanglichung

von Lars-Andre Nießen

Hörbare Daten

Bei der Auswertung abstrakter Daten und ihrer Zusammenhänge hat sich über viele Jahre die Methode der Visualisierung, also der grafischen Aufbereitung in Form von z. B. Diagrammen, etabliert. Dabei ignorierte man lange die Tatsache, dass der Mensch ständig von Klängen umgeben ist und sich im Alltag an ihnen orientiert. Die Identifikation einiger Vorzüge des menschlichen Gehörs gegenüber dem Sehsinn sowie die Einsicht, dass die Überführung von Abstrakta in sinnlich Erfahrbares einen Erkenntnisgewinn herbeiführen kann, haben im Jahr 1992 Wissenschaftler_innen verschiedener Fachrichtungen im Rahmen der interdisziplinär ausgerichteten ersten internationalen Konferenz zum Auditory Display (ICAD) dazu veranlasst, eine Methode zu formulieren, nach der Datenbestände hörbar statt sichtbar gemacht werden sollten: die Sonifikation.

Das seitdem wachsende Interesse an der akustischen Datenanalyse ist keineswegs bloße Spielerei, sondern zeigt gewisse Vorteile gegenüber der Nutzung grafischer Repräsentationen gerade in Bereichen, in denen die Visualisierung an ihre Grenzen stößt. Die Sonifikation nutzt die menschliche Fähigkeit des holistischen, selektiven, lernfähigen, hochaufgelösten und omnidirektionalen Hörens, um mit hoher Empfindlichkeit verschiedene akustische Parameter, deren Veränderung und somit viele Informationen in kurzer Zeit aufnehmen und verarbeiten zu können. Sie eignet sich daher vor allem zur Analyse von Daten, die wegen ihrer Menge visuell schwer erfassbar sind und daher Zusammenhänge im umfangreichen Datensatz möglicherweise kaum erkennen lassen.

Je nach Einsatzbereich, Datengrundlage und beabsichtigtem Klangergebnis haben sich verschiedene Sonifikationstechniken etabliert. So bezeichnet man als Audifikation mehrere Verfahren, um die zeitliche Abfolge vieler Daten mit periodischen Komponenten direkt in Klang zu überführen (beispielsweise seismische oder neurophysiologische Daten mit Hilfe der Elektroenzephalografie). Sogenannte Auditory Icons und Earcons verklanglichen nicht direkt Daten, sondern ein datengetriebenes Ereignis, und werden daher als akustische Ereignismarker in der Mensch-Maschine-Interaktion eingesetzt. Bei der Parameter-Mapping-Sonifikation überträgt man Datenattribute auf klangliche Parameter (Tonhöhe, Tondauer, Rauschanteil usw.), sodass auch komplexe Datensätze akustisch dargestellt werden können. Die modellbasierte Sonifikation ermöglicht die explorative Analyse großer Datenmengen durch die Transformation des Datensatzes in ein virtuelles, interaktives Klangobjekt.

Frühe Sonifikationen

Was zunächst äußerst theoretisch anmuten mag, erfreut sich in den letzten Jahren der praktischen Erprobung in immer neuen Anwendungsbereichen. Obwohl die Wissenschaft erst seit einigen Jahren die Vorzüge der Sonifikation konsequent zu nutzen lernt, ist die Technik älter, als man es auf den ersten Blick vermuten würde. Ein frühes Beispiel der Datensonifikation präsentierte der Psychoakustiker Sheridan D. Speeth 1961 mit seinen „Seismometer Sounds“. Anhand dieser Methode zur Audifizierung und leichteren Analyse aufgezeichneter seismischer Aktivitäten machte sich Speeth die Ähnlichkeit von seismischen und akustischen Wellen zunutze, um damit natürliche Erdbeben von den Folgen nuklearer Tests unterscheiden zu können. Dies war vor allem im Kalten Krieg von Bedeutung, da die besagten Tests aufgrund des sonst anfallenden radioaktiven Niederschlags zumeist unterirdisch durchgeführt wurden und somit visuell schwer zu beobachten waren. Seismische Ereignisse werden bis heute – häufig in einer Mischung aus akustischer und optischer Datenschau – nach diesem Muster festgehalten.

Ein anderes frühes Beispiel der Sonifikation, das noch älter und ebenfalls mit Radioaktivität verbunden ist, ist das Geiger-Müller-Zählrohr, verkürzt Geigerzähler genannt. Das Zählrohr dient dem Aufspüren radioaktiver Strahlung, indem es die beim radioaktiven Zerfall auftretenden Gammastrahlen detektiert und in hörbare Impulsfolgen übersetzt.

Aktuellere Anwendungsbeispiele

Als akustische Form der Datenrepräsentation und damit als klingendes Pendant zur Visualisierung nehmen die Einsatzbereiche der Sonifikation stetig zu. Es ist unmöglich, hier einen Überblick über sämtliche Anwendungsgebiete zu geben. Dennoch sollen im Folgenden einige Bereiche exemplarisch benannt werden, in denen die Sonifikation intentional und analytisch eingesetzt wird, sowohl im Sinne einer eigenständigen Repräsentationstechnik als auch in Ergänzung diverser Visualisierungsstrategien. Im letzteren Fall entstehen hybride und multisensorische Repräsentationen.

Sonifikation setzt vor allem da an, wo sie wegen der Datenmenge eine sinnvolle Alternative bzw. Ergänzung zu visuellen Darstellungsformen liefern kann. Beispielsweise lassen sich Sportbewegungen sonifizieren, wodurch Sportler_innen akustische Rückmeldungen zur Ausführung zyklischer Bewegungen erhalten und ein Trainer die sportliche Aktivität besser überwachen kann. Dies eignet sich besonders für Sportarten, bei denen zur Analyse des Bewegungsablaufs viele verschiedene sensorisch erfasste Messgrößen möglichst detailliert registriert und dargestellt werden sollen. Entsprechendes geschieht etwa wie bei der Sonifikation von Ruderbewegungen oder in Situationen, in denen ein Außenstehender nur eingeschränkte Sicht auf das Geschehen hat, z. B. im Schwimmsport.

Solche und ähnliche Verfahren bieten sich ebenfalls für medizinische Rehabilitationsmaßnahmen an. Patient_innen vermögen Bewegungsabläufe neu zu erlernen und durch klangliches Feedback zu verbessern.

In Bereichen, in denen viele Daten anfallen, z. B. bei Big-Data-Analysen, kann die Sonifikation eine effiziente und effektive Möglichkeit zur explorativen Datenanalyse darstellen, die Zusammenhänge schnell erkennen lässt. In der Analyse von Logistikprozessen können durch Sonifikation zeitliche Korrelationen innerhalb der Datenstruktur besser abgebildet und verstanden werden.

Da das Bedienen komplexer Maschinen der multisensorischen Aufmerksamkeit bedarf, verwundert es nicht, dass auch die Industrie Sonifikationstechniken für sich entdeckt hat und überall dort einsetzt, wo das Gehör Informationen aufnehmen muss, die das Auge in einem gegebenen Moment nicht erfassen kann, weil die Aufmerksamkeit gerade anders ausgerichtet ist. Den meisten Nutzer_innen fällt dies kaum noch auf, zumal wir solche Geräusche in unseren Höralltag integriert haben. Insbesondere beim Autofahren findet man sich vielen Eindrücken ausgesetzt, die situativ auf verschiedene Sinne verteilt werden müssen. So gibt uns ein Blinkergeräusch Rückmeldung darüber, dass wir einen Abbiegevorgang ankündigen. Und moderne Parkassistenten geben die Entfernung zum nächsten Objekt in Gestalt einer klanglichen Impulskette wieder.

Die Sonifikation als Interaktionshilfe trifft man auch abseits massenindustrieller Kontexte an, z. B. bei der Interface-Entwicklung für die Blindenkommunikation. Techniken der Sonifikation ermöglichen sehbehinderten Menschen zudem die Ausübung von Sportarten, die zur präzisen Durchführung den Sehsinn erfordern würden, wie es etwa beim Biathlon der Fall ist. Durch eine Entfernungssonifikation erhalten blinde Sportler_innen am Schießstand Echtzeitinformationen über die Entfernung zur Zielscheibe.

Sonifikation im multisensorischen Kontext

Viele der genannten Anwendungsbeispiele zeigen, dass Sonifikationen häufig dann sinnvoll sind, wenn es darum geht, zahlreiche Informationen multisensorisch zu verarbeiten und dabei die Reizdichte auf einem Sinneskanal zu minimieren. Im Unterschied zum Visual Display funktioniert das Auditory Display nicht bereichsbeschränkt, sondern omnidirektional, was Klang zu einem geeigneten Träger wichtiger Zusatzinformationen macht. Hybride Darstellungsformen aus Klang und Grafik könnten hier den größten Nutzen bringen. Neurolog_innen der Duke University legen in einer aktuellen Studie nahe, dass sich das Gehör aus physiologischen und kognitiven Gründen in seiner Aufmerksamkeitslenkung am Sehsinn orientiert. Ohr und Auge sind demnach gewissermaßen neurologisch gekoppelt, weshalb sich das Trommelfell in Abhängigkeit von der Blickrichtung auszurichten scheint. Für die Zukunft von Sonifikationsverfahren könnte diese Erkenntnis bedeuten, dass nicht nur der zeitlich-klingenden Dimension, sondern vor allem der räumlichen Dimension steigende Bedeutung beigemessen werden müsste.

Verwendete Quelle:
The Sonification Handbook, hrsg. von Th. Hermann, A. Hunt und J. G. Neuhoff, Berlin 2011.

Eine Ökologie des Akustischen

von Lars-Andre Nießen

Klang nimmt in der Kommunikation von Stimmung, Bedeutung und Kontext eine zentrale Rolle ein. Jeder dürfte es schon erlebt haben, dass uns sowohl in der Realität als auch in virtuellen Welten das Hören einer Soundscape, d. h. einer spezifisch beschaffenen akustischen Umgebung, gedanklich oder körperlich beeinflusst hat. Medial konstruierte Soundscapes, etwa in Filmen oder Hörspielen, vermögen uns in Windeseile an einen anderen Ort oder in eine andere Zeit zu versetzen. Phänomene wie diese können sowohl unbewusst als auch beim bewussten Hinhören auftreten. Die Bewusstwerdung von klingenden Umgebungen ist Dreh- und Angelpunkt der akustischen Ökologie. Angestoßen wurde diese Forschungsrichtung vom kanadischen Komponisten und emeritierten Professor für Kommunikationswissenschaft Raymond Murray Schafer in den späten 1960er-Jahren. Ausgehend von der Dominanz einer Kultur des Sehens formulierte er die Sorge um immer weiter abnehmende auditive Fertigkeiten. Eine Lösung für das Problem erblickte er darin, spezielle Formen der Gehörschulung im Curriculum von Bildungsinstitutionen zu verankern und so die sonologische Kompetenz und das Klangbewusstsein der Gesellschaft zu schärfen. An der Simon Fraser Universität in der Nähe Vancouvers initiierte Schafer das World Soundscape Project, ein international ausgerichtetes Forschungsvorhaben, das sich ganz der Dokumentation und Analyse akustischer Umwelten widmete. Entsprechende Ergebnisse machte er 1977 in seinem wohl bekanntesten Buch The Tuning of the World publik, in dem er unter anderem vorschlug, dass der Mensch seine akustischen Lebensräume gleich einer musikalischen Komposition behandeln und verantwortungsvoll gestalten sollte.

Die Soundscape und ihre Eigenschaften

Ist heutzutage von Soundscapes die Rede, sind damit zuweilen auf Naturaufnahmen basierende Klangkompositionen gemeint. Doch als Schafer den Begriff prägte, bezeichnete er damit viel grundlegender die Charakteristik bereits existenter tönender Umgebungen. Schafer und seine Mitarbeiter wollten die umgebungsbestimmenden Klangereignisse analytisch beschreiben und definierten dazu drei Klangtypen, die in einer Soundscape auftreten können: den Grundlaut (Keynote), den Signallaut (Sound signal) und den Orientierungslaut (Soundmark). Der erste Klangtypus bezeichnet konstant vorhandene Hintergrundgrundgeräusche in Analogie zur musiktheoretischen Funktion des Grundtons, welcher die Tonalität eines Stückes bestimmt. Der zweite Klangtypus umfasst vordergründige Geräusche, die die Aufmerksamkeit des Hörenden binden (z. B. Kirchenglocken und Sirenen). Orientierungslaute, die besonders für Gemeinschaften von Bedeutung und regionalspezifisch sind, wurden – in Anlehnung an Landmarken – Soundmarks genannt. Sie bilden den dritten Klangtypus (z. B. Glockenklänge von Weidetieren und traditionsbasierte Klänge). Das Zusammenspiel dieser Klangereignisse ermöglicht die Identifizierung einer ortsgebundenen Soundscape, ähnlich der Identifikation von Ortschaften anhand der lokalen Architektur oder Kleidung.

Seit Beginn der industriellen Revolution seien diese charakteristischen Soundscapes nach und nach in homogenem Lärm untergegangen. Der angenommene Kontrast zwischen präindustriellen und postindustriellen Soundscapes führte Schafer zu einer weiteren Unterscheidung, und zwar in Hi-Fi- und Lo-Fi-Soundscapes.

Hi-Fi-Soundscapes zeichnen sich ihm zufolge dadurch aus, dass Klänge einander wenig überlagern und einen distinkten Vorder- und Hintergrund bilden, wodurch sie als eigene Entitäten wahrgenommen werden können. Schafers Analysen, aber auch spätere Untersuchungen von Naturforschern wie Bernie Krause, deuten darauf hin, dass über längere Zeiträume Frequenznischen entstehen, die von unterschiedlichen Lebewesen besetzt werden. Durch urbane Expansion laufen Tierpopulationen Gefahr, vertrieben zu werden oder auszusterben, da der Stadtlärm die spektralen Nischen für Paarungsrufe sowie weitere Kommunikationslaute übertönt. Wegen der Distinktheit von Schallereignissen in Hi-Fi-Soundscapes lassen sich nahezu alle Frequenzen deutlich vernehmen. Der akustische Horizont ist vergleichsweise weit.

In Lo-Fi-Soundscapes hingegen finden sich viele Klänge maskiert, sodass wichtige akustische Informationen verloren gehen und sich dadurch der Hörraum stark verkleinert – bis hin zur vollständigen Isolation des Hörenden von seiner Umgebung. Im ungünstigsten Fall verwandelt sich alle akustische Information in Anti-Information, oder einfach gesagt: in Lärm. Während Hi-Fi-Soundscapes also bezüglich Lautstärke, Spektrum und Rhythmus ausgeglichen sind, errichten Lo-Fi-Soundscapes eine isolierende, vor allem tieffrequente Geräuschwand.

Bernie Krause über Soundscapes und Tierstimmen:

Die Soundscape in der Gesellschaft

Aus Sicht der akustischen Ökologie ist Klang Träger von Informationen und Mediator zwischen Individuum und Umwelt. Je weiter sich die Soundscapes industrialisierter Landstriche in Richtung Lo-Fi bewegen, desto weniger Bewusstsein gibt es für die klanglichen Details der Umgebungen und desto eindimensionaler erscheinen sie, bis sie sich nur noch entlang von Gegensatzpaaren wie laut – leise, wahrnehmbar – nicht wahrnehmbar oder gut – schlecht unterschieden lassen. Je mehr Natur der Industrialisierung und Urbanisierung zum Opfer fällt, desto weniger Bedeutungen halten akustische Umgebungen bereit. Somit nimmt es nicht wunder, dass Menschen beispielsweise mittels Doppelverglasung (bauliche Isolation) oder stationären und mobilen Musikabspielgeräten (Isolation durch Musik als virtuelle Soundscape) nach Wegen suchen, ihre akustische Umwelt zu kontrollieren und durch eigene Hi-Fi-Soundscapes zu ersetzen. Psychologisch gesehen eröffnet sich durch Musik, wenn man sie als eine Art Audioanalgetikum nutzt, die Möglichkeit zur Wiederherstellung von Emotionalität, da in Lo-Fi-Soundscapes die Gefühlsexpression gehemmt ist und stressbedingte Erkrankungen gefördert werden. Unter Verwendung technisch gespeicherter Musik wird die akustische Umgebung aber auch zur Ware. Angesichts der weltweiten Distribution von Sprache und Musik durch Sendeanstalten sprach Schafer von einem akustischen Imperialismus und erfand zur Beschreibung der Dissoziation zwischen ursprünglichem Klang und seiner Reproduktion den Begriff der Schizophonie. Befragungen zufolge seien technisch reproduzierte und verstärkte Klänge, gefolgt von Verkehrslärm, eine wesentliche Ursache für persönliche Frustration und Nachbarschaftsstreitigkeiten. Schafer nahm an, dass zwischen den Mitgliedern einer Gemeinschaft ein Lautstärkekampf herrscht, welcher wiederrum als Lärmgenerator wirkt, sodass die Umgebungslautstärke pro Jahr um 0,5 bis 1 dB steigt. Bis heute setzt sich Schafer für eine Verfeinerung der Hörfähigkeit sowie die Wertschätzung von Naturgeräuschen ein. Er plädiert für eine gezielte Gestaltung urbaner Lebensräume, die die Hörkompetenz von Individuen begünstigt und der lärmbedingten Energieverschwendung entgegenwirkt.

Murray Schafer über seine Tätigkeit als Komponist und die (akustische) Umwelt:

Verwendete Quellen:
– Kendall Wrightson, An Introduction to Acoustic Ecology, Soundscape: The Journal of Acoustic Ecology 1/1 (2000), S. 10-13.
– R. Murray Schafer, The Soundscape: Our Sonic Environment and the Tuning of the World, Rochester 1994 (1977).

Omnipräsound

von Janika Achenbach

Auf dem Weg nach Hause in der Straßenbahn. Gerade war Sound Studies-Kurs. 20 Minuten für mich, meine Kopfhörer und Spotify. Herrlich!

Später dann ist Filmeabend mit Mikrowellenpopcorn. Als ich die Steckdosenleiste anschalte, geht nicht nur die Mikrowelle an, sondern auch das Radio. Dort verspricht mir der Moderator den Sound der 80er, gefolgt von Sound of Silence und dem unverwechselbaren Sound eines Künstlers. Mit Popcorn bewaffnet also zurück Richtung Fernseher. „Oh, ProSieben“, bemerke ich die Senderauswahl meiner Mitbewohnerin, ohne das Bild gesehen zu haben. „Ja, da kommt ein guter Film.“ Gelangweilt von dem Film – es passiert aber auch wirklich nichts Spannendes, und alles dauert so lange! – widme ich mich meinem Handy und bemerke etwas später, dass Werbepause ist. Den Blick nicht vom Handy gewandt, weiß ich trotzdem, wo und was ich kaufen soll: ein Heimkino-Soundsystem oder einen Computer mit Intel-Prozessor. Brauche ich gerade nicht, danke. Im Abspann des Films tauchen Regisseur, Drehbuchautor und Sounddesigner auf. Im Vorspann zur folgenden Serie, die ich im Schlaf an ihrem Sound erkennen würde, höre ich die Handschrift des Sounddesigners ganz bewusst heraus.

Sound ist omnipräsent in unserem Alltag. Die Bedeutungen des Begriffes sind vielfältig. Je nach Kontext kann Sound verstanden werden als:

– Schall allgemein;
– Tonebene der elektronischen Medien;
– Geräusch- oder Klangeffekt;
– spezifisch gestalteter Klang einer Ware, eines Industrieprodukts, einer Marke oder eines Unternehmens;
– akustischer Indikator für technische Verfahrensweisen (z. B. Röhren-Sound);
– charakteristische Klangfarbe oder Klangqualität von Musik;
– qualitatives Bewertungskriterium akustischer Vorgänge überhaupt.

Es beschäftigen sich verschiedene Fachrichtungen mit Sounds, darunter Musikwissenschaft, Medienwissenschaft, Psychologie, Ökonomie oder die Ingenieurwissenschaften. In der Musikwissenschaft spielt die Diskussion des Sounds eine immer größere Rolle, seitdem elektronische Gestaltungsmöglichkeiten für Musik bestehen. Ursprünglich stammt der Begriff aus dem Bereich des Jazz und bezeichnet dort den ‚unnachahmlichen‘ Klang eines Künstlers. Auch im heutigen Sprechen über populäre Musik lässt sich diese Verwendungsweise genreübergreifend beobachten. Doch längst hat die Rede vom Sound das Feld der Musik verlassen. In der Medienwissenschaft findet eine Verschiebung von der rein visuellen zur audiovisuellen Betrachtungsebene statt. Bei der industriellen Fertigung verschiedenster Geräte sollen Sounds deren Benutzung vereinfachen und unterstützen. Das Akustikdesign ist darauf aus, die akustischen Eigenschaften eines Raumes zu verbessern und damit das Wohlbefinden beim Aufenthalt zu steigern, etwa in einem Geschäft zur Maximierung der Einkaufsbereitschaft. Ebenfalls psychologisch relevant sind die Auswirkungen gegenwärtiger Soundscapes – inklusive Lärm – auf den Menschen. Die Soundscape-Forschung bzw. akustische Ökologie ist ein transdisziplinäres Forschungsgebiet. Es befassen sich Geographen, Historiker, Soziologen, Psychologen, Pädagogen, Musikwissenschaftler, Akustiker, Kulturwissenschaftler, Ethnologen, Architekten, Stadtplaner und andere Fachleute mit Wandel, Gestaltung und Analyse der uns umgebenden akustischen Umwelten. Um die Lärmbelastung zu minimieren, gibt es Überlegungen, die vorhandenen Klänge gezielt zu gestaltet, keinen unnötigen Schall zu produzieren und die Lautstärke des vorhandenen Schalls einzudämmen.

Dem hörenden Menschen erscheint die auditive Wahrnehmung als grundlegend. Hören ist das Instrument räumlicher Ortung und Orientierung. Deswegen sind Warnvorrichtungen wie Sirenen und Martinshörner wichtige Mittel der akustischen Kommunikation. In diesem Zusammenhang ist es interessant, dass der Begriff des Hörens verschiedene Facetten aufweist. Allein der Unterschied zwischen Hören und Zuhören, obwohl lediglich durch zwei Buchstaben markiert, ist nicht marginal. Das konzentrierte, aktive Zuhören fällt vielen Menschen immer schwerer, was an den Sendeformen der Massenmedien liegen mag. Im Diskurs gibt es die Unterscheidung zwischen wertvollem Hören (gewolltem Zuhören) und nicht-wertvollem bzw. erzwungenem Hören. Musik ist immer und überall verfügbar und wird somit auch viel gehört. Doch geschieht dies häufig nicht aktiv, sondern eher nebenbei. Rundfunk, Fernsehen und andere Mediendispositive konstituieren einerseits unsere akustische Realität. Andererseits ermöglichen sie die Flucht aus ihr. So kann durch Kopfhörer ein privater akustischer Raum geschaffen werden, der die Außengeräusche weitgehend ausblendet.

Medienhistorisch betrachtet war das Radio soundmäßig lange Zeit weiter als das Fernsehen, zum Beispiel im Hinblick auf die Verwendung stereophoner Sendeformate. Seitdem Fernsehgeräte weitaus bessere Möglichkeiten der Klangwiedergabe besitzen, sind die Gestaltungsoptionen vielfältiger geworden. Heutzutage zeichnen Sounddesigner für die klangliche Einrichtung verschiedener Medien wie Hörspiel, Film oder Videospiel verantwortlich. Praktisch beschäftigen sie sich unter anderem mit der Frage, wie Sounds Emotionen beeinflussen, visuelle Reize verstärken oder auch abschwächen können.

Verwendete Quelle: Frank Schätzlein, Sound und Sounddesign in Medien und Forschung, in: H. Segeberg und F. Schätzlein (Hg.), Sound. Zur Technologie und Ästhetik des Akustischen in den Medien, Marburg 2005, S. 24-40.