Klang und Schall – Lebenswelt und Wissenschaft

von Katharina Makosch

Was ist Sound? Die Frage ist schwer eindeutig zu beantworten, da dieser Begriff in einem großen Spektrum an Bedeutungen verwendet wird. So kann er den spezifischen Sound von Bands oder Musiker*innen bezeichnen, generell als „Klang“ oder „Schall“ übersetzt werden, oder auch in Bezug auf audiovisuelle Medien die „Tonebene“ meinen.

In der Fachliteratur lassen sich zwei grundsätzliche Definitionsansätze unterscheiden: Auf der einen Seite handelt es sich um eine physikalische bzw. akustische Herangehensweise. Dabei wird Sound durch Begriffe wie Schallwellen, Frequenzen oder auch Schwingungen beschrieben. Nach diesem ersten Ansatz kann Sound vermutlich am treffendsten mit „Schall“ übersetzt werden. Auf der anderen Seite finden sich diverse phänomenologische Ansätze. In diesen wird Sound als wahrgenommenes Phänomen in kulturell-historischen oder auch subjektiven Kontexten diskutiert und kann besser mit dem nicht zwangsläufig naturwissenschaftlichen Begriff „Klang“ übersetzt werden.

Auch wenn einige von uns sich nicht besonders gut mit Akustik auskennen, haben wir aller Wahrscheinlichkeit nach schon einmal von Frequenzen oder Schallwellen gehört und erkennen an, dass sich das, was wir hören, mit diesen Mitteln beschreiben und analysieren lässt. Phänomenologie hingegen ist für viele Menschen zunächst nur ein Zungenbrecher. Um den phänomenologischen Definitionsansätzen von Sound mehr Kontext zu geben, sollen sie hier in das Konzept der Lebenswelt eingeordnet werden.

Der Begriff der Lebenswelt wurde stark von Edmund Husserl geprägt, welcher als Begründer der Phänomenologie gilt. In der Phänomenologie geht es, vereinfacht gesagt, um Bewusstsein und Erlebensarten. Was also ist die Lebenswelt? Husserl beschreibt sie als „das Allerbekannteste“ und „im menschlichen Leben Selbstverständliches“; die Lebenswelt ist uns „durch Erfahrung vertraut“ (Husserl 2012, S. 133). Sie umfasst unsere Wahrnehmung, unsere Wertvorstellungen, unsere Erfahrungen und Erinnerungen etc., ist also die Welt, in der wir selbstverständlich leben. Husserl verwendet sie allerdings als Allgemeinbegriff, der konkret verschiedene Ausprägungen haben kann. Unsere Wahrnehmungen und Wertvorstellungen können sich inhaltlich, intersubjektiv und interkulturell unterscheiden, aber dass wir die Welt wahrnehmen, haben wir als Menschen gemeinsam.

Das Phänomen Klang diskutiert Husserl in Die Krisis der europäischen Wissenschaften und die transzendentale Phänomenologie als „Fülle“ (Husserl 2012, S. 30). „Füllen“ sind für ihn spezifische sinnliche Qualitäten, die wir an Körpern in der Welt erfahren bzw. erleben können. So hören wir zum Beispiel das Ticken einer Uhr und nehmen wahr, dass das Ticken von der Uhr ausgeht. Unter Umständen gehen damit auch Bewertungen einher: Das Ticken kann mir gefallen, es kann mich aber auch stören. Neben generellen Vorlieben und Abneigungen spielt hier auch der konkrete Kontext eine Rolle: Stehe ich unter Zeitdruck, kann mir das Ticken meinen Stress vor Augen führen und diesen sogar noch verstärken.

Das Ticken einer Uhr oder beliebige andere Klänge lassen sich allerdings auch akustisch bzw. naturwissenschaftlich beschreiben. Für diese Herangehensweise ist es irrelevant, was das Ticken der Uhr für hörende Subjekte bedeutet. Aber ist eine „objektive“ Beschreibung dadurch richtiger oder besser? Hierzu lohnt es sich, sich mit Husserls Kritik an den Naturwissenschaften zu beschäftigen. Dabei ist es wichtig, zu betonen, dass Husserl wissenschaftliche Erkenntnisse nicht leugnet und seine Kritik nicht ablehnend, sondern begründend ist.

Der Begriff der Wissenschaft, auf den sich Husserl bezieht, umfasst die Naturwissenschaften seit Galileo Galilei. Damit einher geht die Vorstellung, dass die Natur mathematisierbar bzw. idealisierbar sei. Geometrisch gesehen ist es sinnvoll, von exakt runden Kreisen auszugehen, auch wenn diese in der Natur nie exakt rund sind. Dies macht einen exakt runden Kreis allerdings auch zu einem unerreichbaren Ideal. Da weder solche Kreise noch Atome oder Schallwellen uns anschaulich in der Lebenswelt begegnen, nimmt die Wissenschaft für Husserl den Status einer Hinterwelt an: Unser Wissen darum, dass ein Klang, den wir hören, durch Schallwellen zustande kommt, bleibt abstrakt, da uns lediglich unsere Wahrnehmung des Klangs gegeben ist.

Die Füllen, d.h. die sinnlichen Qualitäten, die wir wahrnehmen können, sind nach Husserl allerdings nicht mathematisierbar. Zunächst erscheint es wenig intuitiv, dass eine akustische Beschreibung von Klang also nicht angemessen sein soll. Aber stellen wir uns vor, wir wollten das Küssen einer geliebten Person beschreiben. Es wäre möglich, die exakten Druckverhältnisse, den Speichelfluss, die im Körper wirkenden Hormone etc. physikalisch-naturwissenschaftlich zu bestimmen. Die gesammelten Daten würden im Endeffekt jedoch nicht abbilden, wie wir den Kuss erleben. In Bezug auf Klang könnten wir zum Beispiel analysieren, was einen Jumpscare, also ein visuell und auditiv urplötzlich auftretendes Ereignis in audiovisuellen Medien, akustisch ausmacht. Die Daten an sich würden uns aber nicht erschrecken.

Dennoch macht gerade die Selbstverständlichkeit, mit der wir davon ausgehen, dass Töne ‚eigentlich‘ Schwingungen sind, deutlich, dass Hinterwelten immer auch Teil der Lebenswelt sind. Nur weil das Erleben von Phänomenen nicht mit deren naturwissenschaftlicher Beschreibung übereinstimmt, heißt dies nicht, dass wissenschaftliche Forschung keinen Platz in der Lebenswelt hat. Das Gegenteil ist der Fall: Die Wissenschaften sind insofern in der Lebenswelt begründet, als deren praktischer Nutzen lebensweltliche Relevanz hat. Haben wir Jumpscares naturwissenschaftlich analysiert, können wir uns dies zunutze machen, um zum Beispiel einen Horrorfilm so zu vertonen, dass die Zuschauer*innen noch stärker zusammenzucken.

Im Rückgriff auf Husserl lässt sich somit festhalten, dass naturwissenschaftliche Methoden und Erklärungen von Klang in unserem Leben einen Nutzen haben. Dabei sollten unsere Lebenswelt(en) und die damit verbundenen Wahrnehmungen allerdings nicht in Vergessenheit geraten. Das Erleben von Klang ist zwar nicht objektiv, aber gerade deshalb darf es nicht als irrelevant abgewertet werden.

Verwendete Quelle:
Edmund Husserl, Die Krisis der europäischen Wissenschaften und die transzendentale Phänomenologie, Hamburg 2012, S. 21-58, 111-143.

Exploring the Narrative Aspect of Video Game Soundscapes

by Melisa Sen

Once upon a time there was a curious reader who stumbled upon a blogpost about how sound conveys narrative in video games. Whenever a story is being told, there are many dimensions that go into its narration. Whether it is a fairy tale, a movie or a video game, the sonic dimension is one of the most important ones. Of course, the most obvious aspect that comes to mind is narrative storytelling. While it is possible in recorded media to have a narrator’s voice tell the story, a more unique form of narration is found when different layers of sound are involved. Most modern video games have a story world with its own narrative time and space that is shaped by the game’s sound dimension. Additionally, a game has rules and those rules have narrative meaning, which suggests that when a sound is attributed to said rules, the sound itself acquires narrative meaning.

Certainly, the goal to combine visual and aural information, while also adding the element of interactivity, is best possible within the video game format. This in turn creates different layers of sound, which – according to Sebastian Domsch – are able to further advance the narrative. First, there is the diegetic layer. This layer consists of all the sounds that are contained within the fictional world one might hear like heavy rainfall and footsteps. It is also important to make the distinction between what is a non-interactive sound native to the game world (heavy rain) and an interactive sound that is created by the player (footsteps). The main purpose of the diegetic sound is to convey the message: “something is happening or has happened in the game world”.

Related to that is the extradiegetic layer, which consists of sounds that are intended to be heard only by the player but serve as a background sound, for example a musical theme. Determining the non-interactivity is a bit trickier in this case as it varies from game to game. Some games may have a continuous soundtrack on loop, others may change it depending on the player’s actions. However, with the latter the player is usually not supposed to pick up on it. By creating multiple short themes that can be looped and transitioned into one another, a video game can create a sound system so complex that it is able to follow the activity of random player choices with ease. Music can be a very powerful expression of narrative storytelling. A highly energetic piece accompanying an intense battle does not only make for a better gaming experience; it also marks the significance that beating the enemy has on the overall story.

Unique to video games is the ludic sound layer. It contains interactive sounds that signify the player’s actions, for example entering a menu. These sounds are exclusive to the player and are important to indicate the impact they have on several game situations. Making the player’s actions audible gives them meaning. For the most part, ludic sounds are interactive. In some cases, however, they are meant to alert the player to important game information, for example the sound that plays when a character’s health gets dangerously low. The purpose of the ludic sound is to convey the message: “you have done something”.

Truly, sound in video games has come a long way. Due to technical limitations it was not always possible to convey diegetic sounds in a quasi-realistic way, which caused some of them to be perceived as ludic when they were not meant to be. Nowadays, this has shifted. There is an increase in ludic sounds being presented as diegetic that has caused a gray-area to appear within the layers of sound. Such sounds can be described as ‘ludic-diegetic’, with the purpose to convey the message: “you have made something happen in the game world”.

To make all these concepts easier to grasp there is a good example of a short video game clip, in which each of the above-mentioned sound layers can be distinguished. It is advised to first watch the video and listen for distinct sounds before replaying it while reading the analysis below. Said analysis attempts to identify every new sound that is introduced with its respective time stamp. The game in question is The Legend of Zelda: Breath of the Wild (Nintendo 2017), being played on the Nintendo Switch. The playable character’s name is Link and the enemy he is fighting is called a Guardian.

00:00 Ambient sound of heavy rainfall (diegetic/non-interactive)

00:00 Link’s footsteps transitioning from a wet wooden bridge to a wet and grassy terrain (diegetic/interactive)

00:02 Link is sheathing and unsheathing a weapon (diegetic/interactive)

00:04 Distinct sound of wind blowing (diegetic/non-interactive)

00:06 Link making noises while moving (diegetic/interactive)

00:07 A bird’s shrill screeching sound (diegetic/non-interactive)

00:08 Link’s footsteps being quieter as he is crouching (diegetic/interactive)

00:12 Link’s gear is rumbling while sprinting (diegetic/interactive)

00:21 Link’s footsteps while walking down a hill and then through puddles (the splashes are more distinct) (diegetic/interactive)

00:27 Player targeting the Guardian (as indicated by an orange arrow pointing at the enemy) (ludic/interactive)

00:31 The Guardian theme starts playing when Link is noticed (extradiegetic/interactive)

00:33 Sound of the Guardian preparing its attack (indicated by the red laser) (diegetic/non-interactive)

00:39 Sound of the Guardian attacking Link (diegetic/non-interactive)

00:39 Sound of an explosion as Link is hit (diegetic/non-interactive)

00:40 Sound to indicate that Link’s health bar (in the top left corner) is very low (ludic/non-interactive)

00:41 Player opens inventory (ludic/interactive)

00:45 Player is selecting which food item to eat (ludic/interactive)

00:49 Player selects item (ludic/interactive)

00:49 Player confirms their selection (ludic/interactive)

00:50 Link is heard making eating sounds (diegetic/interactive)

00:58 Link perfectly parries the Guardian’s attack (indicated by a slow-motion effect) (ludic-diegetic/interactive)

01:12 Sound of the Fairy (an item that is able to resurrect Link) being activated (ludic/non-interactive)

01:19 Link does not perform a perfect parry and the explosion is redirected to the ground (diegetic-interactive)

01:19 Sound to indicate that the shield broke (ludic/non-interactive)

01:22 Player enters the small gear specific menu (ludic/interactive)

01:23 Player confirms selection (ludic/interactive)

01:24 Sound to indicate that the shield is badly damaged (ludic/non-interactive)

01:24 Link draws his bow (diegetic/interactive)

01:26 Link fires his bow but misses (diegetic/interactive)

01:39 Link makes a noise while he jumps (diegetic/interactive)

01:43 Link hits the Guardian in the eye (critical spot) with an arrow (ludic-diegetic/interactive)

01:49 Link hits the Guardian with his weapon (diegetic/interactive)

01:51 Link hits the Guardian with an arrow (diegetic/interactive)

02:11 Link defeats the Guardian (ludic-diegetic/interactive)

02:12 The Guardian theme concludes with a prominent ending (extradiegetic/interactive; ludic-diegetic)

02:22 Link is picking up items (ludic/interactive)

The analysis shows a pattern, which basically substantiates Domsch’s typology. The diegetic and non-interactive sounds are always ambient noises that paint the soundscape of the story world. Link’s sounds are always diegetic and interactive, since the evolution of video game sound has made it possible to create realistic sounds and the player is actively controlling Link. Regarding the extradiegetic layer of the music, Breath of the Wild is also based on an interactive system, because the music started when the fight began, continued when the player was in the menu and ended when the player defeated the Guardian. All of the player sounds are ludic and interactive, seeing as how they are only heard by them and are designed to give aural feedback to their actions. Whenever sound was specifically mentioned, it was non-interactive as the player was not involved.

In the special case of ludic-diegetic, the sound was always interactive and only appeared whenever the player controlled Link and performed special interactions with the Guardian. When parrying the attack, the game went into slow-motion for a few seconds, which attributes a narrative meaning to the sound that occurs. Whenever the Guardian was hit in its eye, which is a critical spot that stuns it for a few seconds, a distinctive sound was played. Both of these actions are the game’s way of telling the player that this is how one is supposed to defeat this special enemy. Upon completion of this task, the destruction of the Guardian is accompanied by not only a huge explosion, but also the climatic ending of the soundtrack.

In conclusion, video games make it possible to create incredibly complex sound structures that are able to explore sound’s storytelling abilities. As technology continues to advance, game audio is also improving. The short clip from The Legend of Zelda alone demonstrates its many layers from diegetic, extradiegetic, ludic to ludic-diegetic. While further differentiating between interactive and non-interactive, the clip also illustrates the narrative function of each of these layers. The game in question has a carefully crafted audio system, which goes to great lengths to elevate storytelling. It is incredibly inspiring and exciting to experience when playing, but also when watching. Hopefully, there will be more games in the future that pay so much attention to detail when it comes to sound.

Source:
Sebastian Domsch, Hearing Storyworlds: How Video Games Use Sound to Convey Narrative, in: Audionarratology. Interfaces of Sound and Narrative, ed. by J. Mildorf and T. Kinzel, Berlin and Boston 2016, pp. 185-198.

Populärer Gesang

von Jule Metzler

Billie Eilish ist eine der erfolgreichsten Popkünstlerinnen der letzten Jahre. So stellte sie zum Beispiel 2020 einen Rekord als jüngste Musikerin auf, die alle vier Hauptkategorien der Grammys gewann. Trotzdem wird immer wieder der Vorwurf erhoben, Billie Eilish würde nicht singen, sondern im Grunde nur flüstern.

Wie der Musikwissenschaftler Tilo Hähnel berichtet, hat die damit zusammenhängende Frage, was man als Gesang bezeichnen kann, eine lange Geschichte. Zu Beginn des 20. Jahrhunderts, als in der Popularmusik neue Gesangsstile vermehrt auftraten, gab es spezifische Vorstellungen vom gelungenen vokalen Vortrag, die sich aus der sängerischen Praxis früherer Jahrhunderte speisten. Insbesondere im Umfeld der Oper fand sich das Ideal einer reinen und klaren Stimme. Als höchstes Ziel der klassischen Gesangsausbildung galt der Belcanto. Wörtlich aus dem Italienischen übersetzt bedeutet „bel canto“ schöner Gesang. Zu dessen Ästhetik gehören neben der Reinheit des Tons eine dynamische Flexibilität und Agilität, etwa bei Verzierungen. Heute weiß man, unter anderem dank der historisch informierten Aufführungspraxis (eine Musizierpraxis, bei der es um möglichst authentische Aufführungen früherer Musik geht), dass der Belcanto in der vokalen Kunstmusik vom 17. bis zum 19. Jahrhundert nicht immer den Stellenwert besaß, der ihm nachträglich zugesprochen wurde. Es wird davon ausgegangen, dass es hier durchaus vokale Ausdrucksmittel gab, die von stimmlicher Rauheit und Geräuschhaftigkeit geprägt waren.

Als nun Anfang des 20. Jahrhunderts immer mehr Popsänger*innen nicht mehr das Ideal einer klaren und reinen Stimme anstrebten, wurden die neuen Arten zu singen Gegenstand ästhetischer Debatten. Jonathan R. Greenberg geht davon aus, dass viele Begriffe für die Gesangstechniken in der populären Musik vor allem entstanden sind, um eine Abgrenzung zu vermeintlich echtem Gesang zu bilden. Beispiele sind Bezeichnungen wie Shouting, Belting, Screaming, Growling, Howling oder Moaning. Eine Technik, die ab den 1920er-Jahren immer wieder für Diskussionen sorgte, ist das sogenannte Crooning. Hierbei handelt es sich um eine Variante des leisen Singens, bei der Sänger*innen ihre Lieder flüsternd und hauchend interpretierten. Dadurch stellte sich der Eindruck von Intimität und Wärme ein. Die Entstehung dieses Stils hängt auch mit der Entwicklung von Mikrofonen zusammen, an die es die Gesangstechniken anzupassen galt.

How the microphone gave us crooning (BBC):

Während Crooner anfangs als „verweiblichte Männer“ diffamiert wurden, wandelte sich die Rezeption in den 1940er-Jahren durch die Popularität von Sängern wie Bing Crosby oder Frank Sinatra. Crooning wurde als Vokalstil der populären Musik anerkannt. Das weibliche Pendant zum Crooner findet man in den sogenannten Torch Singers. Diese Sängerinnen croonten in ihren Torch Songs, die auch vermehrt in den Jazz Einzug hielten, über Sujets wie Liebesschmerz und ewige Treue.

Billie Eilishs Gesangsstil ist somit kein neues Phänomen. Man kann sie durchaus mit Torch-Sängerinnen vergleichen. Und auch der Einwand, dass Flüstern kein Singen sei, besteht seit nunmehr 100 Jahren. Es gibt inzwischen viele verschiedene Stile im populären Gesang, die allesamt legitim sind, denn es geht den Sänger*innen darum, die Inhalte der Songs oder das eigene Persönlichkeitsbild durch den gewählten Stil zu unterstützen. Billie Eilish selbst reagierte spätestens mit der Performance ihres Bond-Songs No Time to Die bei den Brit-Awards 2020 auf ihre Kritiker*innen. Am Ende des Songs sang sie entgegen ihrer sonst flüsternden, leisen Gesangstechnik ein Crescendo, das wohl allen zeigen sollte, dass sie auch laut werden kann.

Verwendete Quelle:
Tilo Hähnel, Was ist populärer Gesang? Zur Terminologie vokaler Gestaltungsmittel in populärer Musik, in: Stimme, Kultur, Identität. Vokaler Ausdruck in der populären Musik der USA, 1900-1960, hrsg. von M. Pfleiderer, T. Hähnel, K. Horn und Chr. Bielefeldt, Bielefeld 2015, S. 53-72.

Kriegsführung – laut und leise

von Ezra Hamacher

Als Hiram Percy Maxim 1909 seinen Prototyp eines Schalldämpfers vorstellte, wusste er noch nicht, welch einen Paradigmenwechsel diese Erfindung nach sich ziehen würde. Bis dahin galt: je lauter eine Schusswaffe, desto wirkungsvoller ist sie bzw. je lauter eine Schusswaffe, als desto wirkungsvoller wird sie wahrgenommen (Yaron Jean spricht hier vom Prinzip der „sounded power“). Nachdem in den USA der Absatz von Schalldämpfern stieg, wurden sie bereits in den 1930er-Jahren nahezu im gesamten Land verboten. Der Grund dafür war, dass ein Schalldämpfer die Lautstärke des Schussgeräuschs einer Waffe deutlich verringerte und dessen Nutzung somit als heimtückisch oder unfair wahrgenommen wurde.

Schon immer wurden Kriege von Sounds begleitet: Kampfschreie, Kriegstrommeln, Hörner, Trompeten usw. wirkten bei Feldschlachten für die Angreifenden unterstützend, weil sie den Verteidigenden Angst einflößten oder akustisch die bevorstehende Schlacht signalisierten. Im Laufe der Zeit wurden Sounds nicht mehr nur zur Intensivierung der Schlachterfahrung eingesetzt, sondern waren mit den technischen Gegebenheiten der Schusswaffen an sich verbunden. Die mit technischem Fortschritt steigende Frequenz an Schüssen, die eine einzelne Waffe abgeben konnte, sorgte für eine schneller getaktete Geräuschkulisse während des Gefechts.

Anfang des 20. Jahrhunderts veränderten Schalldämpfer die allgemeine Sichtweise auf Schusswaffen. Ein bekanntes Beispiel dafür ist seit den 1950er-Jahren die Figur des Geheimagenten James Bond, der anzugtragend und mit einer schallgedämpften Hi-Tech-Pistole ausgestattet eine gewisse Kälte ausstrahlt. Das passte in die Atmosphäre des damals herrschenden Kalten Kriegs.

1915 setzten deutsche Soldaten an der Westfront erstmals Chlorgas als Waffe ein. Dadurch, dass man einen Gasangriff nicht so leicht wahrnehmen konnte wie beispielsweise den Artilleriebeschuss, löste der Gaskrieg bei vielen Überlebenden Traumata aus. Die fehlende akustische Vorwarnung gab ihnen das Gefühl, dass es jederzeit erneut passieren könnte. Zum Trauma trug auch bei, dass die durch Gas verursachten Wunden nicht sichtbar waren, weil sie innerhalb des Körpers zugefügt wurden. Ähnlich wie der Schalldämpfer brach auch der Einsatz von Gas die bis dahin geltenden ‚Schallregeln‘ des Krieges. Bereits bei der ersten Haager Konferenz 1899 wurde darüber diskutiert, Gas als Kriegswaffe zu verbieten, wenngleich es zu diesem Zeitpunkt noch nicht um die schleichende Natur des Gasangriffes ging, sondern um die von ihm verursachte Todesart.

Die Atombombe läutete einen neuen Abschnitt im akustischen Gepräge von Kriegen ein. Je nach Entfernung zum Detonationsort kommt der Schall erst nach der Druckwelle an. Seit dem ersten Bombenabwurf über Hiroshima erweiterte sich die Angst, die zuvor nicht-hörbaren Waffen galt, um die Furcht vor einem Lichtblitz, der alles in seinem Umkreis zu zerstören vermochte: Vögel, die im Flug verbrennen, oder Häuser, die aufgrund der Druckwelle fortgerissen werden – und das, bevor man die Detonation akustisch überhaupt vernehmen kann.

Verwendete Quelle:
Yaron Jean, ‘Silenced Power’: Warfare Technology and the Changing Role of Sounds in Twentieth-Century Europe, Zeithistorische Forschungen/Studies in Contemporary History 8 (2011), S. 178-197.

Urban Acoustics: Wie Sound unsere Städte definiert

von Marko Vincent Reiß

Ein kleiner Park zwischen Hochhäusern, abgeschirmt durch Wände, die fast vollständig unter dichter Begrünung verschwinden. Der Boden besteht aus Naturstein. Tische und Bänke laden zum Verweilen ein. Über allem erhebt sich ein künstlicher Wasserfall, dessen Rauschen den Verkehrslärm aussperrt. Das ist der Paley Park, mitten in Manhattan, New York City. Eine Oase der Ruhe in der Stadt, die niemals schläft.

Im Vergleich zur Großstadt ist es auf dem Land relativ still. Als ich in einem Seminar die Aufgabe bekam, eine Soundscape (also die charakteristischen Umgebungsgeräusche eines Ortes) aufzunehmen, konnte ich mir nicht vorstellen, dass es etwas aufzunehmen gibt. Besagte Aufnahme entstand in der Grünanlage eines Wohngebietes außerhalb einer Kleinstadt, umgeben von einem knapp zehn Meter hohen Lärmschutzwall samt Begrünung. Erste Erkenntnis beim Abhören: Mir war nicht bewusst, dass es hier so viele Vögel gibt. Zweite Erkenntnis: Die Autos sind ja doch ganz schön laut.

Mit der hörbaren Verfasstheit von Umwelt beschäftigt sich die Forschungsrichtung der Acoustic Ecology. Wie ist unsere akustische Umgebung beschaffen? Wie verändert sie sich? Wie können wir sie verändern und dabei positiv beeinflussen? Geräusche und Klänge spielen eine nicht zu unterschätzende Rolle in der menschlichen Entwicklung und im Alltag. Der Klang um uns herum ist ein wichtiger Indikator für die Beschaffenheit von Umgebungen: Welche (anderen) Lebewesen gibt es? Wo befinden sich bestimmte Objekte? Aus welchen Materialien bestehen sie? Wenn ich durch Köln laufe, dann kann ich oft nicht einmal meine eigenen Schritte auf dem Beton hören. Das ständige Brummen von Motoren schließt jeden Menschen in eine eigene kleine Blase ein. Anhaltender Lärm schädigt unser Gehör, senkt unsere Lernfähigkeit, und verursacht Stress, der zu unzähligen Folgeerkrankungen führen kann.

Orte wie der Paley Park veranschaulichen einige wichtige Prinzipien, die Stadtplaner*innen berücksichtigen sollten. Der Park ist durch die umliegenden Gebäude vergleichsweise gut isoliert, was die Stadtgeräusche – ganz ohne zusätzliche Lärmschutzwände – mindert. Zusätzlich sind die Häuserwände, die ihn umgeben, begrünt. Gerade den Pflanzen kommt in der Stadtplanung eine wichtige Rolle zu: Sie wirken nicht nur lärmmindernd (bis zu 40 dB), indem sie Vibrationen aufnehmen, sondern bieten auch Lebensraum für Insekten und weitere Kleintiere und haben zudem einen kühlenden Effekt. Die Beschaffenheit von Oberflächen ist ebenfalls von Bedeutung. Weiche Materialien absorbieren mehr Schall und reduzieren damit die harten Echos, die man aus Häuserschluchten kennt. Außerdem sind sie durchlässiger als beispielsweise Beton und verhindern Überflutungen bei starkem Regen. Zu guter Letzt vermag der Wasserfall alle verbliebenen Störgeräusche zu übertönen. Leiser wird es dadurch nicht, aber die meisten Menschen würden zustimmen, dass rauschendes Wasser beruhigender wirkt als Motorenlärm.

Mit der fortschreitenden Urbanisierung wird es immer wichtiger, Städte auch in akustischer Hinsicht nachhaltig zu planen. Die hier vorgestellten Prinzipien markieren nur einen Ausschnitt aus den Ansätzen, die die Forschung seit einigen Jahren aufzeigt.

Verwendete Quellen:
The Acoustic City, hrsg. von M. Gandy und BJ Nilsen, Berlin 2014.
– Reeman Mohammed Rehan, The phonic identity of the city urban soundscape for sustainable spaces, HBRC Journal 12/3 (2016), S. 337-349.

ASMR zwischen Therapeutikum und Werbestrategie

von Yue Xing und Tim Weber

ASMR – das Akronym steht für Autonomous Sensory Meridian Response – ist heutzutage überaus präsent. Was vor zehn Jahren noch ein Nischenphänomen war, begeistert immer mehr Menschen, und durch die sozialen Medien verbreitet sich der Trend rasant. ASMR-Videos mit unterschiedlichen Themen können dabei auf Plattformen wie YouTube oder Twitch gefunden werden. Den Videos wird zugesprochen, dass sie durch hauptsächlich akustische Reize ein emotionales wie körperliches Wohlbefinden auslösen. Tatsächlich konnten Wissenschaftler*innen eine Verbindung zwischen dem Hören und dem Wohlbefinden erkennen. Paul D. McGeoch von der University of California stellte beispielsweise fest, dass sich im Gehirn zwischen dem auditiven Kortex (also dem Hörzentrum) und der Insula bzw. Inselrinde eine neuronale Verknüpfung erkennen lässt, sodass Reize, die eigentlich vom Hörzentrum verarbeitet werden, andere Gehirnareale aktivieren. Es würde sich demnach bei ASMR um eine Form von Synästhesie handeln, was eine neuronale Verbindung zweier für gewöhnlich getrennter Gehirnareale und der damit einhergehenden Sinneswahrnehmungen impliziert. Doch wodurch wird ASMR überhaupt ausgelöst?

In der Studie Autonomous Sensory Meridian Response (ASMR): a flow-like mental state von Emma L. Barratt, und Nick J. Davis wird das Phänomen genauer untersucht. Laut dieser Arbeit gibt es drei Haupttrigger, die ASMR bewirken. Flüstern belegt mit einem Anteil von 75% hierbei den ersten Platz. Danach folgen persönliche Aufmerksamkeit (69%) und klare, knackige Töne (64%). Jedoch haben Experimente ebenfalls ergeben, dass ASMR nicht nur durch Geräusche, sondern auch durch visuelle Reize ausgelöst werden kann. Aber was genau verspürt man, wenn ASMR auftritt? Proband*innen beschreiben ein angenehmes, kribbelndes Gefühl (die sog. Tingles), das sich vom Kopf bis zu den Schultern, Rücken oder Armen ausbreitet. Dienen ASMR-Inhalte also in erster Linie der Erzeugung eines körperlichen Wohlbefindens, vergleichbar einer Massage, oder variieren die Gründe, aus denen ASMR-Clips rezipiert werden? In der genannten Studie erklärten 98% der Proband*innen, dass sie den ASMR-Konsum als eine entspannende Aktivität verstehen. 82% der Befragten benutzen ASMR als Einschlafhilfe. Weitere 70% fanden, dass ihr Stress durch ASMR abgebaut wird. Neben der entspannenden Wirkung ließen sich des Weiteren hauptsächlich zwei positive Effekte des Trends erkennen. Zum einen ist dies die emotionale Wirkung von ASMR. 80% der Proband*innen sagten, dass ASMR positiven Einfluss auf ihre Gemütslage hat. Dabei scheint ASMR selbst die Symptome einer Depression dämpfen zu können. Zum anderen scheint ASMR lindernde Effekte bei chronischen Schmerzen zu entfalten. All diese Erkenntnisse legen nahe, dass ASMR nicht nur als simpler Entspannungstrend, sondern eventuell sogar zu Therapiezwecken eingesetzt werden könnte.

ASMR bei maiLab:


Obwohl die positiven Effekte von ASMR-Inhalten also nicht von der Hand zu weisen sind, lassen sich auch negative Aspekte des Trends beobachten. Zunächst einmal kann die synästhetische Wirkung von ASMR-Videos ins Gegenteil umschlagen und Misophonie hervorrufen. Hierbei lösen Sounds wie wiederholtes Klicken oder Essgeräusche Unbehagen, Ekel oder sogar Angst aus. Interessanterweise ähneln die Trigger, die Misophonie provozieren, den ASMR-Triggern, die im Kontext von Entspannungsvideos verwendet werden. Während also ein YouTube-Clip, in dem vor einem binauralen Mikrofon die Knöpfe eines Controllers gedrückt werden, für die einen Stress abbaut, bewirkt es für die anderen das Gegenteil. Dies mag auch einer der Gründe dafür sein, weshalb der ASMR-Trend durchaus ein polarisierendes Phänomen darstellt.

Nun sind ASMR-Fans offensichtlich nicht von Misophonie betroffen, doch es gibt weitere Gründe, ASMR kritisch zu betrachten. Dass Geräusche von Alltagsgegenständen eine emotionale Reaktion hervorrufen, lässt sich schließlich auch missbrauchen. Denn nicht nur zu den Geräuschen bauen Zuschauer*innen eine emotionale Bindung auf, sondern eventuell auch zu den Objekten, von denen sie stammen. So veröffentlichte Ikea 2017 einen Werbespot, in dem eine Frau die Produkte des schwedischen Möbelkonzerns streichelt. In diesem Fall ist das ASMR-Video eindeutig als Werbung zu identifizieren, doch auch Produktplatzierungen in nicht als Werbung gekennzeichneten Inhalten sind im gegebenen Kontext denkbar (wenngleich dies auch in anderen Social Media-Trends präsent ist). Zudem vermag sich die emotionale Zuwendung nicht nur auf Objekte zu beziehen, sondern ebenso auf die Personen, die mit ihnen agieren. Dass Influencer*innen in einer parasozialen Beziehung zu ihrer Community stehen, ist zwar auch außerhalb von ASMR gegeben, aber durch die Intimität des Flüsterns wird diese Art der Beziehung noch verstärkt. ASMR kann also über Einsamkeit hinwegtrösten, jedoch durch die unerfüllte Sehnsucht das Gefühl von Einsamkeit verstärken oder überhaupt erst auslösen.

Ein Zugeständnis, das man an ASMR als Subkultur unabhängig von Wirkung und Intention machen muss, ist, dass es in unserer visuell geprägten westlichen Kultur einen stärkeren Fokus auf die akustische Realität des Alltags legt. Die verwendeten hypersensitiven Mikrofone nehmen selbst die leisesten Geräusche auf – Geräusche, derer wir uns gerade im hektischen Großstadtleben kaum noch bewusst sind. Führt ASMR also dazu, dass wir wieder aufmerksamer hinhören, dass wir der akustischen Dimension unserer Umgebung mehr Bedeutung zuschreiben? Eine eindeutige Antwort auf diese Frage ist wohl nicht möglich, denn schließlich trägt auch die visuelle Ebene von ASMR zum Erfolg derartiger Entspannungsvideos bei. Zwar laden viele Content-Creator*innen in ihren Videos dazu ein, die Augen zu schließen, doch letztendlich entscheidet meist ein Thumbnail darüber, was bevorzugt geklickt wird. Und auch die Sexualisierung ein Teil der ASMR-Subkultur. So wurden im Juni 2021 zwei der erfolgreichsten Twitch-Streamerinnen, Indiefoxx und Amouranth, nach als zu anzüglich empfundenen ASMR-Streams von der Plattform entfernt. Unklar blieb dabei, ob es die Geräusche des „ear licking“ oder die erotischen Posen waren, die gegen die Twitch-Richtlinien verstießen.

Zusammenfassend kann gesagt werden, dass es sich bei ASMR um mehr als einen kurzlebigen Trend handelt. Vielmehr beschreibt es ein komplexes Phänomen, das Chancen für Wissenschaft, Therapie sowie unsere Hörkultur birgt, jedoch auch kritisch hinterfragt werden muss. Zwischen Bob Ross-Tutorials, Trigger-Videos, virtuellen Friseurbesuchen und sexualisierten Inhalten mag es schwierig sein, ASMR und seine Auswirkungen auf die Zuhörenden in Gänze zu verstehen, doch gerade das macht die Auseinandersetzung damit so interessant.

Verwendete Quellen:
– Emma L. Barratt und Nick J. Davis, Autonomous Sensory Meridian Response (ASMR): a flow-like mental state, PeerJ 3:e851 (2015).
– Paul D. McGeoch und Romke Rouw, How everyday sounds can trigger strong emotions: ASMR, misophonia and the feeling of wellbeing, BioEssays 42/12 (2020).
– Christin Rodrigues, ASMR: Ein Internetphänomen mit großem Erfolg – Was genau ist ASMR?, rollingstone.de (letzter Aufruf: 24.08.2021).

Das Problem selektiver auditiver Aufmerksamkeit – oder warum Chion überholt ist

von Daniel Janz

Insbesondere in der Filmindustrie stellt das Tondesign eine große Herausforderung dar. Legen die den Klang gestaltenden Personen den Fokus auf das Gesprochene? Welche Bedeutung soll Hintergrundgeräuschen beigemessen werden? Und wie ist mit der Musik umzugehen, die noch über den Streifen gelegt wird?

Es gibt verschiedene theoretische Ansätze, sich dieser Problematik zu nähern. Ein bekannter Ansatz stammt von Michel Chion, der 1994 drei Hörkategorien postulierte, um die genannten Fragen beantworten zu können. Diese Kategorien, das Causal listening (Ursachenhören), das Semantic listening (Bedeutungshören) und das Reduced listening (reduziertes Hören nach Pierre Schaeffer), erscheinen wie eine Gebrauchsanweisung für Klanggestaltende. Chion unterteilt diese Kategorien nach unterschiedlichen Eigenschaften. So versteht er unter dem Causal listening das (An-)Hören eines Geräuschs, um etwas über dessen Ursprung zu erfahren und es ggf. mit visuellen Informationen in Verbindung zu bringen. Im Kontrast dazu stehen das Semantic listening, welches vornehmlich auf das Verständnis von Sprache gerichtet ist, und das Reduced listening mit seinem Fokus auf die Beschaffenheit eines Klanges losgelöst von dessen Quelle, was durch die ‚Fixierung‘ (also Aufzeichnung) des betreffenden Klangs begünstigt wird.

Dieser Versuch mag so ambitioniert wie notwendig sein, ist es doch im Bereich der Klanggestaltung eine große Herausforderung, welche Tonzusammenstellungen zu welchem Zeitpunkt in den Vordergrund zu rücken sind. Legt man besonders großen Wert auf die Sprachverständlichkeit? Spielt die Musik eine Rolle? Was ist mit dem kleinen Vogel, der im oberen Drittel des Filmbildes in einem Baum sitzt? Soll dessen Zwitschern überhaupt eingespielt werden, oder würde es den Modus des Causal listening überproportional bedienen? An diesem Beispiel wird das Problem von Chions Hörweisen deutlich: Es sind künstliche Kategorien für den Einsatz in einem Klanglabor, um ebenso künstliche Klangmischungen im filmischen Kontext herzustellen. Doch in Bezug auf die Realität finden sie ihre Grenzen. Denn Chion lässt ein entscheidendes Kriterium unberücksichtigt: die Fähigkeit des Menschen zur selektiven auditiven Aufmerksamkeit.

Das Cocktailparty-Phänomen zur Verdeutlichung selektiver auditiver Aufmerksamkeit

Die selektive auditive Aufmerksamkeit wurde als Begriff im Jahr 1958 durch u. a. Donald Eric Broadbent eingeführt und später von Anne M. Treisman 1960, Neville Moray 1970, und schließlich von Ulric Neisser 1974 verfeinert. Im Wesentlichen beschreiben diese Forschenden auf Basis empirischer Studien das Phänomen, dass Menschen in der Lage sind, in einer Geräuschkulisse nicht nur unterschiedliche akustische Quellen wahrzunehmen, sondern diese auch selektiv zu verstärken. Die menschliche Fähigkeit zur selektiven auditiven Aufmerksamkeit ist also dafür zuständig, dass wir spezifischen Geräuschquellen selbst bei großem Geräuschpegel folgen können. Am bekanntesten ist das so genannte Cocktailparty-Phänomen: Vielen dürfte das Problem bekannt sein, bei einem solchen Anlass mit dutzenden parallel verlaufenden Diskussionen den Faden bei der eigenen Unterhaltung nicht zu verlieren. Und trotzdem gelingt es uns Menschen, aktiv über lange Zeit einem Gespräch zu folgen und daran teilzunehmen – selbst wenn es von äußeren Störquellen konterkariert oder geräuschmäßig überlagert wird. Eine solche Unterscheidungsfähigkeit ist Maschinen bisweilen nicht gegeben.

Bei der weiteren Erforschung dieses Phänomens kam Vivien Tartter 1988 zu dem Ergebnis, dass bereits die Aufteilung von unterschiedlichen Reizen auf beide Ohren zu einer Verbesserung der Identifizierbarkeit einer Geräuschquelle sowie (bei Sprache) deren Inhalt hatte. Für Chions Ansatz bedeutet das: Die Art und Weise des Hörens ist nicht nur von der Art der Aufmerksamkeit bestimmt, sondern maßgeblich davon, welche Nebengeräusche aus welcher Richtung präsentiert werden. So lassen sich bereits erhebliche Verbesserungen der Verständlichkeit feststellen, wenn unterschiedliche Geräusche auf beide Ohren aufgeteilt werden. Ein Umstand, der das Causal listening zusammen mit dem Reduced listening nicht nur problematisch, sondern im letzten Fall sogar unmöglich gestalten würde. Tartters Forschungsergebnissen zufolge würde die Vernehmbarkeit eines Geräusches und das damit einhergehende Verständnis über dessen Ursprung verbessert werden, wenn es sich gegenüber anderen Geräuschquellen – entweder mechanisch oder durch selektive auditive Aufmerksamkeit verstärkt – durchsetzt.

In diesem Zusammenhang lässt Chion auch die zentralauditive Verarbeitung von Hörreizen außen vor. Letzteres Modell der Hörwahrnehmung stellt nicht nur da, dass ein Geräusch von außerhalb auf das Gehör eines Menschen (im Bottom-up-Prozess) wirkt, sondern dass auch Aufmerksamkeit, mentale Erwartung und Ergänzungen aus dem eigenen Erfahrungsschatz die Wahrnehmung jedes Geräuschs (im Top-down-Prozess) nachhaltig beeinflussen. Mit anderen Worten: Ein wie von Chion gefordertes reduziertes Hören ist nur Menschen möglich, die noch nie zuvor Geräusche gehört haben, sodass sie diese Sinnesreize nicht mit früheren Erfahrungen abgleichen können. Es ist zudem ein Widerspruch, den Chions Ansatz in sich selbst trägt, denn gerade seine Idee des Causal listening setzt einen bereits vorhandenen Erfahrungsreichtum voraus.

Darüber hinaus verkennt Chion das Phänomen der Immersion. Diese ist ein Feld für sich, das Johannes Scherzer 2010 in sechs Kategorien aufteilt, um die unterschiedlichen Dimensionen von Immersivität aufzuzeigen. So spricht er beispielsweise von narrativer, sensorischer, emotionaler und auch räumlicher Immersion – alles Phänomene, die ein Wechselspiel zwischen Sender und Empfänger voraussetzen, was Chion aber ausschließt. Darüber hinaus ist ein maßgeblicher Aspekt der sensorischen Immersion die Präsentation mit einem möglichst (im physikalischen Sinne) realen Raum. Insofern macht es also einen ganz erheblichen Unterschied, ob der im oberen Drittel des Filmbildes sitzende Vogel tatsächlich zu hören ist. Im Unterschied zu Chions Ansatz kann das Fehlen solch immersiver Momente sogar dazu führen, ein Filmerlebnis zu zerstören, anstatt es zu spezifizieren.

Es gäbe noch viele weitere Fragen zu Chions Hörmodell. Wie beispielsweise die Sprache selbst – sei es im Dialog filmisch zu sehender Personen, sei es durch einen Erzähler aus dem Off oder als Text – zu behandeln ist, bleibt (zumindest im hier diskutierten Text) ungeklärt. Dasselbe gilt auch für die Behandlung von Filmmusik. Es scheint, als wäre das Klangdesign in Chions Vorstellung eine sterile, abgeschottete Angelegenheit, die nichts anderes kennt als die Aneinanderreihung von Einzelgeräuschen. Dabei sollte – gerade auch im Hinblick auf die Immersion – gefragt werden, ob es nicht eher auf die gelungene Komposition der Klänge ankommt. Das Modell Chions ist damit als Anleitung zur Klanggestaltung im Film nur bedingt geeignet. Bei der Einführung von unterschiedlichen Ebenen der Hörwahrnehmung greift es zu kurz und schneidet sich an der Realität. Inwiefern so ein Konzept hilfreich oder überhaupt zutreffend ist, sei daher infrage gestellt. Über die nischenhafte Anwendung im Bereich des filmischen Tondesigns hinaus dürfte es jedenfalls wenige Anwendungsmöglichkeiten geben.

Verwendete Quellen:
– Michel Chion, Audio-vision: Sound on Screen, Kap. The Three Listening Modes, New York 1994.
– Shin-Lin Lin und Pi-Cheng Tung, A Modified Method for Blind Source Separation, in: Proceedings of the 6th WSEAS International Conference on Applied Computer Science, Tenerife, Canary Islands, Spain, December 16-18, 2006.
– Gernot-Andreas Nieder, Auditive Aufmerksamkeit, Seminararbeit Universität Wien 1999, S. 3-5.
– Johannes Scherzer, Der Tondramaturgische Raum als Gestaltungsmittel für die Immersive Ästhetik, Diplomarbeit Filmuniversität Babelsberg Konrad Wolf 2010.

Sonifikation: Anwendungsfälle datenbasierter Verklanglichung

von Lars-Andre Nießen

Hörbare Daten

Bei der Auswertung abstrakter Daten und ihrer Zusammenhänge hat sich über viele Jahre die Methode der Visualisierung, also der grafischen Aufbereitung in Form von z. B. Diagrammen, etabliert. Dabei ignorierte man lange die Tatsache, dass der Mensch ständig von Klängen umgeben ist und sich im Alltag an ihnen orientiert. Die Identifikation einiger Vorzüge des menschlichen Gehörs gegenüber dem Sehsinn sowie die Einsicht, dass die Überführung von Abstrakta in sinnlich Erfahrbares einen Erkenntnisgewinn herbeiführen kann, haben im Jahr 1992 Wissenschaftler_innen verschiedener Fachrichtungen im Rahmen der interdisziplinär ausgerichteten ersten internationalen Konferenz zum Auditory Display (ICAD) dazu veranlasst, eine Methode zu formulieren, nach der Datenbestände hörbar statt sichtbar gemacht werden sollten: die Sonifikation.

Das seitdem wachsende Interesse an der akustischen Datenanalyse ist keineswegs bloße Spielerei, sondern zeigt gewisse Vorteile gegenüber der Nutzung grafischer Repräsentationen gerade in Bereichen, in denen die Visualisierung an ihre Grenzen stößt. Die Sonifikation nutzt die menschliche Fähigkeit des holistischen, selektiven, lernfähigen, hochaufgelösten und omnidirektionalen Hörens, um mit hoher Empfindlichkeit verschiedene akustische Parameter, deren Veränderung und somit viele Informationen in kurzer Zeit aufnehmen und verarbeiten zu können. Sie eignet sich daher vor allem zur Analyse von Daten, die wegen ihrer Menge visuell schwer erfassbar sind und daher Zusammenhänge im umfangreichen Datensatz möglicherweise kaum erkennen lassen.

Je nach Einsatzbereich, Datengrundlage und beabsichtigtem Klangergebnis haben sich verschiedene Sonifikationstechniken etabliert. So bezeichnet man als Audifikation mehrere Verfahren, um die zeitliche Abfolge vieler Daten mit periodischen Komponenten direkt in Klang zu überführen (beispielsweise seismische oder neurophysiologische Daten mit Hilfe der Elektroenzephalografie). Sogenannte Auditory Icons und Earcons verklanglichen nicht direkt Daten, sondern ein datengetriebenes Ereignis, und werden daher als akustische Ereignismarker in der Mensch-Maschine-Interaktion eingesetzt. Bei der Parameter-Mapping-Sonifikation überträgt man Datenattribute auf klangliche Parameter (Tonhöhe, Tondauer, Rauschanteil usw.), sodass auch komplexe Datensätze akustisch dargestellt werden können. Die modellbasierte Sonifikation ermöglicht die explorative Analyse großer Datenmengen durch die Transformation des Datensatzes in ein virtuelles, interaktives Klangobjekt.

Frühe Sonifikationen

Was zunächst äußerst theoretisch anmuten mag, erfreut sich in den letzten Jahren der praktischen Erprobung in immer neuen Anwendungsbereichen. Obwohl die Wissenschaft erst seit einigen Jahren die Vorzüge der Sonifikation konsequent zu nutzen lernt, ist die Technik älter, als man es auf den ersten Blick vermuten würde. Ein frühes Beispiel der Datensonifikation präsentierte der Psychoakustiker Sheridan D. Speeth 1961 mit seinen „Seismometer Sounds“. Anhand dieser Methode zur Audifizierung und leichteren Analyse aufgezeichneter seismischer Aktivitäten machte sich Speeth die Ähnlichkeit von seismischen und akustischen Wellen zunutze, um damit natürliche Erdbeben von den Folgen nuklearer Tests unterscheiden zu können. Dies war vor allem im Kalten Krieg von Bedeutung, da die besagten Tests aufgrund des sonst anfallenden radioaktiven Niederschlags zumeist unterirdisch durchgeführt wurden und somit visuell schwer zu beobachten waren. Seismische Ereignisse werden bis heute – häufig in einer Mischung aus akustischer und optischer Datenschau – nach diesem Muster festgehalten.

Ein anderes frühes Beispiel der Sonifikation, das noch älter und ebenfalls mit Radioaktivität verbunden ist, ist das Geiger-Müller-Zählrohr, verkürzt Geigerzähler genannt. Das Zählrohr dient dem Aufspüren radioaktiver Strahlung, indem es die beim radioaktiven Zerfall auftretenden Gammastrahlen detektiert und in hörbare Impulsfolgen übersetzt.

Aktuellere Anwendungsbeispiele

Als akustische Form der Datenrepräsentation und damit als klingendes Pendant zur Visualisierung nehmen die Einsatzbereiche der Sonifikation stetig zu. Es ist unmöglich, hier einen Überblick über sämtliche Anwendungsgebiete zu geben. Dennoch sollen im Folgenden einige Bereiche exemplarisch benannt werden, in denen die Sonifikation intentional und analytisch eingesetzt wird, sowohl im Sinne einer eigenständigen Repräsentationstechnik als auch in Ergänzung diverser Visualisierungsstrategien. Im letzteren Fall entstehen hybride und multisensorische Repräsentationen.

Sonifikation setzt vor allem da an, wo sie wegen der Datenmenge eine sinnvolle Alternative bzw. Ergänzung zu visuellen Darstellungsformen liefern kann. Beispielsweise lassen sich Sportbewegungen sonifizieren, wodurch Sportler_innen akustische Rückmeldungen zur Ausführung zyklischer Bewegungen erhalten und ein Trainer die sportliche Aktivität besser überwachen kann. Dies eignet sich besonders für Sportarten, bei denen zur Analyse des Bewegungsablaufs viele verschiedene sensorisch erfasste Messgrößen möglichst detailliert registriert und dargestellt werden sollen. Entsprechendes geschieht etwa wie bei der Sonifikation von Ruderbewegungen oder in Situationen, in denen ein Außenstehender nur eingeschränkte Sicht auf das Geschehen hat, z. B. im Schwimmsport.

Solche und ähnliche Verfahren bieten sich ebenfalls für medizinische Rehabilitationsmaßnahmen an. Patient_innen vermögen Bewegungsabläufe neu zu erlernen und durch klangliches Feedback zu verbessern.

In Bereichen, in denen viele Daten anfallen, z. B. bei Big-Data-Analysen, kann die Sonifikation eine effiziente und effektive Möglichkeit zur explorativen Datenanalyse darstellen, die Zusammenhänge schnell erkennen lässt. In der Analyse von Logistikprozessen können durch Sonifikation zeitliche Korrelationen innerhalb der Datenstruktur besser abgebildet und verstanden werden.

Da das Bedienen komplexer Maschinen der multisensorischen Aufmerksamkeit bedarf, verwundert es nicht, dass auch die Industrie Sonifikationstechniken für sich entdeckt hat und überall dort einsetzt, wo das Gehör Informationen aufnehmen muss, die das Auge in einem gegebenen Moment nicht erfassen kann, weil die Aufmerksamkeit gerade anders ausgerichtet ist. Den meisten Nutzer_innen fällt dies kaum noch auf, zumal wir solche Geräusche in unseren Höralltag integriert haben. Insbesondere beim Autofahren findet man sich vielen Eindrücken ausgesetzt, die situativ auf verschiedene Sinne verteilt werden müssen. So gibt uns ein Blinkergeräusch Rückmeldung darüber, dass wir einen Abbiegevorgang ankündigen. Und moderne Parkassistenten geben die Entfernung zum nächsten Objekt in Gestalt einer klanglichen Impulskette wieder.

Die Sonifikation als Interaktionshilfe trifft man auch abseits massenindustrieller Kontexte an, z. B. bei der Interface-Entwicklung für die Blindenkommunikation. Techniken der Sonifikation ermöglichen sehbehinderten Menschen zudem die Ausübung von Sportarten, die zur präzisen Durchführung den Sehsinn erfordern würden, wie es etwa beim Biathlon der Fall ist. Durch eine Entfernungssonifikation erhalten blinde Sportler_innen am Schießstand Echtzeitinformationen über die Entfernung zur Zielscheibe.

Sonifikation im multisensorischen Kontext

Viele der genannten Anwendungsbeispiele zeigen, dass Sonifikationen häufig dann sinnvoll sind, wenn es darum geht, zahlreiche Informationen multisensorisch zu verarbeiten und dabei die Reizdichte auf einem Sinneskanal zu minimieren. Im Unterschied zum Visual Display funktioniert das Auditory Display nicht bereichsbeschränkt, sondern omnidirektional, was Klang zu einem geeigneten Träger wichtiger Zusatzinformationen macht. Hybride Darstellungsformen aus Klang und Grafik könnten hier den größten Nutzen bringen. Neurolog_innen der Duke University legen in einer aktuellen Studie nahe, dass sich das Gehör aus physiologischen und kognitiven Gründen in seiner Aufmerksamkeitslenkung am Sehsinn orientiert. Ohr und Auge sind demnach gewissermaßen neurologisch gekoppelt, weshalb sich das Trommelfell in Abhängigkeit von der Blickrichtung auszurichten scheint. Für die Zukunft von Sonifikationsverfahren könnte diese Erkenntnis bedeuten, dass nicht nur der zeitlich-klingenden Dimension, sondern vor allem der räumlichen Dimension steigende Bedeutung beigemessen werden müsste.

Verwendete Quelle:
The Sonification Handbook, hrsg. von Th. Hermann, A. Hunt und J. G. Neuhoff, Berlin 2011.

Eine Ökologie des Akustischen

von Lars-Andre Nießen

Klang nimmt in der Kommunikation von Stimmung, Bedeutung und Kontext eine zentrale Rolle ein. Jeder dürfte es schon erlebt haben, dass uns sowohl in der Realität als auch in virtuellen Welten das Hören einer Soundscape, d. h. einer spezifisch beschaffenen akustischen Umgebung, gedanklich oder körperlich beeinflusst hat. Medial konstruierte Soundscapes, etwa in Filmen oder Hörspielen, vermögen uns in Windeseile an einen anderen Ort oder in eine andere Zeit zu versetzen. Phänomene wie diese können sowohl unbewusst als auch beim bewussten Hinhören auftreten. Die Bewusstwerdung von klingenden Umgebungen ist Dreh- und Angelpunkt der akustischen Ökologie. Angestoßen wurde diese Forschungsrichtung vom kanadischen Komponisten und emeritierten Professor für Kommunikationswissenschaft Raymond Murray Schafer in den späten 1960er-Jahren. Ausgehend von der Dominanz einer Kultur des Sehens formulierte er die Sorge um immer weiter abnehmende auditive Fertigkeiten. Eine Lösung für das Problem erblickte er darin, spezielle Formen der Gehörschulung im Curriculum von Bildungsinstitutionen zu verankern und so die sonologische Kompetenz und das Klangbewusstsein der Gesellschaft zu schärfen. An der Simon Fraser Universität in der Nähe Vancouvers initiierte Schafer das World Soundscape Project, ein international ausgerichtetes Forschungsvorhaben, das sich ganz der Dokumentation und Analyse akustischer Umwelten widmete. Entsprechende Ergebnisse machte er 1977 in seinem wohl bekanntesten Buch The Tuning of the World publik, in dem er unter anderem vorschlug, dass der Mensch seine akustischen Lebensräume gleich einer musikalischen Komposition behandeln und verantwortungsvoll gestalten sollte.

Die Soundscape und ihre Eigenschaften

Ist heutzutage von Soundscapes die Rede, sind damit zuweilen auf Naturaufnahmen basierende Klangkompositionen gemeint. Doch als Schafer den Begriff prägte, bezeichnete er damit viel grundlegender die Charakteristik bereits existenter tönender Umgebungen. Schafer und seine Mitarbeiter wollten die umgebungsbestimmenden Klangereignisse analytisch beschreiben und definierten dazu drei Klangtypen, die in einer Soundscape auftreten können: den Grundlaut (Keynote), den Signallaut (Sound signal) und den Orientierungslaut (Soundmark). Der erste Klangtypus bezeichnet konstant vorhandene Hintergrundgrundgeräusche in Analogie zur musiktheoretischen Funktion des Grundtons, welcher die Tonalität eines Stückes bestimmt. Der zweite Klangtypus umfasst vordergründige Geräusche, die die Aufmerksamkeit des Hörenden binden (z. B. Kirchenglocken und Sirenen). Orientierungslaute, die besonders für Gemeinschaften von Bedeutung und regionalspezifisch sind, wurden – in Anlehnung an Landmarken – Soundmarks genannt. Sie bilden den dritten Klangtypus (z. B. Glockenklänge von Weidetieren und traditionsbasierte Klänge). Das Zusammenspiel dieser Klangereignisse ermöglicht die Identifizierung einer ortsgebundenen Soundscape, ähnlich der Identifikation von Ortschaften anhand der lokalen Architektur oder Kleidung.

Seit Beginn der industriellen Revolution seien diese charakteristischen Soundscapes nach und nach in homogenem Lärm untergegangen. Der angenommene Kontrast zwischen präindustriellen und postindustriellen Soundscapes führte Schafer zu einer weiteren Unterscheidung, und zwar in Hi-Fi- und Lo-Fi-Soundscapes.

Hi-Fi-Soundscapes zeichnen sich ihm zufolge dadurch aus, dass Klänge einander wenig überlagern und einen distinkten Vorder- und Hintergrund bilden, wodurch sie als eigene Entitäten wahrgenommen werden können. Schafers Analysen, aber auch spätere Untersuchungen von Naturforschern wie Bernie Krause, deuten darauf hin, dass über längere Zeiträume Frequenznischen entstehen, die von unterschiedlichen Lebewesen besetzt werden. Durch urbane Expansion laufen Tierpopulationen Gefahr, vertrieben zu werden oder auszusterben, da der Stadtlärm die spektralen Nischen für Paarungsrufe sowie weitere Kommunikationslaute übertönt. Wegen der Distinktheit von Schallereignissen in Hi-Fi-Soundscapes lassen sich nahezu alle Frequenzen deutlich vernehmen. Der akustische Horizont ist vergleichsweise weit.

In Lo-Fi-Soundscapes hingegen finden sich viele Klänge maskiert, sodass wichtige akustische Informationen verloren gehen und sich dadurch der Hörraum stark verkleinert – bis hin zur vollständigen Isolation des Hörenden von seiner Umgebung. Im ungünstigsten Fall verwandelt sich alle akustische Information in Anti-Information, oder einfach gesagt: in Lärm. Während Hi-Fi-Soundscapes also bezüglich Lautstärke, Spektrum und Rhythmus ausgeglichen sind, errichten Lo-Fi-Soundscapes eine isolierende, vor allem tieffrequente Geräuschwand.

Bernie Krause über Soundscapes und Tierstimmen:

Die Soundscape in der Gesellschaft

Aus Sicht der akustischen Ökologie ist Klang Träger von Informationen und Mediator zwischen Individuum und Umwelt. Je weiter sich die Soundscapes industrialisierter Landstriche in Richtung Lo-Fi bewegen, desto weniger Bewusstsein gibt es für die klanglichen Details der Umgebungen und desto eindimensionaler erscheinen sie, bis sie sich nur noch entlang von Gegensatzpaaren wie laut – leise, wahrnehmbar – nicht wahrnehmbar oder gut – schlecht unterschieden lassen. Je mehr Natur der Industrialisierung und Urbanisierung zum Opfer fällt, desto weniger Bedeutungen halten akustische Umgebungen bereit. Somit nimmt es nicht wunder, dass Menschen beispielsweise mittels Doppelverglasung (bauliche Isolation) oder stationären und mobilen Musikabspielgeräten (Isolation durch Musik als virtuelle Soundscape) nach Wegen suchen, ihre akustische Umwelt zu kontrollieren und durch eigene Hi-Fi-Soundscapes zu ersetzen. Psychologisch gesehen eröffnet sich durch Musik, wenn man sie als eine Art Audioanalgetikum nutzt, die Möglichkeit zur Wiederherstellung von Emotionalität, da in Lo-Fi-Soundscapes die Gefühlsexpression gehemmt ist und stressbedingte Erkrankungen gefördert werden. Unter Verwendung technisch gespeicherter Musik wird die akustische Umgebung aber auch zur Ware. Angesichts der weltweiten Distribution von Sprache und Musik durch Sendeanstalten sprach Schafer von einem akustischen Imperialismus und erfand zur Beschreibung der Dissoziation zwischen ursprünglichem Klang und seiner Reproduktion den Begriff der Schizophonie. Befragungen zufolge seien technisch reproduzierte und verstärkte Klänge, gefolgt von Verkehrslärm, eine wesentliche Ursache für persönliche Frustration und Nachbarschaftsstreitigkeiten. Schafer nahm an, dass zwischen den Mitgliedern einer Gemeinschaft ein Lautstärkekampf herrscht, welcher wiederrum als Lärmgenerator wirkt, sodass die Umgebungslautstärke pro Jahr um 0,5 bis 1 dB steigt. Bis heute setzt sich Schafer für eine Verfeinerung der Hörfähigkeit sowie die Wertschätzung von Naturgeräuschen ein. Er plädiert für eine gezielte Gestaltung urbaner Lebensräume, die die Hörkompetenz von Individuen begünstigt und der lärmbedingten Energieverschwendung entgegenwirkt.

Murray Schafer über seine Tätigkeit als Komponist und die (akustische) Umwelt:

Verwendete Quellen:
– Kendall Wrightson, An Introduction to Acoustic Ecology, Soundscape: The Journal of Acoustic Ecology 1/1 (2000), S. 10-13.
– R. Murray Schafer, The Soundscape: Our Sonic Environment and the Tuning of the World, Rochester 1994 (1977).