Das Problem selektiver auditiver Aufmerksamkeit – oder warum Chion überholt ist

von Daniel Janz

Insbesondere in der Filmindustrie stellt das Tondesign eine große Herausforderung dar. Legen die den Klang gestaltenden Personen den Fokus auf das Gesprochene? Welche Bedeutung soll Hintergrundgeräuschen beigemessen werden? Und wie ist mit der Musik umzugehen, die noch über den Streifen gelegt wird?

Es gibt verschiedene theoretische Ansätze, sich dieser Problematik zu nähern. Ein bekannter Ansatz stammt von Michel Chion, der 1994 drei Hörkategorien postulierte, um die genannten Fragen beantworten zu können. Diese Kategorien, das Causal listening (Ursachenhören), das Semantic listening (Bedeutungshören) und das Reduced listening (reduziertes Hören nach Pierre Schaeffer), erscheinen wie eine Gebrauchsanweisung für Klanggestaltende. Chion unterteilt diese Kategorien nach unterschiedlichen Eigenschaften. So versteht er unter dem Causal listening das (An-)Hören eines Geräuschs, um etwas über dessen Ursprung zu erfahren und es ggf. mit visuellen Informationen in Verbindung zu bringen. Im Kontrast dazu stehen das Semantic listening, welches vornehmlich auf das Verständnis von Sprache gerichtet ist, und das Reduced listening mit seinem Fokus auf die Beschaffenheit eines Klanges losgelöst von dessen Quelle, was durch die ‚Fixierung‘ (also Aufzeichnung) des betreffenden Klangs begünstigt wird.

Dieser Versuch mag so ambitioniert wie notwendig sein, ist es doch im Bereich der Klanggestaltung eine große Herausforderung, welche Tonzusammenstellungen zu welchem Zeitpunkt in den Vordergrund zu rücken sind. Legt man besonders großen Wert auf die Sprachverständlichkeit? Spielt die Musik eine Rolle? Was ist mit dem kleinen Vogel, der im oberen Drittel des Filmbildes in einem Baum sitzt? Soll dessen Zwitschern überhaupt eingespielt werden, oder würde es den Modus des Causal listening überproportional bedienen? An diesem Beispiel wird das Problem von Chions Hörweisen deutlich: Es sind künstliche Kategorien für den Einsatz in einem Klanglabor, um ebenso künstliche Klangmischungen im filmischen Kontext herzustellen. Doch in Bezug auf die Realität finden sie ihre Grenzen. Denn Chion lässt ein entscheidendes Kriterium unberücksichtigt: die Fähigkeit des Menschen zur selektiven auditiven Aufmerksamkeit.

Das Cocktailparty-Phänomen zur Verdeutlichung selektiver auditiver Aufmerksamkeit

Die selektive auditive Aufmerksamkeit wurde als Begriff im Jahr 1958 durch u. a. Donald Eric Broadbent eingeführt und später von Anne M. Treisman 1960, Neville Moray 1970, und schließlich von Ulric Neisser 1974 verfeinert. Im Wesentlichen beschreiben diese Forschenden auf Basis empirischer Studien das Phänomen, dass Menschen in der Lage sind, in einer Geräuschkulisse nicht nur unterschiedliche akustische Quellen wahrzunehmen, sondern diese auch selektiv zu verstärken. Die menschliche Fähigkeit zur selektiven auditiven Aufmerksamkeit ist also dafür zuständig, dass wir spezifischen Geräuschquellen selbst bei großem Geräuschpegel folgen können. Am bekanntesten ist das so genannte Cocktailparty-Phänomen: Vielen dürfte das Problem bekannt sein, bei einem solchen Anlass mit dutzenden parallel verlaufenden Diskussionen den Faden bei der eigenen Unterhaltung nicht zu verlieren. Und trotzdem gelingt es uns Menschen, aktiv über lange Zeit einem Gespräch zu folgen und daran teilzunehmen – selbst wenn es von äußeren Störquellen konterkariert oder geräuschmäßig überlagert wird. Eine solche Unterscheidungsfähigkeit ist Maschinen bisweilen nicht gegeben.

Bei der weiteren Erforschung dieses Phänomens kam Vivien Tartter 1988 zu dem Ergebnis, dass bereits die Aufteilung von unterschiedlichen Reizen auf beide Ohren zu einer Verbesserung der Identifizierbarkeit einer Geräuschquelle sowie (bei Sprache) deren Inhalt hatte. Für Chions Ansatz bedeutet das: Die Art und Weise des Hörens ist nicht nur von der Art der Aufmerksamkeit bestimmt, sondern maßgeblich davon, welche Nebengeräusche aus welcher Richtung präsentiert werden. So lassen sich bereits erhebliche Verbesserungen der Verständlichkeit feststellen, wenn unterschiedliche Geräusche auf beide Ohren aufgeteilt werden. Ein Umstand, der das Causal listening zusammen mit dem Reduced listening nicht nur problematisch, sondern im letzten Fall sogar unmöglich gestalten würde. Tartters Forschungsergebnissen zufolge würde die Vernehmbarkeit eines Geräusches und das damit einhergehende Verständnis über dessen Ursprung verbessert werden, wenn es sich gegenüber anderen Geräuschquellen – entweder mechanisch oder durch selektive auditive Aufmerksamkeit verstärkt – durchsetzt.

In diesem Zusammenhang lässt Chion auch die zentralauditive Verarbeitung von Hörreizen außen vor. Letzteres Modell der Hörwahrnehmung stellt nicht nur da, dass ein Geräusch von außerhalb auf das Gehör eines Menschen (im Bottom-up-Prozess) wirkt, sondern dass auch Aufmerksamkeit, mentale Erwartung und Ergänzungen aus dem eigenen Erfahrungsschatz die Wahrnehmung jedes Geräuschs (im Top-down-Prozess) nachhaltig beeinflussen. Mit anderen Worten: Ein wie von Chion gefordertes reduziertes Hören ist nur Menschen möglich, die noch nie zuvor Geräusche gehört haben, sodass sie diese Sinnesreize nicht mit früheren Erfahrungen abgleichen können. Es ist zudem ein Widerspruch, den Chions Ansatz in sich selbst trägt, denn gerade seine Idee des Causal listening setzt einen bereits vorhandenen Erfahrungsreichtum voraus.

Darüber hinaus verkennt Chion das Phänomen der Immersion. Diese ist ein Feld für sich, das Johannes Scherzer 2010 in sechs Kategorien aufteilt, um die unterschiedlichen Dimensionen von Immersivität aufzuzeigen. So spricht er beispielsweise von narrativer, sensorischer, emotionaler und auch räumlicher Immersion – alles Phänomene, die ein Wechselspiel zwischen Sender und Empfänger voraussetzen, was Chion aber ausschließt. Darüber hinaus ist ein maßgeblicher Aspekt der sensorischen Immersion die Präsentation mit einem möglichst (im physikalischen Sinne) realen Raum. Insofern macht es also einen ganz erheblichen Unterschied, ob der im oberen Drittel des Filmbildes sitzende Vogel tatsächlich zu hören ist. Im Unterschied zu Chions Ansatz kann das Fehlen solch immersiver Momente sogar dazu führen, ein Filmerlebnis zu zerstören, anstatt es zu spezifizieren.

Es gäbe noch viele weitere Fragen zu Chions Hörmodell. Wie beispielsweise die Sprache selbst – sei es im Dialog filmisch zu sehender Personen, sei es durch einen Erzähler aus dem Off oder als Text – zu behandeln ist, bleibt (zumindest im hier diskutierten Text) ungeklärt. Dasselbe gilt auch für die Behandlung von Filmmusik. Es scheint, als wäre das Klangdesign in Chions Vorstellung eine sterile, abgeschottete Angelegenheit, die nichts anderes kennt als die Aneinanderreihung von Einzelgeräuschen. Dabei sollte – gerade auch im Hinblick auf die Immersion – gefragt werden, ob es nicht eher auf die gelungene Komposition der Klänge ankommt. Das Modell Chions ist damit als Anleitung zur Klanggestaltung im Film nur bedingt geeignet. Bei der Einführung von unterschiedlichen Ebenen der Hörwahrnehmung greift es zu kurz und schneidet sich an der Realität. Inwiefern so ein Konzept hilfreich oder überhaupt zutreffend ist, sei daher infrage gestellt. Über die nischenhafte Anwendung im Bereich des filmischen Tondesigns hinaus dürfte es jedenfalls wenige Anwendungsmöglichkeiten geben.

Verwendete Quellen:
– Michel Chion, Audio-vision: Sound on Screen, Kap. The Three Listening Modes, New York 1994.
– Shin-Lin Lin und Pi-Cheng Tung, A Modified Method for Blind Source Separation, in: Proceedings of the 6th WSEAS International Conference on Applied Computer Science, Tenerife, Canary Islands, Spain, December 16-18, 2006.
– Gernot-Andreas Nieder, Auditive Aufmerksamkeit, Seminararbeit Universität Wien 1999, S. 3-5.
– Johannes Scherzer, Der Tondramaturgische Raum als Gestaltungsmittel für die Immersive Ästhetik, Diplomarbeit Filmuniversität Babelsberg Konrad Wolf 2010.