Populärer Gesang

von Jule Metzler

Billie Eilish ist eine der erfolgreichsten Popkünstlerinnen der letzten Jahre. So stellte sie zum Beispiel 2020 einen Rekord als jüngste Musikerin auf, die alle vier Hauptkategorien der Grammys gewann. Trotzdem wird immer wieder der Vorwurf erhoben, Billie Eilish würde nicht singen, sondern im Grunde nur flüstern.

Wie der Musikwissenschaftler Tilo Hähnel berichtet, hat die damit zusammenhängende Frage, was man als Gesang bezeichnen kann, eine lange Geschichte. Zu Beginn des 20. Jahrhunderts, als in der Popularmusik neue Gesangsstile vermehrt auftraten, gab es spezifische Vorstellungen vom gelungenen vokalen Vortrag, die sich aus der sängerischen Praxis früherer Jahrhunderte speisten. Insbesondere im Umfeld der Oper fand sich das Ideal einer reinen und klaren Stimme. Als höchstes Ziel der klassischen Gesangsausbildung galt der Belcanto. Wörtlich aus dem Italienischen übersetzt bedeutet „bel canto“ schöner Gesang. Zu dessen Ästhetik gehören neben der Reinheit des Tons eine dynamische Flexibilität und Agilität, etwa bei Verzierungen. Heute weiß man, unter anderem dank der historisch informierten Aufführungspraxis (eine Musizierpraxis, bei der es um möglichst authentische Aufführungen früherer Musik geht), dass der Belcanto in der vokalen Kunstmusik vom 17. bis zum 19. Jahrhundert nicht immer den Stellenwert besaß, der ihm nachträglich zugesprochen wurde. Es wird davon ausgegangen, dass es hier durchaus vokale Ausdrucksmittel gab, die von stimmlicher Rauheit und Geräuschhaftigkeit geprägt waren.

Als nun Anfang des 20. Jahrhunderts immer mehr Popsänger*innen nicht mehr das Ideal einer klaren und reinen Stimme anstrebten, wurden die neuen Arten zu singen Gegenstand ästhetischer Debatten. Jonathan R. Greenberg geht davon aus, dass viele Begriffe für die Gesangstechniken in der populären Musik vor allem entstanden sind, um eine Abgrenzung zu vermeintlich echtem Gesang zu bilden. Beispiele sind Bezeichnungen wie Shouting, Belting, Screaming, Growling, Howling oder Moaning. Eine Technik, die ab den 1920er-Jahren immer wieder für Diskussionen sorgte, ist das sogenannte Crooning. Hierbei handelt es sich um eine Variante des leisen Singens, bei der Sänger*innen ihre Lieder flüsternd und hauchend interpretierten. Dadurch stellte sich der Eindruck von Intimität und Wärme ein. Die Entstehung dieses Stils hängt auch mit der Entwicklung von Mikrofonen zusammen, an die es die Gesangstechniken anzupassen galt.

How the microphone gave us crooning (BBC):

Während Crooner anfangs als „verweiblichte Männer“ diffamiert wurden, wandelte sich die Rezeption in den 1940er-Jahren durch die Popularität von Sängern wie Bing Crosby oder Frank Sinatra. Crooning wurde als Vokalstil der populären Musik anerkannt. Das weibliche Pendant zum Crooner findet man in den sogenannten Torch Singers. Diese Sängerinnen croonten in ihren Torch Songs, die auch vermehrt in den Jazz Einzug hielten, über Sujets wie Liebesschmerz und ewige Treue.

Billie Eilishs Gesangsstil ist somit kein neues Phänomen. Man kann sie durchaus mit Torch-Sängerinnen vergleichen. Und auch der Einwand, dass Flüstern kein Singen sei, besteht seit nunmehr 100 Jahren. Es gibt inzwischen viele verschiedene Stile im populären Gesang, die allesamt legitim sind, denn es geht den Sänger*innen darum, die Inhalte der Songs oder das eigene Persönlichkeitsbild durch den gewählten Stil zu unterstützen. Billie Eilish selbst reagierte spätestens mit der Performance ihres Bond-Songs No Time to Die bei den Brit-Awards 2020 auf ihre Kritiker*innen. Am Ende des Songs sang sie entgegen ihrer sonst flüsternden, leisen Gesangstechnik ein Crescendo, das wohl allen zeigen sollte, dass sie auch laut werden kann.

Verwendete Quelle:
Tilo Hähnel, Was ist populärer Gesang? Zur Terminologie vokaler Gestaltungsmittel in populärer Musik, in: Stimme, Kultur, Identität. Vokaler Ausdruck in der populären Musik der USA, 1900-1960, hrsg. von M. Pfleiderer, T. Hähnel, K. Horn und Chr. Bielefeldt, Bielefeld 2015, S. 53-72.

Omnipräsound

von Janika Achenbach

Auf dem Weg nach Hause in der Straßenbahn. Gerade war Sound Studies-Kurs. 20 Minuten für mich, meine Kopfhörer und Spotify. Herrlich!

Später dann ist Filmeabend mit Mikrowellenpopcorn. Als ich die Steckdosenleiste anschalte, geht nicht nur die Mikrowelle an, sondern auch das Radio. Dort verspricht mir der Moderator den Sound der 80er, gefolgt von Sound of Silence und dem unverwechselbaren Sound eines Künstlers. Mit Popcorn bewaffnet also zurück Richtung Fernseher. „Oh, ProSieben“, bemerke ich die Senderauswahl meiner Mitbewohnerin, ohne das Bild gesehen zu haben. „Ja, da kommt ein guter Film.“ Gelangweilt von dem Film – es passiert aber auch wirklich nichts Spannendes, und alles dauert so lange! – widme ich mich meinem Handy und bemerke etwas später, dass Werbepause ist. Den Blick nicht vom Handy gewandt, weiß ich trotzdem, wo und was ich kaufen soll: ein Heimkino-Soundsystem oder einen Computer mit Intel-Prozessor. Brauche ich gerade nicht, danke. Im Abspann des Films tauchen Regisseur, Drehbuchautor und Sounddesigner auf. Im Vorspann zur folgenden Serie, die ich im Schlaf an ihrem Sound erkennen würde, höre ich die Handschrift des Sounddesigners ganz bewusst heraus.

Sound ist omnipräsent in unserem Alltag. Die Bedeutungen des Begriffes sind vielfältig. Je nach Kontext kann Sound verstanden werden als:

– Schall allgemein;
– Tonebene der elektronischen Medien;
– Geräusch- oder Klangeffekt;
– spezifisch gestalteter Klang einer Ware, eines Industrieprodukts, einer Marke oder eines Unternehmens;
– akustischer Indikator für technische Verfahrensweisen (z. B. Röhren-Sound);
– charakteristische Klangfarbe oder Klangqualität von Musik;
– qualitatives Bewertungskriterium akustischer Vorgänge überhaupt.

Es beschäftigen sich verschiedene Fachrichtungen mit Sounds, darunter Musikwissenschaft, Medienwissenschaft, Psychologie, Ökonomie oder die Ingenieurwissenschaften. In der Musikwissenschaft spielt die Diskussion des Sounds eine immer größere Rolle, seitdem elektronische Gestaltungsmöglichkeiten für Musik bestehen. Ursprünglich stammt der Begriff aus dem Bereich des Jazz und bezeichnet dort den ‚unnachahmlichen‘ Klang eines Künstlers. Auch im heutigen Sprechen über populäre Musik lässt sich diese Verwendungsweise genreübergreifend beobachten. Doch längst hat die Rede vom Sound das Feld der Musik verlassen. In der Medienwissenschaft findet eine Verschiebung von der rein visuellen zur audiovisuellen Betrachtungsebene statt. Bei der industriellen Fertigung verschiedenster Geräte sollen Sounds deren Benutzung vereinfachen und unterstützen. Das Akustikdesign ist darauf aus, die akustischen Eigenschaften eines Raumes zu verbessern und damit das Wohlbefinden beim Aufenthalt zu steigern, etwa in einem Geschäft zur Maximierung der Einkaufsbereitschaft. Ebenfalls psychologisch relevant sind die Auswirkungen gegenwärtiger Soundscapes – inklusive Lärm – auf den Menschen. Die Soundscape-Forschung bzw. akustische Ökologie ist ein transdisziplinäres Forschungsgebiet. Es befassen sich Geographen, Historiker, Soziologen, Psychologen, Pädagogen, Musikwissenschaftler, Akustiker, Kulturwissenschaftler, Ethnologen, Architekten, Stadtplaner und andere Fachleute mit Wandel, Gestaltung und Analyse der uns umgebenden akustischen Umwelten. Um die Lärmbelastung zu minimieren, gibt es Überlegungen, die vorhandenen Klänge gezielt zu gestaltet, keinen unnötigen Schall zu produzieren und die Lautstärke des vorhandenen Schalls einzudämmen.

Dem hörenden Menschen erscheint die auditive Wahrnehmung als grundlegend. Hören ist das Instrument räumlicher Ortung und Orientierung. Deswegen sind Warnvorrichtungen wie Sirenen und Martinshörner wichtige Mittel der akustischen Kommunikation. In diesem Zusammenhang ist es interessant, dass der Begriff des Hörens verschiedene Facetten aufweist. Allein der Unterschied zwischen Hören und Zuhören, obwohl lediglich durch zwei Buchstaben markiert, ist nicht marginal. Das konzentrierte, aktive Zuhören fällt vielen Menschen immer schwerer, was an den Sendeformen der Massenmedien liegen mag. Im Diskurs gibt es die Unterscheidung zwischen wertvollem Hören (gewolltem Zuhören) und nicht-wertvollem bzw. erzwungenem Hören. Musik ist immer und überall verfügbar und wird somit auch viel gehört. Doch geschieht dies häufig nicht aktiv, sondern eher nebenbei. Rundfunk, Fernsehen und andere Mediendispositive konstituieren einerseits unsere akustische Realität. Andererseits ermöglichen sie die Flucht aus ihr. So kann durch Kopfhörer ein privater akustischer Raum geschaffen werden, der die Außengeräusche weitgehend ausblendet.

Medienhistorisch betrachtet war das Radio soundmäßig lange Zeit weiter als das Fernsehen, zum Beispiel im Hinblick auf die Verwendung stereophoner Sendeformate. Seitdem Fernsehgeräte weitaus bessere Möglichkeiten der Klangwiedergabe besitzen, sind die Gestaltungsoptionen vielfältiger geworden. Heutzutage zeichnen Sounddesigner für die klangliche Einrichtung verschiedener Medien wie Hörspiel, Film oder Videospiel verantwortlich. Praktisch beschäftigen sie sich unter anderem mit der Frage, wie Sounds Emotionen beeinflussen, visuelle Reize verstärken oder auch abschwächen können.

Verwendete Quelle: Frank Schätzlein, Sound und Sounddesign in Medien und Forschung, in: H. Segeberg und F. Schätzlein (Hg.), Sound. Zur Technologie und Ästhetik des Akustischen in den Medien, Marburg 2005, S. 24-40.