Background

Wissenswertes und Hintergründe über hörbare Digitalisierung und Code-basiertes Sound Branding.

Autor Stephan Vincent Nölke

Edition comevis

"Tone of Voice - Wenn Stimme zur Marke wird", das seit 2012 auf dem Markt ist, greift das Thema Corporate Voice und Voice Branding auf. In diesem Buch geht es um die auditiv definierte Corporate Language. Es ist sicher nicht nur für Funktionsinhaber in Unternehmen oder Studierende spannend, sondern eröffnet auch neue Einblicke für jedermann - denn Sprache ist auch Karrierefaktor.

Tone of Voice comevis Stephan Nölke

ISBN: 978-3-00-036757-1

Preis: 24,95 € inkl. MwSt.

Buchinfos

Tone of Voice


Voice Know How. Von der Leitstimme zum Marken-Chor. Mit Worten kann man informieren und inspirieren, motivieren und animieren, malen und Musik machen, das Gefühl und den Verstand ansprechen. 75-80% aller Kommunikation erfolgt über die Stimme und der Ton macht bekanntlich den Unterschied für Unternehmen, Marken und jeden Einzelnen von uns.

"Starke Marken sagen nicht irgendwas, und vor allem nicht irgendwie! Die richtige - Tone of Voice - sorgt für Wiedererkennung und verleiht Marken Charakter. Stephan Vincent Nölke zeigt, wie's geht. Ein Buch, über das man sprechen wird."

Prof. Dr. Karsten Kilian, Markenlexikon.com

"Schon das Zitat im Buch von Sokrates - Sprich damit ich dich sehe - gibt klar die Bedeutung dieses wichtigen Themas vor, da ist es nur folgerichtig, dass auch Unternehmen Ihre ganz individuellen Konzepte für den klugen Umgang mit Ihren Corporate Voices entwickeln."

Emmanuel Sutter, Telekom Deutschland GmbH (Herr Emmanuel Sutter, Telekom Deutschland GmbH)

"Der Autor hat hiermit ein sehr umfassendes Dokument geschaffen, dass Neueinsteigern Orientierung gibt und eine Bestätigung für die ist, die sich bereits mit dem Thema auseinandergesetzt und den Wert für ihre Marke darin entdeckt haben. Besonders gelungen finde ich die hohe Relevanz und Anlehnung an die Praxis, die Statements die mit praktischen Beispielen untermauert werden. Das schafft Authentizität und verliert sich nicht in Theorie."

Uwe Steyer, Associate Director, Head of Global Marketing Communications QIAGEN

ISBN: 978-3-00-036757-1 Preis: 24,95 € inkl. MwSt.




1x1 des Audio-Marketings


Jeans, Kultbrause, Biermarke oder Mobilfunkbetreiber: Innerhalb von Millisekunden klingelt es in der Werbepause bei uns. Und zwar im Wortsinn: Jingle, Soundlogo und Theme Songs in den Werbespots haben solchen Wiedererkennungswert, dass uns sofort die Produktmarke vor dem inneren Auge erscheint und zwar, ohne dass wir sie sehen müssen. Ohr schlägt Auge! Die Songs aus TV-Spots sind wahre Verkaufsschlager: Jeder kennt sie und damit die beworbene Produkt- oder Unternehmensmarke. Das sind Beispiele für starkes Audio-Branding. Aber die auditive Markenführung hört bei der Musik nicht auf: Millionen Besucher auf den Internetseiten und Millionen Mal klingeln jeden Tag die Telefone bei Kundenhotlines, Bestell- und Beschwerdeannahmen, Servicenummern: Millionen Kontakte, bei denen Sie Ihre Kunden nicht nur zufriedenstellen, sondern mit dem richtigen Audio- Interface-Design begeistern können! Wie das geht, erläutert dieses Buch in einfachen Schritten Frage für Frage, Antwort für Antwort.

"Audio-Branding und Audio-Interface-Design sind definitiv zwei Themen im multisensorischen Marketing, denen die Zukunft gehört. Dieses Buch zeigt die besondere Bedeutung der auditiv gestützten Kommunikation und vielfältigen Anwendungsmöglichkeiten auf und macht auch noch Spaß zu lesen!"

Prof. Dr. Marco Schmäh Lehrstuhl für Marketing und eCommerce ESB Business School Reutlingen (ESB Business School Reutlingen)

"Audio Interface Design schafft Kundenbegeisterung. Leser, die innovativ eine starke Markenbildung im akustischen Bereich anstreben, werden in diesem 1 mal 1 leicht verständlich und Schritt für Schritt mitgenommen. Es weist den Weg von der Entwicklung von Audio-Branding-Strategien bis hin zum Design optimaler Audio-User-Interfaces zur Dialoggestaltung, dem entscheidenden Erfolgsfaktor um Begeisterung im täglichen Einsatz zu erzeugen. Der mit diesem Buch vorliegende Audio-Branding-Navigator schließt eine Lücke in der Literatur und bietet sich für marketinginteressierte Leser wegen seiner Einzigartigkeit als kompakter Ratgeber und schnelles Nachschlagewerk ideal an."

Prof. Dr. Wolfgang Barth Hochschule der Sparkassen-Finanzgruppe - University of Applied Sciences - Bonn (University of Applied Sciences - Bonn)

"Condor ist für ihre Kunden rund um die Uhr erreichbar und dieser Service ist von einer Branchenzeitschrift mit sehr gut ausgezeichnet worden. Was hervorragenden Kundenservice und Audio-Interface-Design ausmacht, weiß Audio-Branding-Experte Stephan Vincent Nölke aus vielen Projekten und erläutert es praxisorientiert in diesem Buch. Ein unentbehrlicher Ratgeber!"

Heidi Schüritz General Manager Customer Contact Center Condor (Condor)

ISBN: 978-3-00-026868-7 Preis: 14,95 € inkl. MwSt.




Das 1x1 des multisensorischen Marketings


Welche Farbe hat Freude, wie schmeckt Tradition, wie fühlt sich Fürsorge an, wie duftet Sportlichkeit und wie klingt Fernweh? Multisensorisches Marketing liefert Antworten auf diese Fragen darauf, wie Markenattribute in einem positiven, alle Sinne berührenden (kauf-) lustauslösenden Gesamterlebnis für den Kunden erfahrbar werden. Doch bisher fokussieren Marketingstrategien in erster Linie auf das Sehen, auf den optischen Sinn. Durch den weitgehenden Verzicht auf die Ansprache der anderen menschlichen Sinne aber gehen Millionen an Werbewert verloren! Marketing mit allen Sinnen heißt: Marken in jeder Hinsicht emotional aufzuladen. Denn Emotionen sind die eigentlichen Entscheidungsinstanzen jedes Menschen! Wir denken nur, dass wir bewusst entscheiden aber in Wahrheit entscheiden die Gefühle über unser Handeln. Dieses Buch erläutert Frage für Frage, Antwort für Antwort, wie Multisensorik Marken zur emotionalen Lebenswelt macht: liebenswert und unverzichtbar.

"Im 1x1 des multisensorischen Marketings illustrieren die Autoren, wie sich ein Baukasten zurechtlegen lässt, der Anregungen für die Adaption an neue Werbe- und Marketingformen gibt. Beispiele und Umsetzungshilfen sind darin ebenso enthalten wie Erklärungen, was es bedeutet, wenn uns manche Prozesse, die im Gehirn ablaufen, nicht bewusst sind."

(Absatzwirtschaft 08/2011)

"Um Verbraucher in einer Überflussgesellschaft zu überzeugen, gilt es immer mehr, ein einheitliches Markenerlebnis zu schaffen, so die These der Autoren Stephan Vincent Nölke und Christiane Gierke. Dafür genügt es nicht allein, ein Produkt zu haben, dass sich faktisch von anderen unterscheidet, sondern vor allem die Kunden emotional anzusprechen und so eine Kaufhandlung auszulösen. Nölke und Gierke greifen auf Forschungsergebnisse des Neuromarketings zurück. Diese zeigen, dass sich Menschen primär von der emotionalen Ansprache über alle Sinne von Produkten und Dienstleistungen überzeugen lassen und erst im zweiten Schritt ihre Entscheidung mit rationalen Argumenten vor sich selbst rechtfertigen. Das 1x1 des multisensorischen Marketings richtet sich an Werbungtreibende, die wissen wollen, wie Angebote an den Konsumenten an allen Touchpoints mit dem gleichen emotionalen Markenerlebnis aufgeladen werden können. Dafür müssen die Leser Fragen wie: Wie sieht meine Marke aus, wie riecht sie, wie fühlt sie sich an, wie schmeckt sie, und wie klingt sie? beantworten. Die Autoren erklären, warum es wichtig ist, dass alle Eigenschaften des Produkts aufeinander abgestimmt sind und eine ganzheitliche Marketingstrategie verfolgt wird. Im Buch werden leicht verständlich die wissenschaftlichen Grundlagen des Neuromarketings und die Umsetzung dieses Wissens in Marketingmaßnahmen vermittelt."

(ONEtoONE Dialog über alle Medien vom 31.05.11)

"Ein sinnvoll organisiertes Nachschlagewerk zum multisensorischen Marketing. Nölke und Gierke schreiben: Alles gute Marketing ist Belohnungsmarketing und darum letztlich geht es: Die Kunst, Erfahrenswelten zu schaffen, die alle Sinne so ansprechen, dass unser Belohnungszentrum aktiviert wird. Entscheidungs-Freude statt Kauf-Druck!"

(Marco Hermann Deutsche Telekom Leiter Interactive Solutions (Telekom Deutschland, Marco Hermann, Leiter Interactive Solutions)

ISBN: 978-3-00-032143-6 Preis: 21,95 € inkl. MwSt.





 

Wissenswertes und Grundlegendes über Akustik und unser Gehör

Kapitel 1

Was ist Luftschall?

 

Grundlegend versetzt schwingende (also sich um einen Ruhepunkt wiederholt bewegende) Materie ihr Umgebungsmedium (z.B. Luft) in Bewegung. Das kann beispielsweise durch eine angeschlagene Gitarrensaite, die menschlichen Stimmbänder oder auch eine Lautsprechermembran geschehen. Für die Schwingung, also die Auslenkung aus der Ruhelage, und damit die Schallerzeugung muss Energie aufgewendet werden. Wenn sich die Schwingungen über das Umgebungsmedium bis zu unserem Trommelfell ausbreiten und dieses ebenfalls in Schwingung versetzt, wird Schall für uns hörbar. Ein Hören im Vakuum, also in einem Raum, in dem es kein Umgebungsmedium gibt, ist daher nicht möglich.

Eine sich ausbreitende Schwingung kommt dadurch zustande, dass ein Materien-Teilchen (z.B. ein Luftmolekül) ein benachbartes in Schwingung versetzt. Obwohl diese Bewegung eines einzelnen Moleküls nur minimal ist, ergibt sich eine sehr schnelle Bewegungsfortpflanzung der Schwingung und man spricht von einer (Schall-)Welle. Die Schallgeschwindigkeit, also die Ausbreitungsgeschwindigkeit, beträgt in der Luft 344 m/s.

Bei Wellen unterscheidet man zwischen Longitudinal- und Transversalwellen. Während Longitudinalwellen (Längswellen) in ihrer Ausbreitungsrichtung schwingen (z.B. Luftschall), schwingen Transversalwellen (Querwellen) senkrecht zu ihrer Ausbreitungsrichtung, wie z.B. beim Schwingen eines Seils. In Flüssigkeiten und Gasen breitet sich Schall lediglich in Form von Longitudinalwellen aus. In Festkörpern kann sich Schall in Form von Longitudinalwellen und Transversalwellen ausbreiten. Wenn man sich den akustischen Prozess einer Gitarre genauer anschaut, wird klar, wie sich die für die Übertragung von Luftschall relevanten Longitudinalwellen im Raum verhalten: Wird eine Saite angeschlagen, versetzt der schwingende Körper die ihn umgebenden Luftmoleküle in Bewegung. Diese setzen wiederum ihre benachbarten Moleküle in Bewegung und es kommt zu Luftmolekülverdichtungen (Überdruck) sowie -verdünnungen (Unterdruck). Schall ist also nichts anderes als eine sich ausbreitende, dem atmosphärischen Luftdruck überlagerte Druckschwankung, oder in anderen Worten eine mechanische, sich im elastischen Medium ausbreitende Schwingung (Auslenkung aus der Ruhelage).

wellen.png

Verschiedene Schallparameter lösen beim Menschen spezifische Empfindungen aus. Die Amplitude ist verantwortlich für die wahrgenommene Lautstärke des Schallereignisses. Die Frequenz gibt die Höhe eines Tons wieder. Der Mensch kann etwa einen Bereich zwischen 20 Hz und 20000 Hz hören. Die Frequenzspektrum definiert die Klangfarbe, denn jedes Schallereignis ist eine Überlagerung vieler Sinusschwingungen unterschiedlicher Frequenz, Phase und Amplitude. Mehr dazu in Kapitel 2.

Kapitel 2

Überlagerung von Schwingungen

 

Überlagern sich mehrere Schwingungen, so kann es zu akustischen Phänomenen kommen, z.B. zur Interferenz oder Schwebung.

Interferenzen

Interferenzentreten bei der Überlagerung von Schwingungen gleicher Frequenz auf. Hierbei kommt es auf die Phasenlage der beiden Signale an, sodass zwischen der konstruktiven und der destruktiven Interferenz zu unterscheiden ist: Die konstruktive Interferenz ergibt sich dann, wenn sich zwei Signale von gleicher Frequenz phasengleich überlagern. Man spricht dann auch von einem Phasenunterschied von 0 Grad. Weil sich bei einer Überlagerung von zwei Signalen die Auslenkungswerte addieren, kommt es bei der Phasengleichheit von zwei Signalen gleicher Amplitude zu einer Welle mit verdoppelter Schalldruckamplitude. Bei der Überlagerung zweier gegenphasiger Wellen (Phasenunterschied 180 Grad) kommt es bei gleicher Frequenz und Amplitude zur vollständigen Auslöschung des Signals, sodass man in diesem Fall von einer destruktiven Interferenz spricht.

interferenzen.png

Schwebungen

 

Schwebungen treten in Erscheinung, wenn sich mehrere Schallereignisse nur minimal in ihrer Frequenz unterscheiden. Dadurch verschieben sich die Wellen kontinuierlich zueinander und es kommt zu einem periodischen Wechsel zwischen konstruktiver und destruktiver Interferenz. Es gibt also Momente, in denen sich die Signale „in Phase“ verstärken oder „gegenphasig“ auslöschen. Wir nehmen dies als Lautstärkenschwankung wahr. Wenn sich also ein 400Hz-Signal und ein 405Hz-Signal überlagern, beträgt die Schwebungsfrequenz 5 Hz.

Schwebung.png

Eine praktische Anwendung findet die Schwebung beim Stimmen einer Gitarre. Hier kann man die Stimmung der Saiten vergleichen: Wenn man beide Saiten im verstimmten Zustand anschlägt ist die Schwebungsfrequenz hoch, man hört eine schnelle Lautstärkenschwankung. Je näher sich beim Stimmen der Saiten deren Stimmungen angleichen, desto langsamer werden die Schwankungen, da die Schwebungsfrequenz abnimmt.

Komplexe Schwingungen

 

Komplexe Schwingungen entstehen durch die Überlagerung von Wellen unterschiedlicher Frequenz, die somit keinen Phasenbezug zueinander aufweisen und als inkoheränt oder nicht-korrelierend bezeichnet werden (anders als Interferenzen und Schwebungen, die Wellen betreffen, die einen konkreten Phasenbezug zueinander haben). Bei Addierung der einzelnen Auslenkungen kommt es nicht zu Interferenzen, sondern zu einer komplexen Wellenform. Weil jedes Schallereignis eine Überlagerung vieler Sinusschwingungen unterschiedlicher Frequenz, Phase und Amplitude ist, kann eine Schwingung in ihre einzelnen Sinusschwingungen zerlegt werden. Dies geschieht mit der diskreten Fourier-Transformation, die als Ergebnis Aufschluss über das Frequenzspektrum und damit über die Klangfarbe gibt. Als einfache Beispiele lassen sich hier schrille oder scharfe Klangfarben nennen, die also viele hohe Frequenzen aufweisen, oder eine dumpfe Klangfarbe, die auf wenige hohe Frequenzen hinweist.

 

Unterschied zwischen Tonhöhe und Klangfarbe

Nicht nur bei einer Sinusschwingung, sondern auch bei einer sich wiederholenden, also periodisch auftretenden komplexen Schwingung gibt die Periodendauer die Zeit an, die die Schwingung benötigt, bevor sie sich wiederholt, und der Kehrwert daraus ist die als Tonhöhe wahrgenommene Grundfrequenz der komplexen Schwingung. Die anderen Einzelfrequenzen bilden die Obertöne, die die Klangfarbe bestimmen. Bei einer nicht-periodischen Schwingung mit einer sehr unregelmäßigen Wellenform (z.B. ein Beckenschlag) kann es also vorkommen, dass keine Tonhöhe wahrnehmbar, sondern nur die durch die Oberfrequenzen entstehende Klangfarbe definierbar ist.

 

Unterschied zwischen Klang und Geräusch

Der Unterschied zwischen Klang und Geräusch liegt darin, dass ein Klang aus einer periodischen Schwingung besteht, sodass eine Grundfrequenz erfasst werden kann und ihm damit eine Tonhöhe zugeordnet werden kann. Die Frequenzen der einzelnen Sinusschwingungen sind bei einem Klang ganzzahlige Vielfache der Grundfrequenz - die Sinustöne bilden also eine harmonische Teiltonreihe. In der Praxis sind bei einem Klang die Sinusfrequenzen unterschiedlich stark ausgeprägt. Im Frequenzspektrum enthalten die Bereiche zwischen diesen harmonischen Teiltönen nicht selten geräuschartige Frequenzanteile mit kontinuierlichem Spektrum, z.B. Anschlaggeräusche eines Musikinstruments.

Im Gegensatz zu Klängen sind Geräusche nicht-periodische Schwingungen, denen mangels Grundfrequenz oft keine Tonhöhe zugeordnet werden kann. Die Schwingung besteht aus Frequenzen in einem kontinuierlichem Spektrum, zwischen denen kein mathematischer Zusammenhang besteht, sodass sich keine Teiltonreihe aus den einzelnen Frequenzen ergibt.

Kapitel 3

Schallausbreitung im Raum

 

Wie wir unsere Umgebung, also die Klänge, Geräuschen, Stimmen oder auch Musik, wahrnehmen, wird maßgeblich von den räumlichen Gegebenheiten beeinflusst. Schall kann sich im Raum nicht ungehindert ausbreiten, sondern wird an Wänden und anderen schallharten Hindernissen bzw. Objekten mehrfach reflektiert und verliert dabei an Lautstärke. Dem Direktschall folgen die sogenannten Early Reflexions, von denen es meistens sechs gibt, nämlich für jede Wand- bzw. Boden- oder Deckenfläche eine. Jede Reflexion ruft wiederum viele weitere Reflexionen hervor. Diese in ihrer Anzahl schnell zunehmenden, dichten Reflexionen bildet den Nachhall, der aufgrund ständiger Energieabsorptionen an Reflexionsflächen abnimmt bis er schließlich verstummt. Angegeben wird die Nachhallzeit oftmals als RT60-Wert (RT = Reverb Time), der die Zeit angibt, bis wann der Nachhall um 60dB abnimmt (meist bezogen auf eine Frequenz von 1000 Hz). Die Nachhallzeit kann zur bestmöglichen Genauigkeit gemessen oder, wenn dies nicht möglich ist, mithilfe von Formeln nach Eiring und Sabine berechnet werden.

In der Akustik wird zwischen Direktschall (Schall, der direkt von der Schallquelle abgestrahlt wird) und Diffusschall (Schall, der sich aus der Gesamtheit der Reflexionen ergibt) unterschieden. Im Freifeld kommt meist nur der Direktschall vor, während im Raum der Direktschall mit zunehmendem Abstand von der Schallquelle nach dem Abstandsgesetz abnimmt, während der Diffusschall überall ungefähr gleich laut ist. Je weiter wir also von einer Schallquelle im Raum entfernt sind, desto höher ist der Diffusschallanteil im Verhältnis zum Direktschall. Die Distanz, in der Direkt- und Diffusschall gleich laut sind, wird als Hallradius bezeichnet, der abhängig von der Frequenz ist.

Durch Reflexionsvorgänge kommt es im Raum zu verschiedenen Phänomenen. An Wänden kommt es bei Reflexionen aller Frequenzen zu einem Druckstau, der im Bassbereich am größten ist. Daher ist das Frequenzbild in Wandnähe meistens basslastig. Ein anderes Phänomen sind stehende Wellen, die üblicherweise zwischen zwei parallelen Wänden auftreten, wenn sich die Reflexion gleichphasig mit der einfallenden Schallwelle überlagert. Weil dabei ortsfeste Druckmaxima und -minima zustande kommen, können Töne an bestimmten Punkten im Raum nicht korrekt wahrgenommen oder gemessen werden. Dies ist vor allem bei tiefen Frequenzen problematisch, weil hier der räumliche Abstand zwischen Druckmaxima und Druckminima groß ist und der Schall lange nachklingt. Für hohe Frequenzen sind stehende Wellen hingegen unproblematisch. Ein drittes Phänomen ist das Flatterecho, das zwischen zwei parallelen, meist mindestens acht Meter voneinander entfernten Wänden entstehen kann, und dafür sorgt, dass wir hören können, wie der Schall mehrmals hin- und her reflektiert wird. Mit dem Kammfiltereffekt soll hier noch ein weiteres Phänomen Erwähnung finden, das bei der Schallausbreitung auftreten kann und daherrührt, dass es zwischen dem Direktsignal und seiner Reflexion zu einer Interferenz kommt, bei der manche Frequenzen ausgelöscht und andere verstärkt werden können.

Kapitel 4

Psychoakustik & Hörphysiologie

 

Das auditorische System

Das menschliche Ohr ist ein feinfühliger und empfindlicher Druckempfänger und kann in die Bereiche Außenohr, Mittelohr und Innenohr eingeteilt werden. Der Schall gelangt durch das Außenohr, also die Ohrmuschel und den äußeren Gehörgang zum Trommelfell, das das Außenohr vom Mittelohr trennt und aus Schutzgründen durch den äußeren Gehörgang in das innere des Schädels verlagert ist. Das Trommelfell ist eine dünne Membran aus faserigem Gewebe, die durch den Schalldruck in Schwingung versetzt wird. Im Mittelohr überträgt ein Hebelsystem aus den drei Gehörknöchelchen Hammer, Amboss und Steigbügel die Schwingung an das ovale Fenster und passt die Kraft des Schalldrucks an die Empfindlichkeit des Innenohrs an. Hier können der Hammer- und Steigbügelmuskel den Schalldruck ab ca. 70 bis 80 dB(SPL) um 6 bis 10 dB dämpfen. Um einen Druckausgleich zu ermöglichen, verbindet die Eustachische Röhre das Mittelohr mit der Mundhöhle. Im Innenohr befindet sich neben den Bodengängen (Gleichgewichtsorgan) die Gehörschnecke, ein schneckenförmiger Hohlraum im Felsbein, der aus drei mit Flüssigkeit gefüllten Kammern besteht: Vorhoftreppe, Schneckengang und Paukentreppe. Zwischen Schneckengang und Paukentreppe befindet sich die Basilarmembran, die das Corti-Organ trägt. Die darin befindlichen Haarzellen werden bei unterschiedlichen Frequenzen an unterschiedlichen Stellen besonders stark angeregt und in Resonanz versetzt. Das Ohr zerlegt hier sozusagen die komplexe Schwingung in unterschiedliche Einzelfrequenzen und überträgt diese Informationen über spezifische Hörnervfasern an das Gehirn.

 

Musik und Klang löst beim Menschen Emotionen aus, weckt Erinnerungen, regt uns an oder wirkt beruhigend zugunsten unseres allgemeinen Wohlbefindens. Was genau im Gehirn bei der klanglichen Rezeption passiert, wird schon lange wissenschaftlich untersucht. Nachdem der Hörnerv einen Schalleindruck zunächst an den Hirnstamm weitergeleitet hat, gelangt er von dort in den auditorischen Cortex. Doch er ist nicht der einzige Bereich, der bei der Schallwahrnehmung eine Rolle spielt: Die Involvierung eines der beiden Sprachzentren (Broca-Areal), motorischer und visueller Areale, des limbischen System zur Emotionsverarbeitung und des Belohnungssystems zeigt: Klang und Musik verbindet unsere Gehirnareale. Es kommt zur Ausschüttung von Endorphinen, also körpereigenen Glückshormonen, und des Neurotransmitters Dopamin, der im Gehirn von großer Bedeutung für das Belohnungssystem ist, sowie zu einer Abnahme des Stresshormons Cortisol. Gemeinsames Musizieren erhöht zudem die Ausschüttung des Bindungshormons Oxytocin. Neben diesen positiven chemischen Effekten haben Klang und Musik dank der Neuroplastizität auch strukturellen Einfluss auf unser Gehirn, denn auditive Reize sorgen für eine Neuverschaltung von Nervenzellen, sodass Hirnareale besser miteinander vernetzt sind, und regen die Ausprägung des Corpus Callosums, also der Verbindung zwischen den Hirnhälften, an.

 

Richtungshören

Damit sich der Mensch in seiner Umgebung zurechtfinden kann, kann er Schallquellen sehr genau orten. Das Richtungshören ist ein komplexer Vorgang, der sich aus der Analyse dreier Parameter zusammensetzt: interaurale Zeitdifferenzen, interaurale Schalldruckdifferenzen und die Klangfarbe.

Interaurale Zeitdifferenzen beschreiben zeitliche Unterschiede, wann ein Signal zuerst auf das eine Ohr und dann auf das andere trifft. Dafür vergleicht das Gehirn die Phase zwischen dem linken und dem rechten Ohr sowie die Hüllkurven der Schwingungen, also den Lautstärkenverlauf. Dieser Mechanismus alleine würde die Gefahr einer Fehlortung bergen, da man ein und derselben Zeitdifferenz immer zwei mögliche Winkel zuordnen kann (z.B. -45° und -135°). Eine vertikale Positionsortung ist nicht möglich – man kann also nicht unterscheiden, ob eine Schallquelle von oben oder von unten auf die Ohren treffen. Das Gehirn kann also nur einen zweideutigen horizontalen Winkel errechnen.

 

Interaurale Schalldruckdifferenzen werden vom Gehirn erkannt und können Aufschluss darüber geben, auf welches Ohr das Signal zuerst getroffen ist, weil dort ein erhöhter Schalldruck vorkommt. Bei Schallwellen von einer Frequenz ab 1,6 kHz werden Abschattungen relevant, die der Kopf erzeugt: Kommt ein Schallsignal von links, kann sich der Schall ab dieser Frequenz nicht mehr vollständig um den Kopf herumbeugen, sodass bei diesem seitlichen Einfall der Schalldruckunterschied deutlich wahrgenommen werden kann. Genauso wie bei der oben beschriebenen Analyse der interauralen Zeitdifferenzen ist über diese Methode nur eine links/recht-Unterscheidung möglich und es können keine sicheren Informationen über eine Schallherkunft von oben/unten bzw. vorne/hinten abgeleitet werden.

 

Der Klangfarben-Abgleich ist der wichtigste Mechanismus für die Ortung einer Schallquelle. Hier geht es -  anders als zuvor beschrieben - nicht um einen interauralen Vergleich der Schalleindrücke, sondern vielmehr um einen Abgleich der (monaural) erfassten Klangfarbe mit einem gelernten, im Gehirn abgespeicherten Korrelationsmuster. Durch diesen komplexen Vorgang ist auch eine Unterscheidung bezüglich oben/unten sowie vorne/hinten möglich. Die Form des menschlichen Kopfes, vor allem die der Ohrmuscheln, bewirkt Abschattungseffekte, Reflexionen und Resonanzen am Schädel und Außenoh und beeinflusst damit die Klangfarbe eines Schallsignals auf spezifische Art und Weise, je nachdem aus welcher Richtung der Schall eintrifft und das Trommelfell erreicht. Manche Frequenzen werden abgesenkt und andere verstärkt. Diese Filterwirkung des Kopfes wird durch die Head-Related Transfer Function (HRTF) beschrieben. Die spezifischen Klangfärbungen nehmen wir nicht bewusst wahr, sondern entnehmen ihnen relevante Richtungsinformationen. Dass diesem vergleichenden Vorgang ein Lernprozess vorausgehen muss, ist der Grund dafür, warum Kinder über ein schlechteres Richtungshören verfügen als Erwachsene. Nach dem Assoziationsmodell von Theile untergliedert sich der Analyseprozess der Schallrichtung anhand der Klangfarbe in zwei Stufen, die richtungsbestimmende Stufe (in der durch Musterabgleich der Einfallswinkel bestimmt wird) und der gestaltbildenden Stufe (in der nach der Inversion der HRTF die eigentliche Klangfarbe ermittelt wird).

 

Entfernungshören

 

Faktoren, die das Einschätzen der Entfernung einer Schallquelle ermöglichen, sind die Lautstärke, Klangfarbe (entfernungsbedingter Abfall von Frequenzen, Einfluss der Luftabsorption, …), das Pre-Delay (also der zeitliche Abstand zwischen Direktsignal und erster Reflexion), der Hall-Anteil und nicht zuletzt die Erfahrung, mit der alle Eindrücke abgeglichen werden.

 

Maskierungseffekt

Der Maskierungseffekt sorgt für akustische Verdeckung. Es gibt die spektrale Maskierung und die zeitliche Maskierung.

Bei der spektralen Maskierung können wir einen Ton nicht hören, wenn zeitgleich ein lauterer Ton im gleichen Frequenzbereich erklingt.

 

Hintergrund: Die Ruhehörschwelle ist derjenige Schalldruckpegel, bei dem das menschliche Gehör Geräusche gerade noch wahrnehmen kann. Dies ist frequenzabhängig: Für tiefe und sehr hohe Frequenzen liegt die Ruhehörschwelle hoch, während sie für mittlere Frequenzen relativ tief ist. Eine Ruhehörschwellenkurve zeigt also an, ab welchem Schalldruck eine bestimmte Frequenz für uns hörbar wird, wenn ansonsten Ruhe herrscht.

 

Wenn mehrere Schallereignisse aufeinandertreffen, setzt ein vorhandenes Ereignis die Empfindlichkeit für neu auftretende Schallereignisse herab. Es ergibt sich eine neue Hörschwelle, die abhängig ist von der Lautstärke und dem Frequenzspektrum des bestehenden, maskierenden Schallereignisses: Die Mithörschwelle. Liegt ein Schallsignal unterhalb dieser Mithörschwelle des Maskierers, so ist er aufgrund totaler Maskierung nicht hörbar. Zu einer partiellen Maskierung kommt es dann, wenn ein Schallsignal auf oder nur wenig oberhalb der Mithörschwelle liegt. Bei tiefen Frequenzen ist der Maskierungseffekt im Allgemeinen stärker als bei hohen Frequenzen.

 

Bei der zeitlichen Maskierung erklingt ein lauterer Ton nicht zeitgleich, sondern mit zeitlichem Versatz, entweder vorher oder nachher. Beim Premasking wird ein Ton maskiert, weil kurz nachher (maximal 20 ms) ein Ton erklingt, der einen höheren Schalldruckpegel hat. Grund hierfür ist, dass ein Schallsignal von höherer Amplitude vom Gehirn schneller verarbeitet wird als ein leises Signal. Beim Postmasking wird ein Ton maskiert, weil kurz vorher ein lauterer Ton erklungen ist. Dieser Effekt tritt bis zu 200 ms nach Ende des maskierenden Schallereignisses auf. Die zeitliche Maskierung ist wie die spektrale Maskierung frequenzabhängig.

 

Um Maskierungseffekten z.B. in der Musikproduktion entgegenzuwirken, setzt man Filter und Equalizer ein, um einzelne Frequenzbereiche zu reduzieren oder zu betonen und das Klangbild zu ordnen. Einen Beitrag leistet dazu auch die einfach Lautstärken- und Panoramaregelung. Das Ergebnis ist ein Klang, der aufgeräumt klingt und uns guttut.