Zusammenfassung: Hörer verlassen sich auf eine Reihe akustischer Merkmale, um zwischen Trommelmusik und Trommelsprache „zu unterscheiden“.
Quelle: Max-Planck-Institut
Wir sind von allerlei Geräuschen umgeben und können sie meist gut unterscheiden. Wenn wir beispielsweise das Radio einschalten, bemerken wir sofort, ob Musik abgespielt wird oder jemand spricht. Aber was passiert, wenn Sprache und Musik ähnlich klingen? Was sind die Klangeigenschaften, die uns helfen, sie zu unterscheiden?
Ein Team von Wissenschaftlern des Max-Planck-Instituts für Empirische Ästhetik in Frankfurt, des Max Planck NYU Center for Language, Music, and Emotion (CLaME) und der Arizona State University beschloss, dieser Frage nachzugehen.
Musik und Sprachverarbeitung wurden wiederholt verglichen, aber Ähnlichkeiten und Unterschiede zwischen den Domänen sind schwer zu quantifizieren. Dies ist insbesondere dann der Fall, wenn sich die Domänen überschneiden, wie dies beispielsweise bei Reimen oder Rap-Musik der Fall ist. Das internationale Forschungsteam initiierte eine Online-Studie mit mehr als hundert Personen aus insgesamt 15 verschiedenen muttersprachlichen Hintergründen, um die Grenzen zwischen diesen beiden Domänen besser zu verstehen.
Die Studie konzentrierte sich auf die „sprechende“ Dùndún-Trommel, die im Südwesten Nigerias sowohl als Musikinstrument als auch als Kommunikationsmedium verwendet wird. Diese Trommel imitiert die Tonsprache der Yorùbá und schafft so ein sogenanntes „Sprachsurrogat“.“ Die Studienteilnehmer erhielten Grundkenntnisse über die Dùndún-Trommel, obwohl etwa die Hälfte bereits damit vertraut war.
Die Forscher verglichen die akustischen Eigenschaften von Trommelsprache und Trommelmusik in Aufnahmen von beiden. Sie baten die Teilnehmer auch, die gleichen Aufnahmen anzuhören und anzugeben, ob sie glaubten, Sprache oder Musik zu hören.
„Die meisten Teilnehmer konnten eine große Anzahl der Auszüge so identifizieren, wie sie vom Interpreten beabsichtigt waren — wenn auch mit einer wenig überraschenden Tendenz zur musikähnlichen Kategorie. Diejenigen, die das Instrument bereits kannten, schnitten besonders gut ab, aber die anderen besser, als wenn sie die Antwort nur zufällig gewählt hätten „, erklärt Pauline Larrouy-Maestri vom Max-Planck-Institut für Empirische Ästhetik.
Mit den gesammelten Daten entwickelten die Forscher ein statistisches Modell, mit dem vorhergesagt werden kann, wann eine Klangprobe als musik- oder sprachähnlich wahrgenommen wird. Das Modell zeigt, dass Hörer auf eine Reihe von akustischen Merkmalen angewiesen sind, um diese Unterscheidung zu treffen.
Von diesen Merkmalen wurden Lautstärke, Tonhöhe, Klangfarbe und Timing als signifikant befunden. Zum Beispiel klingen ein regelmäßiger Rhythmus und häufige Änderungen der Klangfarbe musikalischer, während eine verringerte Intensität und weniger Änderungen der Tonhöhe eine Sequenz eher wie Sprache klingen lassen. Die Vertrautheit mit dem Instrument scheint zu beeinflussen, wie ein Zuhörer diese akustischen Merkmale registriert.
Die Ergebnisse der Studie, die kürzlich in der Fachzeitschrift Frontiers in Psychology veröffentlicht wurden, liefern empirische Belege für die Relevanz akustischer Merkmale sowie Einblicke in die Rolle des kulturellen Hintergrunds eines Zuhörers und liefern so neues Wissen über die Bildung von Wahrnehmungskategorien in Sprache und Musik.
Über diese auditive Neurowissenschaft und Musikforschung News
Quelle: Max-Planck-Institut
Kontakt: Keyvan Sarkhosh – Max-Planck-Institut
Bild: Das Bild wird dem MPI für Empirische Ästhetik gutgeschrieben/Durojaye
Originalforschung: Open access,
„Perception of Nigerian Dùndún Talking Drum Performances as Speech-Like vs. Music-Like: The Role of Familiarity and Acoustic Cues“ von Durojaye, C., Fink, L., Roeske, T., Wald-Fuhrmann, M. und Larrouy-Maestri, P.. Grenzen der Psychologie
Zusammenfassung
Wahrnehmung nigerianischer Dùndún Talking Drum Performances als sprachähnlich vs. musikähnlich: Die Rolle von Vertrautheit und akustischen Hinweisen
Es erscheint trivial, Klangsequenzen als Musik oder Sprache zu identifizieren, insbesondere wenn die Sequenzen aus verschiedenen Klangquellen stammen, z. B. einem Orchester und einer menschlichen Stimme. Können wir diese Kategorien auch leicht unterscheiden, wenn die Sequenz von derselben Tonquelle stammt? Anhand welcher akustischen Merkmale?
Wir sind diesen Fragen nachgegangen, indem wir die Klassifizierung von Klangsequenzen untersucht haben, die von einem Instrument ausgeführt werden, das Sprache und Musik miteinander verbindet: der dùndún Talking drum. Der Dùndún wird im Südwesten Nigerias häufig als Musikinstrument verwendet, eignet sich aber auch perfekt für den Sprachgebrauch in dem, was in Afrika als Sprachsurrogate bezeichnet wird. Einhundertsieben Teilnehmer aus verschiedenen geografischen Standorten (15 verschiedene Muttersprachen vertreten) nahmen an einem Online-Experiment teil.
Einundfünfzig Teilnehmer gaben an, mit der Dùndún-Sprechtrommel vertraut zu sein, 55% davon waren Yorùbá-Sprecher. Während des Experiments hörten die Teilnehmer 30 Dùndún-Samples von etwa 7s Länge, die entweder als Musik- oder Yorùbá-Sprachersatz (jeweils n = 15) von einem professionellen Musiker aufgeführt wurden, und wurden gebeten, jedes Sample als musik- oder sprachähnlich zu klassifizieren.
Die Klassifizierungsaufgabe zeigte die Fähigkeit der Hörer, die Samples wie vom Interpreten beabsichtigt zu identifizieren, insbesondere wenn sie mit dem Dùndún vertraut waren, obwohl selbst unbekannte Teilnehmer über dem Zufall auftraten. Eine logistische Regression, die die Klassifizierung der Samples aus mehreren akustischen Merkmalen durch die Teilnehmer vorhersagte, bestätigte die Wahrnehmungsrelevanz von Intensität, Tonhöhe, Klangfarbe und Timing-Maßnahmen und deren Interaktion mit der Vertrautheit des Zuhörers.
Insgesamt liefert diese Studie empirische Belege für die diskriminierende Rolle akustischer Merkmale und die modulatorische Rolle der Vertrautheit bei der Trennung von Sprache und Musik.