Abschlussarbeit

Untersuchung des Einflusses der Magnitude und Phase von HRTFs auf die Klangfarbe

Steckbrief

Eckdaten

Professur:
HTA
Status:
abgeschlossen
Art der Arbeit:
Master

Betreuer

Masterarbeit von Sanjaya, Albertus Marvin

Bei virtuellen akustischen Szenen müssen Schallquellen so realistisch wie möglich modelliert werden,um ein Gefühl des Eintauchens in die Szene zu erreichen. Das menschliche Gehör führt eine Analyse des Schalls durch, die die Extraktion verschiedener Informationen zur Erkennung und Lokalisierung von Schallquellen ermöglicht. Unter anderem unterschiedliche Lautstärkepegel und Positionen von Schallquellen sind einige der Gründe, warum es zu Unterschieden in der Wahrnehmung von Schall kommt. Es gibt jedoch einige Fälle, in denen Schall auch bei identischer Lautstärke und Einfallsrichtung noch als ”anders” wahrgenommen werden kann. Ein Beispiel für dieses Phänomen kann in der Musik erlebt werden, da der Klang einer Gitarre vom Klang einer Geige unterschieden werden kann, selbst wenn derselbe Ton auf beiden Instrumenten mit demselben Lautstärkepegel gespielt wird und wenn die Instrumente am selben Ort relativ zum Zuhörer positioniert sind. Dieses Phänomen wird unter dem Begriff ”Klangfärbung” oder ”Timbre” zusammengefasst, der verschiedene Klangeigenschaften wie Harmonizität, Schärfe und Rauheit beschreibt, die nicht mit den Klangdeskriptoren Lautheit und Schalleinfallsrichtung beschrieben werden können. In mehreren Studien wurden Versuche unternommen, Audiosignale so darzustellen, dass aus ihnen Klangfarben-Deskriptoren extrahiert werden können, aber die meisten konzentrierten sich nur auf die Metrik der Magnitude und vernachlässigten die Phaseninformation. Diese Arbeit untersucht die Wahrnehmung der Klangfarbe im Kontext der kopfbezogenen Übertragungsfunktion (HRTF). In dieser Arbeit werden bereits existierende Metriken aus der Literatur implementiert und auch neue,relevante Metriken für die Implementierung gesucht, mit dem Ziel, eine quantitative Differenzskala in der Färbung darzustellen. Es werden relevante Schlussfolgerungen für das Paradigmendesign von Hörversuchen gezogen. In virtual audio, sound sources need to be modeled as realistically as possible to achieve a sense of immersion in the scene. The human auditory system performs an analysis of sound, which enables the extraction of different information to recognize and localize sound sources. There are various aspects known to result in the differences of sound perception of the listener. Different loudness levels and source locations are two of the reasons why the difference in the perception of sound occurs. However, some cases suggest that sound can still be perceived as “different” even with identical loudness and incidence direction. One example of this phenomenon can be experienced in music, as the sound of a guitar can be differentiated with the sound of a violin even when the same tone is played on both instruments with the same loudness level and when the instruments are positioned at the same location relative to the listener. This phenomenon is summed up by the term “sound coloration” or “timbre” which describes different sound characteristics, such as harmonicity, sharpness and roughness, which can’t be described using the sound descriptors of loudness and sound incidence location. Many attempts have been made to represent audio signals in a way that timbral descriptors can be extracted from them, but most have only been focusing on music applications and furthermore restricted to magnitude information. This thesis examines the perception of timbre in the context of the head-related transfer function (HRTF). Pre-existing metrics from different literatures are implemented in this thesis and also new metrics with assumed perceptual relevance are developed with the goal of presenting a quantitative difference scale in coloration. Relevant conclusions for the paradigm design of listening experiments are drawn.