Virtuelle Akustik
Vortrag im Rahmen der Lehrveranstaltung "Rechner- und Betriebssysteme"
Bauhaus-Universität Weimar / Fakultät Bauingenieurwesen / Studienrichtung Bauinformatik
Autor: Dipl.-Ing. (FH) Gerhard Pülz
Lehrverantwortliche: Dr. Ing. Günther Schatter und Dr. rer. nat. Bernd Schalbe / Fakultät Medien / Lehrstuhl Vernetzte Medien

1. Gliederung

2. Einführung

    Virtuelle Realität (VR) ist eine vom Computer simulierte Wirklichkeit, eine künstliche Welt, in die man sich mit Hilfe der entsprechenden technischen Ausrüstung scheinbar hineinversetzen kann. Unter virtueller Realität versteht man derzeit meist Darbietungen einer computergenerierten sichtbaren Welt. Verfahren, diese auch hör-, tast- riech-, und schmeckbar zu machen stehen noch am Anfang der Entwicklung oder bleiben derzeit noch Science Fiction. Die virtuelle Akustik befasst sich unter anderem mit dem akustischen Aspekt der virtuellen Realität. Sie gliedert sich im wesentlichen in zwei große Teilbereiche. Der künstlichen Klangerzeugung, Klangsynthese beziehungsweise Sound Design und der Simulation von Klangräumen (Virtuelle Auditive Umgebungen) mit dem Ziel der möglichst realistischen Abbildung von Höreindrücken. Dieser Vortrag soll einen groben Überblick über das Gebiet der virtuellen Akustik geben und den aktuellen Stand der Technik aufzeigen.

[4], [5]

3. Begriffserklärungen

    Der Begriff "virtuell" ist vom lateinischen Begriff virtus = Tüchtigkeit abgeleitet. Er bedeutet so viel wie nicht echt, nicht in Wirklichkeit vorhanden, aber echt erscheinend, dem Auge, den Sinnen vortäuschend.

    Der Begriff "Akustik" ist vom griechischen Wort akouein = hören abgeleitet. Bezeichnet wird damit die Lehre vom Schall, von den Tönen, dessen Ausbreitung und die wissenschaftliche Untersuchung der Schalleigenschaften eines Raumes ("Hörsamkeit"), Schalltechnik und Klangwirkung.

[13]

4. Klangerzeugung und Klangsynthese

    Im wesentlichen werden vier Verfahren zur künstlichen Klangsynthese eingesetzt. Die analoge, elektronische oder halbelektronische Klangerzeugung, die FM-Synthese, das Sampling und neuerdings immer öfter die VA-Synthese (Virtual Acoustic).

[5]

4.1. Analoge Klangerzeugung

    Instrumente mit analoger, elektronischer und halbelektronischer Klangerzeugung gibt es schon fast ein Jahrhundert lang. Das erste populär gewordene Gerät war das Theremin, bei dem man durch Änderung der Kapazität über zwei Antennen mit Hilfe der Hände berührungslos Tonhöhe und Lautstärke verändern konnte. Weitere wichtige Vertreter der Analoginstrumente sind die Hammond B3, der Mini Moog oder der Fender-Rhodes. Ironischerweise tragen nicht selten konstruktionsbedingete Unvollkommenheit zur eigenständigen Klangcharakteristik dieser Instrumente bei. Charakteristisch am Sound der Hammond ist zum Beispiel der Keyclick der von den Konstrukteuren ursprünglich nicht gewollt war.

[5]

4.2. FM-Synthese

    1983 brachte Yamaha mit dem DX7 den ersten digitalen Synthesizer auf den Markt. Dieses auf Grundlage der FM-Synthese (Frequenzmodulation) arbeitende Instrument revolutionierte damals die elektronische Popmusik. Um einen effektiven FM-Algorithmus von universitären Großrechnern in einen für den Massenmarkt geeigneten Chip zu implementieren, benötigten die Entwickler damals über sieben Jahre. Das Problem lag dabei nicht in der Entwicklung neuer mathematischer Formeln zur Klangerzeugung sondern in der Begrenztheit der Computertechnologie der 70er und 80er Jahre. FM-Synthese kann man sich als eine Art Supervibrato vorstellen. Ein Tongenerator, der Modulator steuert einen zweiten Tongenerator, den Träger (Carrier). Das Ohr bemerkt die mathematische Herkunft von FM-Wellen allerdings sehr schnell. FM-Sounds sind entschieden künstliche, elektronische Klänge, die den natürlichen zwar manchmal erstaunlich nahe kommen, aber keineswegs als überzeugender Ersatz durchgehen. Was fehlt ist das Zufallselement, das in den natürlichen Klängen eine Rolle spielt und dazu führt, daß zwei nach Meinung eines Musikers genau gleiche Töne physikalisch niemals gleich sind. Bis zu einem gewissen Grad wird durch künstlichen Hall und andere Effekte einem elektronisch erzeugten Klang Natürlichkeit hinzugefügt. Trotzdem läßt sich in der Regel ein starrer elektronischer Klang gut vom natürlichen unterscheiden. FM-Synthese liefert interessante und experimentell brauchbare, aber nach konventionellen Vorstellungen schwer vorhersehbare Ergebnisse und ist deswegen relativ schwer beherrschbar.

[5]

4.3. Sampling

    In den letzten Jahren haben sich die Speichernöte früherer Computer gelindert, was preiswerte Sampler-Konstruktionen ermöglichte. Das Prinzip des Samplings ist relativ einfach. Dabei wird zum Beispiel ein digitaler Schnappschuß eines echten Instrumenten-Sounds erstellt der in beliebiger Tonhöhe abgespielt werden kann. Für ein einigermaßen vernünftiges Klavier in CD Qualität, das seine Klangcharakteristik je nach Spielweise und Lautstärke verändert braucht man jedoch so viel Speicher, daß sich die Kosten-Nutzen-Frage stellt.

[5]

4.4. VA-Synthese

    1994 kamen zwei Synthesizer auf den Markt, die wieder revolutionär waren. Der Yamaha VL-1 und VP-1. Beide erzeugen ihre Klänge mittels VA-Synthese. Ähnlich wie bei der FM-Synthese werden dabei die Sounds errechnet. Die Algorithmen der Virtuellen Akustik setzen jedoch im Gegensatz zur FM-Synthese näher an der Natur an – nämlich beim mathematisch-physikalischen Nachbau von Instrumenten, dem Physical Modeling, wobei den natürlichen Teilen des Instrumentes computergerechte mathematische Formeln und Strukturen entsprechen. Ein solches Modell muß die Funktionsweise von Gitarrensaiten, Violinbögen, Klarinettenmundstücken, Saxophonblättern oder Trompetenventilen beschreiben. Virtuelle Akustik versucht damit den natürlichen Entstehungsprozess von Klängen nachzubilden. Dabei ist beispielsweise die Saitendicke ein Parameter, den der Spieler sogar während des Spielens in Echtzeit ändern kann. Der stufenlose Übergang von normalen Gitarrensaiten zu den Trossen der Golden Gate Bridge wird damit zu einer Frage der Rechenleistung. Erst moderne Rechner- und Chiptechniken ermöglichen es, die allen musikalischen Wellenvorgängen zugrundeliegende Schwingungs- und Wellengleichung für Echtzeitanwendungen in Silizium umzusetzen. Einfache VA-Modelle können heute mehrere Stimmen in CD-Qualität auf einem DSP-Chip implementieren, der nur ein paar Dollar kostet. Im Moment besteht allerdings noch das Problem, daß es für Instrumente mit komplizierteren Schwingungsvorgängen wie Geige oder Flügel noch keine geeigneten oder nur unausgereifte Modelle existieren.

[5]

4.5. Anwendungsbereiche

    Den Anwendungsbereichen der Klangsynthese mittels virtueller Akustik sind keine Grenzen gesetzt. Zum Beispiel hat die KFZ Industrie bereits damit angefangen die Geräuschentwicklung neuer Motoren, Getriebe oder Auspuffanlagen vor der Erstellung von Prototypen am Rechner zu simulieren. Ebenso wurden vor kurzem von Forschern Versuche unternommen die "Stimmen" der Dinosaurier anhand ihrer Kopfformen und vieler weiterer Parameter mittels Virtueller Akustik zu simulieren. In der Musikindustrie gehört Virtuelle Akustik bereits seit einigen Jahren zum Standart.

[5]

4.6. Emagic EVP88

    An dieser Stelle soll anhand des voraussichtlich Ende März 2001 herauskommenden VA-Synthesizers Plug-In Emagic EVP88, der aktuelle technische Stand der VA-Synthese beschrieben werden. Das Magazin Keyboards schreibt darüber folgendes in seiner April Ausgabe:
    Das EVP88 bildet berühmte E-Pianos wie den Fender Rhodes und das Wurlitzerpiano mittels einem physikalischen Modell nach. Dabei kommt das Klangverhalten verblüffend nah an das der Orginalinstrumente heran. Vor allem gilt dies für die Dynamik des Rhodes, das drastische Klangänderungen bei unterschiedlichen Anschlagstärken produziert. Ausgehend von einem gut eingestellten Vorbild-Exemplar besitzt das Rhodes im unteren Dynamik-Bereich einen dumpfen, fast Sinus-artigen Sound, der mit steigender Anschlagstärke kontinuierlich an Obertönen gewinnt und im oberen Dynamik-Bereich schließlich harte Akzente ermöglicht. All das wird vom EVP88 sehr schön nachgebildet - allerdings ohne "Stufendynamik" wie man es von gesampelten Rhodes-Sounds her kennt. Aber es gibt noch mehr Merkmale bezüglich derer ein Sampler passen muß. Die Anschlagdynamik beeinflußt auch die Feinstimmung beim elektromagnetischen Vorbild. Wenn man richtig zulangt, entstehen minimale Verstimmungen, so daß eine stärkere Schwebung erzeugt wird als beim sanften Spiel. Ebenso die Hämmer, die beim Auftreffen auf den Klangzungen ein ständig variierendes Klick-Geräusch erzeugen. Repetiert man einzelne Noten bei gehhaltenem Sustain-Pedal, stellt man beim echten Rhodes fest, daß das Hammer/Klangzungen-Konstrukt recht instabil reagieren kann. Es kommt sowohl zu Auslöschungen (der Hammer dämpft die Klangzunge) als auch zu dem Effekt, daß sich der Sound "aufschaukelt" und fast übersteuert klingt. Des Weiteren erzeugen die Dämpfer Nebengeräusche, die bei der Authentizität der Klänge eine Rolle spielen. Diese Merkmale wurden offensichtlich beim physikalischen Modell des EVP88 berücksichtigt. Darüber hinaus bietet es sogar die Möglichkeit, mit einigen Parametern auf Bestandteile des Klangs Einfluß zu nehmen, was beim Orginalinstrument nicht möglich ist. Neben dem grundsätzlichen Ausschwingverhalten (Decay, Release) betrifft dies die Lautstärken von Bell-Anteil und Dämpfer-Nebengeräuschen, die sich getrennt einstellen lassen. Derartig realistische Nachbildungen von Rhodes und Wurlitzer hat es laut Keybords bislang nicht gegeben. Alles in allem macht die Beta-Version einen stabilen Eindruck, so daß man mit dem Erscheinungsdatum Ende März rechnen darf. Erfreulich ist auch der moderate DSP-Verbrauch des EVP88. Auf einem G4/400 mit 256 MB beansprucht das Instrument ungefähr ein Viertel der Rechnerleistung. Das Instrument ist maximal 88-stimmig. Vom Hersteller werden als Systemvoraussetzungen für PC Pentium III 600 MHz mit 256 MB RAM, für Mac G4-Dual-Prozessor 256 MB RAM empfohlen.

[14]

[14]


5. Virtuelle Auditive Umgebungen

    Besucher einer künstlichen, durch einen Computer erzeugten Welt sollten im Idealfall so darin agieren können, wie in einer realen Umgebung. Dazu müßten sie die synthetischen Gegenstände mit mehreren Sinnesorganen wahrnehmen, Objekte also nicht nur sehen, sonder auch berühren, ertasten, bewegen und hören können. Bei den meisten der derzeit realisierten VR-Anwendungen (Virtual Reality) bezieht sich das Hauptinteresse auf das visuelle Feedback. Das Gefühl der Präsenz in einer virtuellen Umgebung kann jedoch durch Einbeziehung der auditiven Wahrnehmung entscheidend verbessert werden. Die visuelle Wahrnehmung ist unter Ausschluß von Kopfbewegungen stets auf einen Teil der Umgebung beschränkt und kann durch Schließen der Augen sogar nahezu ausgeschaltet werden. Im Gegensatz dazu ist die auditive Wahrnehmung nicht auf den Blickbereich eingeschränkt und ein Verschließen der Ohren ist nicht ohne zusätzliche Hilfsmittel möglich. Wird in einer virtuellen Umgebung auf die auditive Komponente verzichtet oder dieser nicht ausreichend Beachtung geschenkt, so empfindet der Benutzer dieses stets als unnatürlich, und das Gefühl, in der Umgebung präsent zu sein, ist stark herabgesetzt.

[1], [4], [7]

5.1. Räumliches Hören

    Das Gehör des Menschen vermag auditorische Parameter wie Richtung und Entfernung von Schallquellen zu bestimmen. Erst dadurch ist es unter anderem möglich, sich bei mehreren gleichzeitig aktiven Quellen auf eine zu konzentrieren, statt etwa in einem Stimmengewirr gar nichts zu verstehen (Cocktail-Party-Effekt). Um zu einem räumlichen Höreindruck zu gelangen muß das Gehirn in mehreren Verarbeitungsschritten aus den Verläufen der Luftdruckschwankungen an den beiden Trommelfellen die räumliche Information rekonstruieren. Die wichtigsten Merkmale bei der Lokalisation von Schallquellen sind die Unterschiede zwischen den Signalen des linken und rechten Ohres. Der Schall einer Quelle rechts vom Hörer erreicht das rechte Ohr etwas früher als das linke, weil der Schall zum linken Ohr einen etwas längeren Weg zurückzulegen hat. Außerdem ist der Schalldruck am linken Ohr kleiner. Der Kopf schattet das linke Ohr ab und schwächt damit gerade hohe Frequenzen ab. Diese sogenannten interauralen Zeit- und Pegeldifferenzen bestimmen weitgehend, auf welcher Seite der Hörer das Hörereignis wahrnimmt. Man nimmt an, daß das Gehirn für tiefe Frequenzen im wesentlichen die Zeitunterschiede auswertet, für hohe Frequenzen dagegen die Pegeldifferenzen. Je größer diese Unterschiede sind, umso stärker scheint das Hörereignis seitlich ausgelenkt. Mit einem Kopfhörer an der Stereoanlage kann man das leicht nachvollziehen. Dreht man den "Balance" Regler nach links oder rechts, werden die Pegelunterschiede verändert und die Richtung des Hörereignisses ändert sich. Hört man jedoch genau hin, stellt man fest, daß sich dabei eigentlich kein richtiger räumlicher Höreindruck einstellt: man hört alles im Kopf. Das liegt daran, daß zwar die Pegel an den Ohren verändert werden, die Zeitunterschiede zwischen den Ohren aber immer gleich sind. Der "Balance" Regler ahmt auch einen weiteren wichtigen Effekt nicht nach. Wichtig für die dreidimensionale Wahrnehmung ist nämlich auch die richtungsabhängige Veränderung des wahrgenommenen Frequenzspektrums. Die Form der Ohrmuschel sowie die des Kopfes und der Schultern haben zur Folge, daß je nach Einfallswinkel verschiedene Frequenzanteile mit unterschiedlicher Intensität zum Trommelfell gelangen. Je nach Einfallsrichtung werden bei unterschiedlichen Frequenzen Resonanzen in der Ohrmuschel angeregt. Dadurch wirkt das Außenohr wie ein richtungsabhängiger Filter, der je nach Einfallsrichtung den Pegel in bestimmten Frequenzbereichen anhebt oder absenkt.

[1], [3], [4]

Frequenzspektrum
[3]


5.2. Positionierung des Benutzers

    Damit man mit einer virtuellen Scheinwelt und ihren Objekten wechselwirken kann, muß der Benutzer zunächst positioniert und die Bewegungen relevanter Körperteile mit Sensoren aufgenommen und digitalisiert werden. Der Computer muß also genau erfahren, wo und wie sich der Benutzer im virtuellen Modell befindet. Beispielsweise läßt sich die Position des Kopfes mit einem elektromagnetischen Orientierungsmeßsystem erfassen. Die Daten werden mit einem vorgegebenen Modell der virtuellen Umgebung, dem sogenannten Weltmodell, verglichen. Daraus kann das System die resultierenden Reaktionen auf die Aktionen des Benutzers berechnen und mittels Displays zurückgeben. Diese überdecken die Wahrnehmung der tatsächlichen Umgebung. Zur visuellen Simulation verwendet man meist Helme mit integrierten Monitoren, deren Bild das gesamte Blickfeld abdecken und die mittels binokularer Projektion dreidimensionale Eindrücke erzeugen. Ein gut geeignetes Display für das Gehör ist der Kopfhörer. Eine einfache Ausgabe herkömmlicher Stereoaufnahmen reicht jedoch bei weitem nicht aus. Die binaurale Simulationstechnik, die natürlich wirkende dreidimensionale Wahrnehmungen von Tönen, Sprache und Geräuschen erzeugt, steht derzeit allerdings noch in ihren Anfängen. Sie ist Schwerpunkt des Lehrstuhls für Allgemeine Elektrotechnik und Akustik der Ruhr-Universität Bochum, unter der Leitung von Jens Blauert. Dieser konzipierte und koordiniert auch das europäische Forschungsverbundprojekts SCATIS (spatially coordinated auditory/tactile interactive scenario).

[1], [4]

5.3. Auditive Simulation

    Durch viele Hörversuche konnte bestätigt werden, daß die Signale an den Trommelfellen im wesentlichen die Richtung des Hörereignisses bestimmen. Wenn akustische Signale über Kopfhörer gehört werden, ist die richtungsabhängige Filterwirkung von Kopf und Ohrmuschel ausgeschaltet. Normalerweise hört man dann alles innerhalb des Kopfes. Wenn es aber gelingt, die Signale durch elektronische Filter vor den Kopfhörern so zu filtern, als ob sie durch die eigenen Ohren gefiltert worden wären, stellt sich der gleiche auditive Raumeindruck wie in der natürlichen Situation ein. Auf dieser Annahme basiert die Technik der "Virtuellen Auditiven Umgebung". Dabei werden die Signale dem Hörer über Kopfhörer dargeboten und durch digitale Filter so bearbeitet, daß der Schalldruck an den Trommelfellen genauso verläuft, wie er in einer natürlichen Situation auftreten würde. Das bedeutet, daß die richtungsabhängige Filterwirkung des Kopfes und der Ohrmuschel elektronisch nachgebildet wird. Dazu ist es zunächst nötig, die Wirkung der Ohrmuscheln und des Kopfes eines eines Menschen für eine große Anzahl von Richtungen zu messen. Hierfür werden Miniaturmikrofone in die Gehörgänge eingesetzt. Die Versuchsperson wird dann in den Mittelpunkt eines reflexionsarmen Raumes gebracht. Ein Lautsprecher in 2,50 m Entfernung strahlt ein Meßsignal ab, das von den Mikrofonen aufgenommen und in einer Meßeinheit in digitale Werte umgesetzt wird. Diese Werte können in einem PC weiterverarbeitet werden. Die Messung wird für 122 Richtungen wiederholt. Die Meßdaten sind Grundlage für einen individuellen Katalog mit den sogenannten Außenohr-Übertragungsfunktionen für den einzelnen Benutzer. Um eine Person in eine dreidimensionale auditive Scheinwelt zu versetzen, bedarf es also einer realitätsgetreuen Modellierung und Darbietung der Schalldrucksignale an beiden Ohren. Mit Hilfe der gewonnenen Außenohr-Übertragungsfunkionen beziehungsweise Impulsantworten lassen sich nun Schallereignisse synthetisieren, die über Kopfhörer wahrgenommen werden, als wären sie außerhalb des Kopfes an entsprechenden Positionen entstanden. Mit dieser Technik sind bereits einfache akustische Simulationen in virtuellen Umgebungen möglich. Dazu muß man nur messen, wie der Benutzer seinen Kopf hält, um die relative Position der "ortsfesten" virtuellen Schallquellen und so die jeweils adäquate Einfallsrichtung bei der Synthese zu berücksichtigen.

[1], [4], [10]

5.4. Simulation der Raumeigenschaften

    Die alleinige Positionierung von Hörer und Schallquellen enthält jedoch noch keine raumakustischen Aspekte. Aus dem Gehörten schließt man aber auch auf die Umgebung zurück. Sprache klingt zum Beispiel in der Dusche anders als in einer Konzerthalle. Der Schall wird an Wänden und Objekten teilweise reflektiert und trifft dadurch verzögert beim Hörer ein. Je nach Einfallswinkel und reflektierendem Wandmaterial wird er zudem spektral verändert. Außerdem dämpft ihn die Reibung der schwingenden Luftmoleküle. Wollte man das Schallfeld exakt berechnen, müßte seine physikalische Beschreibung, die entsprechende Wellen - beziehungsweise Differentialgleichung gelöst werden, was meist nicht explizit, sondern nur numerisch möglich ist. Doch wäre dafür der Rechenaufwand zu hoch, als daß er sich mit heutigen Mitteln in akzeptabler Zeit bewältigen ließe. Nimmt man aber an, daß die Wellenlänge des Schalls klein gegenüber den linearen Abmessungen der reflektierenden Flächen und groß gegenüber deren Rauhigkeiten ist, ergibt sich aus der Wellengleichung als einfachere Darstellung, die geometrische Akustik. Wie in der Optik das Licht, modelliert man Schall darin als einen von der Quelle ausgehenden Strahl, der sich geradlinig ausbreitet und an Flächen reflektiert wird, wobei auch hier der Einfalls- gleich dem Ausfallswinkel ist. Zwar trifft die Grundannahme bei hörbarem Schall mit Wellenlängen von etwa zwei Zentimetern (ca. 16 kHz) bis acht Metern (ca. 40 Hz) so gut wie nie zu, doch liefert das Verfahren trotzdem brauchbare Ergebnisse. Effekte der Wellenausbreitung wie Streuung und Beugung vermag man damit allerdings nicht zu beschreiben. Zur Simulation könnte man von der Quelle Schallstrahlen oder andere Formen wie etwa Kegel ausgehen lassen und ihren Weg verfolgen (Ray Tracing Methode). Alle Strahlen, die nach einer oder mehreren Reflexionen auf den Hörer treffen, wären bei der Darbietung zu berücksichtigen. Auch diese Strahlverfolgung ist aber noch so rechenintensiv, daß zur Zeit statt dessen das sogenannte Spiegelschallquellen-Verfahren eingesetzt wird. Die akustischen Wirkungen einer Wand - also Reflexion und Dämpfung - lassen sich nachahmen, indem man die primäre Schallquelle spiegelt, wie auch durch Reflexion von Licht an einer spiegelnden Oberfläche hinter ihr scheinbar ein Abbild seiner Quelle entsteht. Die Spiegelschallquelle wird als sekundäre Schallquelle erster Ordnung bezeichnet. Mehrfache Reflexionen ergeben sekundäre Schallquellen höherer Ordnung. Ihre Signale errechnen sich aus denen der Primärquelle durch lineare Filterung, wobei deren Koeffizienten Einfallsrichtung, materialabhängige Reflexionseigenschaften der Wände, Dämpfung im Ausbreitungsmedium und die Richtcharakteristik der Quellen modellieren. Das hörbare Schallsignal ergibt sich aus der Verteilung der Sekundärquellen und der Position des Hörers. Bei dieser sogenannten Auralisierung behandelt man die Spiegelschallquellen technisch mit dem gleichen Verfahren wie die primäre Quelle. Man ermittelt also jeweils die relative Lage zum Hörer und wendet die der Einfallsrichtung entsprechenden Außenohr-Impulsantworten an. Da sich der Benutzer in der virtuellen Umgebung frei zu bewegen vermag, ist bei jeder Positionsänderung eine neue Spiegelschallquellen-Verteilung zu berechnen und sind die Auralisierungsparameter anzupassen. Damit das Hörerlebnis räumlich und zeitlich konsistent wirkt, muß dies so oft und schnell geschehen, daß die Verzögerung zwischen einer Aktion und der zugehörigen Adaption der Kopfhörersignale nicht wahrgenommen wird. Die psychoakustische Schwelle dafür liegt im Bereich von einigen Millisekunden, was hohe Anforderungen an Hardware und Algorithmen stellt.

[1], [4], [7]

Spiegelschallquellen
[4]


5.5. Anwendungsbereiche

    Mittels Virtueller Akustik wäre es beispielsweise einem Architekten möglich, in der Planungsphase die nach seiner Vorstellung simulierte Konzerthalle zu begehen und ihre Raumakustik zu prüfen. Modifikationen etwa des Wandmaterials oder der Position akustisch wirksamer Elemente kann er dabei unmittelbar testen. In Telekonferenzen könnten die Teilnehmer in einem virtuellen Raum zusammenkommen, dessen simulierte akustische Eigenschaften eine reale Tischrunde vortäuschten. Denkbar sind vielfältige weitere Anwendungen, von der Unterhaltung über Ausbildung und Training zu Computerspielen, HiFi und Kino. Die Virtuelle Akustik könnte eine immense Verbesserung der Hörgeräte bewirken, die Ästhetik der Musikwiedergabe verbessern und virtuelle Welten akustisch bereichern. Auch ist sie ein wichtiges Hilfsmittel im Labor, um Schallereignisse isoliert psychoakustisch zu untersuchen. Ebenso wurde schon erfolgreich die Akustik antiker Theater mittels Virtueller Akustik simuliert.

[4], [6], [7], [9]

5.6. System von SCATIS

    Das im Rahmen von SCATIS entwickelte System erlaubt bis zu 80 vollständige Berechnungen des Schallfeldmodells pro Sekunde bei Räumen mit geringer bis mittlerer geometrischer Komplexität. Dabei werden Reflexionen bis zur zweiten Ordnung exakt simuliert, da sie für den Raumeindruck besonders wichtig sind. Spätere lassen sich durch adaptive Nachhall-Algorithmen erzeugen, die nur noch geeignete statistische Eigenschaften und nicht mehr individuelle Parameter einzelner Reflexionen berücksichtigen. Das System ist modular aufgebaut und auf einem Netz anwendungsspezifischer Hardware implementiert. Alle Module können als eigenständige Prozesse sowohl quasiparallel auf einem Prozessor, als auch vollständig parallel auf mehreren Prozessoren laufen. Dadurch ist es sowohl in Bezug auf die gewünschten Komponenten einer konkreten Anwendung, als auch in der Komplexität der Modelle frei skalierbar und ein visuelles System läßt sich ohne großen Aufwand anbinden. Der zentrale Steuerprozeß läuft auf einer Workstation. Er vermittelt und synchronisiert die Kommunikation zwischen den Modulen. Die von Sensoren (hier der Meßeinheit für die Kopfposition) eintreffenden Daten werden von ihr gefiltert und weitergeleitet. Zur Auralisierung in Echtzeit dient ein speziell entwickeltes Netzwerk aus parallel arbeitenden digitalen Signalprozessoren, welche die erforderlichen Filterungen vornehmen.

[4], [7]

6. Quellenverzeichnis

Letzte Änderung am 11.04.2001