toplogo3dsound.gif (10626 byte)Home

.:BetaVersion 3D Sound System:.

Introduzione al suono binaurale

Il termine localizzazione fa riferimento sia alla percezione che l'ascoltatore ha della posizione di una sorgente sonora che le tecniche usate per elaborare quella percezione.
Nello stereo convenzionale, queste tecniche includono il panning, il livello relativo, il rapporto di dry/reverberant, l'EQ, lo spostamento di doppler (per i suoni in movimento) ed altro ancora.
Di questi e' soprattutto il panning ad essere usato per fornire un'impressione della distanza, poiche' agisce sull'azimut (angolo orizzontale) della posizione apparente della sorgente sonora. Il panning dello stereo convenzionale permette pero' al progettista di regolare l'azimut di un dato elemento sonico solo nella gamma sinistra-destra e limitata dall'ubicazione fisica degli altoparlanti.

Lo scopo di un sistema 3D e' di superare la limitazione sinistra-destra dello stereo convenzionale per proiettarsi nell'intera sfera tridimensionale.

La maggior parte dei prodotti commerciali e di ricerca nel campo della localizzazione sono basati sull'analisi fisica di "cosa si presenta alle orecchie dell'ascoltatore" ed i tentativi si basano sul modellizzare e riprodurre suoni con queste condizioni e caratteristiche (binaural synthesis).

Spesso l'obiettivo e' di riprodurre un sistema per localizzare il suono in uno spazio completamente '3D'. Questo implica la capacità di 'disporre' un suono in una data posizione rispetto l'ascoltatore, in termini di azimut, di altezza e di gamma ed anche di definire le caratteristiche globali quali la dimensione e la riflettività dell'ambiente audio virtuale.

L'analisi diretta usando i trasduttori 'dummy head' [KEMAR], può certamente insegnare molto su come il suono è influenzato dalla testa (risonanze), dall'esterno dell'orecchio (convoluzioni nella coclea) e così via. Da questa analisi è emerso che puo' essere realizzata una sintesi ragionevolmente efficace delle posizioni per poter riprodurre ed ascoltare un suono localizzato. Ma tutto questo utilizzando le cuffie audio.

Oltre alla sintesi della semplice posizione, un'ulteriore analisi delle riflessioni iniziali oltre all'elaborazione delle 'successive' riflessioni tramite filtri di localizzazione (ray-tracing e 'absorbtion characteristic') può essere usata per ricreare una dettagliata risposta sintetica di un ambiente (stanza). Questo ovviamente se la potenza computazionale non è una preoccupazione. [Virtual Acoustic Room]

In questo modo è possibile sintetizzare una rappresentazione della posizione dell'ascoltatore all'interno di una stanza cosi' come la posizione della sorgente(i) sonora tramite le riflessioni dei "raggi sonori".

Il raggiungimento di risultati simili attraverso l'uso degli altoparlanti comporta sfide notevoli da sormontare e la ricerca e' ampiamente considerata in ambiti accademici o nei reparti di ricerca e sviluppo.

Il classico metodo e' cominciare con un processore binaurale (ad es. un sistema per l'individuazione dei tempi di ritardo, filtri ecc... per ottenere una buona localizzazione tramite cuffie) e quindi applicare un tecnica chiamata "annullamento d'interferenza" (crosstalk cancellation) per traslare i risultati su un sistema basato su altoparlanti.

Come si puo' capire, l'obiettivo dell'annullamento di interferenza è di annullare le informazioni del canale sinistro verso l'orecchio destro e vice versa. Questo sforzo e' per ricreare una delle caratteristiche dell'ascolto attraverso le cuffia dove l'interferenza e' molto bassa (perdita del segnale da un canale all'orecchio opposto, in questo caso).

Purtroppo, questo metodo produce risultati generalmente frustranti. La zona d'ascolto o 'sweet spot' tende ad essere molto piccola e peggio ancora, spostare la testa spesso da' all'ascoltatore una sensazione non piacevole dovuta a "sfasamenti" della pressione e, come conseguenza, la sensazione di pressione artificiale negli orecchi.
Inoltre, l'obiettivo di ricreare l'esperienza della cuffia e' ulteriormente vincolato ed ostacolato dagli effetti dell'acustica della stanza dell'ascoltare - un altro fattore assente nell'ascolto con le cuffie.
Per le cosiddette applicazione ad alta fedelta' come la registrazione musicale digitale, la sintesi biauricolare + l'annullamento di interferenza producono spesso variazioni di timbro alquanto discutibili, rendendo i suoni degli strumenti "falsi" o "plastici".

Ed e' a questo punto che nasce la sfida ;-).
In uno scambio di email con uno sviluppatore e technical writer di un'importante azienda del settore audio 3D si discuteva proprio di questa sfida e del fatto che ero perplesso sui reali risultati ottenuti fino ad ora:

< [...] Nel mondo reale, dove la potenza d'elaborazione non e' illimitata, e le tecniche dovono essere presto commercializzate per fare in modo che la ricerca possa essere sostenuta, l'obiettivo dell'assoluta accuratezza della sintesi tridimensionale deve essere "scalata" a qualcosa di pratico per produrre sul mercato. [...] >

E' comunque indiscutibile che la possibilita' di ricercare in questo campo, in ambito accademico o in centri R&D possa portare a qualcosa che, una volta commercializzato, rivoluzionera' il campo multimediale come lo conosciamo oggi.

----------
Fabrizio

Information Theory of Monochromatic Sound Fields

Negli scorsi anni io e Stefano Mazzocchi iniziammo un approfondito studio sulla localizzazione e riproduzione del suono tridimensionale. Il nostro obiettivo era il seguente:

< poste 2 casse di fronte all'ascoltatore, riprodurre un suono come se la reale sorgente fosse posizionata ed avvertita ovunque nello spazio. >

Questo ambizioso progetto richiese ricerche sulla localizzazione sonora spaziale nonche' un'analisi fisica del suono e dei sistemi di rilevamento fisiologici attraverso i quali l'orecchio umano percepisce il suono.
A tutt'oggi il progetto e' stato abbandonato, alcuni di noi hanno intrapreso altre importanti strade nel campo dell'Information technology, mentre altri per lavoro o per studio non hanno potuto continuare quanto iniziato.

Metto comunque a disposizione un documento, scritto da Stefano Mazzocchi, che doveva raccogliere il nostro studio riguardo al sistema BetaVersion 3D Sound System.

Information Theory of Monochromatic Sound Fields

Le idee erano tante ma il tempo....

[formato Word del documento]

 

Sound Blaster Low Level Programming & SMODPlayer

Questa serie di documenti e codici sorgente rientra in un piu' vasto progetto che avrebbe dovuto concretizzarsi in un player 3D per un particolare formato di file proprietario (SMOD), ottimizzato per la riproduzione musicale nell'ambito di demo multimediali in tempo reale. A quel tempo avevamo creato un gruppo chiamato BetaVersion e il mio nick era NextLogic.

- Sound Blaster Low Level Programming -

Sound Blaster Low Level Programming In questo documento presento una tecnica di programmazione a basso livello (assembly) delle schede Sound Blaster e/o compatibili per la riproduzione di file RAW (WAV).
playraw.asm - player.exe Implementazione del player per file WAV
sb_low.asm Libreria di supporto
sb_low.inc Reference per le procedure - Documentazione del codice

- SmodPlayer -

smodmain.asm Main file
smodload.asm Loader per i file SMOD
smodplay.asm Player
smodplay.inc Reference per le procedure - Documentazione del codice
BVM Format.txt - Struct.doc Descrizione formato SMOD
   
xm2smod.c - xm2smod.exe Utility conversione file XM (FastTracker) in file SMOD
   

.:3D Sound References:.

BROEDEL.GIF (13750 byte) Questa sezione contiene una serie di documenti e riferimenti tecnici che ho trovato utili durante la mia ricerca nel campo della localizzazione e riproduzione del suono binaurale. Non e' esaustiva ma e' comunque rappresentativa della letteratura in merito.

Quasi tutti i file sono in formato PS e consiglio per questo di scaricare, se non lo si possiede gia', l'utility GhostScript/GhostView.


Transaural 3-D audio William G. Gardner,
MIT Media Lab
Estimating Azimuth and Elevation from Interaural Differences Keith D. Martin,
MIT Media Lab
A Computational Model of Spatial Hearing Keith Dana Martin,
Cornell University
Techniques of Low Cost Spatial Audio David A. Burgess,
Georgia Institute of Technology
Mid-level representation for Computational Auditory Scene Analysis Dan Ellies, David Rosenthal,
MIT Media Lab / The Agency Interactive Media
NPSNET-3D Sound Server: An Effective use of the Auditory Channel Russel L. Storms,
Naval Postgraduate School, USA
HRTF Measurements of a KEMAR Dummy-head Microphone Bill Gardner and Keith Martin,
MIT Media Lab. Perceptual Computing.
The Virtual Acoustic Room William Grant Gardner,
Master in Science