<meta http-equiv="content-type" content="text/html; charset=utf-8"><div>Seems like you could have a 127x127x127=2,048,383 element matrix of wav files, each</div><div>representing the FIR/IIR of a point source in a reference &quot;performance space&quot;. Then use three midi controllers to select X/Y/Z axes in this matrix of WAV files. Each time a controller moves, you tell qconvolver to switch to a difft FIR/IIR WAV in the &quot;matrix&quot;, mix out the old qconvolver at the previous position, and digitally mix in the new one at the new position. Having multiple sound sources moving around would involve having multiple instances of jconvolver, all digitally mixed in stereo in the end.</div>
<div><br></div><div>All you&#39;d need to do is precompute 2 million FIR/IIRs and have on the order of</div><div><div>127*127*127*32848 =67,285,284,784 bytes storage. You could easily fit that amount of data on a hard drive or SSD.</div>
<div><br></div></div><div>Would it work? Are today&#39;s processors up to the challenge? How do you go about precomputing 2 million positional FIR/IIR&#39;s in a virtual acoustic space?</div><div><br></div><div>And what of tech issues like &quot;zipper noise&quot; problem as you swept midi parameters and invoked a series of separate filters, unless you figured out a way of nicely &quot;inbetweening&quot; the sound. And then of course, if there&#39;s velocity, there needs to be a doppler effect too.</div>
<div><br></div><div>-- Niels</div><div><a href="http://nielsmayer.com">http://nielsmayer.com</a></div><div><br></div><div>PS: <a href="http://space-net.org.uk/?q=node/50">http://space-net.org.uk/?q=node/50</a></div><div><br>
</div><div><span class="Apple-style-span" style="font-family: verdana, sans-serif; font-size: x-small; color: rgb(68, 68, 68); line-height: 14px; ">Developments in measuring the acoustic characteristics of concert halls and opera houses are leading to standardized methods of impulse response capture for a wide variety of auralization applications. The work presented here are some of the results from a recent UK survey of non-traditional performance venues focused in the field of acoustic archaeology. Sites have been selected and analyzed based on some feature of interest in terms of their acoustic properties. As well as providing some insight as to the characteristics and construction of these spaces, the resulting database of measurements has a primary use in convolution based reverberation and auralization. The initial survey work has been funded by the <a href="http://www.artscouncil.org.uk/" style="color: rgb(208, 142, 42); text-decoration: none; ">Arts Council England</a> and the <a href="http://www.ahrc.ac.uk/" style="color: rgb(208, 142, 42); text-decoration: none; ">AHRC</a> as part of their ACE/AHRC Arts/Science Research Fellowships. Damian Murphy was appointed as one of these fellows and is the lead researcher in this work that now falls partly under the remit of SpACE-Net. Later work was sponsored by the <a href="http://www.renaissanceyork.org.uk/" style="color: rgb(208, 142, 42); text-decoration: none; ">York Renaissance Project</a> in conjunction with artist and archaeologist John Oxley and artist Mark Hildred. More details relating to this work, including details relaing to the measurement techniques used can be found in the following publications:<ul>
<li style="padding-top: 0.25em; padding-bottom: 0.25em; ">D. T. Murphy, &quot;Multi-channel Impulse Response Measurement, Analysis and Rendering in Archaeological Acoustics&quot;, 119th AES Convention, Paper No. 6532, New York, USA, Oct 7-10, 2005. Available <a href="http://www.aes.org/e-lib/browse.cfm?elib=13319" style="color: rgb(208, 142, 42); text-decoration: none; ">Here</a>.</li>
<li style="padding-top: 0.25em; padding-bottom: 0.25em; ">D. T Murphy, &quot;Spatial Audio Measurement, Modeling and Composition,&quot; Leonardo, Vol. 39, No.5 (2006) - Forthcoming.</li><li style="padding-top: 0.25em; padding-bottom: 0.25em; ">
D.T Murphy, &quot;Archaeological Acoustic Space measurement for convolution reverberation and auralization applications&quot;, Proc. of the 9th Int. Conference on Digital Audio Effects (<a href="http://www.dafx.ca/" style="color: rgb(208, 142, 42); text-decoration: none; ">DAFX’06</a>), Montreal, Canada, September 18-20, 2006. Available online <a href="http://www.dafx.ca/proceedings/papers/p_221.pdf" style="color: rgb(208, 142, 42); text-decoration: none; ">Here</a>.</li>
</ul>In addition, the following links have been invaluable in providing direction for this work:<ul><li style="padding-top: 0.25em; padding-bottom: 0.25em; "><a href="http://pcfarina.eng.unipr.it/" style="color: rgb(208, 142, 42); text-decoration: none; ">Angelo Farina&#39;s Home Page</a></li>
<li style="padding-top: 0.25em; padding-bottom: 0.25em; "><a href="http://www.acoustics.net/" style="color: rgb(208, 142, 42); text-decoration: none; ">Preserving Acoustics for Posterity - www.acoustics.net</a> - associated with <a href="http://www.waves.com/" style="color: rgb(208, 142, 42); text-decoration: none; ">Waves</a>.</li>
</ul></span></div><div>PPS: Above link mentions&quot;96kHz versions are available at 5deg intervals for the complete measurement circle through negotiation with the authors&quot; seems like that also would form the basis for a real positional acoustic space simulator. Seems like they are using this software etc for similar purposes: <a href="http://www.kokkinizita.net/ambisonics/casadelsuono/chandelier.html">http://www.kokkinizita.net/ambisonics/casadelsuono/chandelier.html</a></div>
<meta http-equiv="content-type" content="text/html; charset=utf-8">