<div>maybe someone can shed light on this. I&#39;ve got the crtsine example compiling and running with both alsa and jack, on a system running Ubuntu studio with the rt kernel. I can run heavy loads on ardour so I know audio is working ok. My compilation commands were:<br>
</div><div><br></div><div>g++ -Wall -D__UNIX_JACK__ -D__LITTLE_ENDIAN__ -o jack_crtsine crtsine.cpp /usr/local/src/RtAudio.cpp -lpthread -lrt -lstk -ljack -I/usr/include/stk<br><br></div><div>g++ -Wall -D__LINUX_ALSA__ -D__LITTLE_ENDIAN__ -o alsa_crtsine crtsine.cpp /usr/local/src/RtAudio.cpp -lpthread -lrt -lstk -lasound -I/usr/include/stk<br>
<br></div><div>I&#39;ve tried mucking about with the RT_BUFFER_SIZE setting in Stk.h</div><div><br></div><div>All examples run, but none give me a clean sine wave. The output is all over the place with the pitch actually changing depending on the buffer size, and the type of distortion sounding different. Changes to either the RT_BUFFER_SIZE or the jack playback buffer size both change the output this way, and for the life of me I can&#39;t find a sweet safe spot. Using other audio apps, I&#39;m able to use quite a wide range of jack buffer size.</div>
<div><br></div><div>Any clues?</div><div><br></div><div>thanks</div><div>Iain</div>