2017-05-16 1 views
3

iOS 앱에 인위적인 오디오 데이터를 스트리밍하는 블루투스 장치가 있습니다. 나는 '소리'가 녹음되지 않았기 때문에 인위적이라고 말하지만, 다른 신호에 적용된 전달 함수의 방식으로 합성됩니다. 생성 된 오디오 데이터의 주파수 범위는 30 - 80Hz입니다.신속한 실시간 오디오 재생

데이터는 500Hz에서 샘플링되고 Int32 유형에서는 0 -> 4096 (12 비트) 값으로 샘플링됩니다.

질문 : iOS 기기의 스피커를 통해 스트리밍되는 동안 (즉 실시간 재생)이 데이터를 재생하려면 핵심 Audio 프레임 워크를 사용해야합니까?

+1

당신은 그것이 500Hz에 있다고 확신합니까? 이는 250Hz까지의 신호 콘텐츠에 불과하며, 오디오 측면에서는 그리 크지 않지만, 매우 낮은 저음과 낮은 타악기의 사운드를 제외하고는 (인간의 청력을 목표로한다고 가정 할 때) 충분하지 않습니다. – Linuxios

+0

예 Linuxios, 우리는 ~ 20Hz ~ 80Hz의 주파수 범위를 가진 심장 소리를 다루고 있으며 상당히 낮은 타악기의 소리입니다! – Jdip

+0

대부분의 응용 프로그램에서 오타가 있었기 때문에 확인하고 싶었습니다. :) – Linuxios

답변

1

예, Core Audio (Audio Units, Audio Queue API)는 거의 실시간에 가까운 스트리밍 재생 (매우 짧은 버퍼)에 적합합니다. 일반적인 iOS 기기 하드웨어 오디오 출력 속도 인 44.1kHz 또는 48kHz와 같은 형식으로 데이터를 업 샘플링해야 할 수 있습니다.