2015-01-07 7 views
2

이전 주제에서 대답을 찾을 수 없으므로 글을 쓰고있었습니다. 라이브 비디오 (h264) 및 오디오 (g723)를 스트리밍하기 위해 live555를 사용하고 있는데, 이는 웹 카메라에 의해 기록됩니다. 동영상 부분은 이미 완료되었으며 완벽하게 작동하지만 오디오 작업에 대한 단서가 없습니다.라이브 라이브 스트리밍 live555

내가 읽은 한 두 개의 하위 세션을 추가해야하는 ServerMediaSession을 만들어야합니다. 하나는 비디오 용이고 다른 하나는 오디오 용입니다. 비디오 파트의 경우, OnDemandServerMediaSubsession의 하위 클래스 인 FramedSource의 하위 클래스와 Encoder 클래스를 만들었지 만 오디오 측면에서는 어떤 클래스를 기반으로 구현해야하는지 모릅니다.

웹 카메라는 비디오와 별도로 g723 형식의 오디오 프레임을 기록하고 전달합니다. VLC에서 오디오를 재생하려고 할 때 시작 코드를 찾을 수 없다고 말하면서 오디오는 원래 그대로입니다. 그래서 그것은 웹캠에 의해 기록되는 원시 오디오 스트림이라고 가정합니다.

누군가 내게 힌트를 줄 수 있는지 궁금합니다.

답변

2

오디오 스트림의 경우 OnDemandServerMediaSubsession :: createNewRTPSink를 재정 의하여 SimpleRTPSink를 만들어야합니다. 같은

뭔가 :

RTPSink* YourAudioMediaSubsession::createNewRTPSink(Groupsock* rtpGroupsock, unsigned char rtpPayloadTypeIfDynamic, FramedSource* inputSource) 
{ 
    return SimpleRTPSink::createNew(envir(), rtpGroupsock, 
             4, 
             frequency, 
             "audio", 
             "G723", 
             channels); 
} 

주파수와 InputSource의에서 제공해야 채널의 수.