2010-06-29 3 views
3

RTSP를 통해 iphone에 스트리밍 라이브 H.264 비디오가 작동합니다!/예 w FFMPEG, Live555, JSON을 사용하여

회원님이 http://github.com/dropcam/dropcam_for_iphone에서 소스 파일을 보면이 있지만 그들이 FFMPEG, Live555, JSON 등 같은 오픈 소스 프로젝트의 조합을 사용하고있는 것을 볼 수 있습니다 어떻게 작동하는지 확인 . Wireshark를 사용하여 App Store에서 무료 "Dropcam For Iphone App"으로 볼 수있는 공용 카메라 중 하나에서 보낸 패킷을 스니핑하여 iPhone이 RTP/RTSP/RTCP를 통해 H264 비디오를 수신하고 있음을 확인할 수있었습니다. 어쩌면 스트림 중 일부가 터널링 된 것처럼 보이는 RTMPT일까요?

어쩌면 누군가가 오픈 소스 파일을보고 RTSP가 아이폰에서 작동하는 방법을 설명 할 수 있습니다.

답변

0

그들은 오픈 소스 프로젝트를 사용하여 하드웨어 디코더 대신 소프트웨어로 프레임을 수신하고 디코딩합니다. 그러나 이것은 작동 할 것입니다. 그러나 이는 Apple이 HTTP 스트리밍을 사용해야한다는 요구 사항에 반하는 것입니다. 또한 구형 장치에서 원하는 fps/해상도로 비디오를 디코딩하지 못하도록하거나 HTTP 스트리밍보다 배터리 수명을 단축 시키도록 더 많은 CPU 리소스가 필요합니다.

3

정보 주셔서 감사합니다. TinC0ils. 좀 더 깊이 파고 들자 Axis 카메라를 사용자 정의 펌웨어로 수정하여 스트리밍을 하나의 320x240 H264 피드로 제한하여 다른 네트워크에서 일관된 품질의 비디오를 제공하고, 내 관심은 내 아이폰을 사용하여 MJPEG의 조잡함이나 "http"와 관련된 고유 한 대기 시간없이 내가 소유 한 몇 대의 IP 카메라에서 라이브 비디오 및 오디오를 시청하고자하는 바람에 이끌렸다. 라이브 스트리밍 ". 나는 Dropcam이 그들의 하드웨어/소프트웨어 콤보로 훌륭한 일을 해냈다고 생각하며, 지금은 새로운 하드웨어를 필요로하지 않는다.

오, 그래, 나는이 게시물의 이유를 거의 잊어 버렸어. RTSP 프로토콜이 아이폰에서 작동 해!

관련 문제