iPhone OS 3에서 Apple은 HTTP Live Streaming을 도입 했으므로 인터넷에서 비디오를 라이브 스트리밍 할 수 있습니다. 현재 웹캠을 작동 중입니다.이 웹캠이 내 서버에 연결되어 ffmpeg에 의해 flv 스트림으로 변환되고 ffserver를 사용하여 다시 스트리밍됩니다. 누구든지 ffmpeg 및 ffserver를 사용하여 iPhone
안드로이드 장치에서 스트리밍 비디오를 만들고 싶습니다. ffserver (ffmpeg)가 컴파일되어 Android에서 실행될 수 있다는 것을 알았습니다. 이제 안드로이드 장치의 카메라에서 비디오를 가져 와서 ffserver에 실시간으로 가져와야합니다. 아이디어가 있으십니까? 감사합니다, MM
내 머리가없는 우분투 서버 (Maverick 10.10 실행)에 연결된 웹캠에서 비디오 및 오디오를 스트리밍하려고합니다. WebM 형식 (VP8 비디오 + OGG)으로 스트리밍 할 수 있기를 원합니다. 대역폭이 제한되어 있으므로 스트림이 1Mbps 미만이어야합니다. 나는 FFmpeg를 사용해 보았습니다.이 ffmpeg -s 640x360 \
-f vide
Android 2.2로 실시간 스트리밍을 실험 해본 결과 내 응용 프로그램에서 ffserver & ffmpeg를 사용하려고합니다. 성공적으로 Bambuser's 빌드를 사용하여 ffmpeg를 Android로 이식했습니다. 이제는 구성 파일을 통해 ffserver를 사용하고 싶습니다. 그러나 나는 API 사용에 대한 더 많은 문서 또는 샘플 코드를 찾을 수
Apache/HTTP 인증을 사용하여 ffserver 웹캠 스트림을 보호하는 방법이 있습니까? 아마 아파치 프록시의 일부 유형? 지금은 LAN 상에있는 컴퓨터에서만 http://webcam/stream.mjpg을 볼 수 있지만, 외부 사용자가 사용자 이름/pw (HTTP Auth, 내장되어 있지 않음)를 제공하면 액세스 할 수있게하고 싶습니다. ffserv
저는 스트리밍 세계에 새로운 것을 알았습니다 ... 그래서 바보 같은 질문을하면 용서해주십시오. FFserver를 통해 RTSP를 통해 미리 녹음 된 파일을 스트리밍하려고합니다. 내 설정 파일은 다음과 같습니다 RTSP : 나는 URL을 입력하려고 내 VLC 클라이언트에서 지금 $ ./ffserver -f doc/ffserver.conf
ffserver