안드로이드 카메라/파일에서 내 비디오를 브로드 캐스트하는 원격 ffserver로 스트리밍해야합니다.안드로이드에서 ffserver로 스트리밍하는 방법
ffmpeg -f video4linux2 -s 640x480 -r 25 -i /dev/video0 http://192.168.0.20:8090/cam1.ffm
또는이 같은 파일을 스트리밍 : 나는 다음과 같은 명령을 실행하여 우분투에서 바탕 화면에서이 작업을 수행 할 수 있습니다 내가 안드로이드에서 위를 할 수 있기를 원하는 그래서 기본적으로
ffmpeg -i /home/kev/share/movie.mp4 http://192.168.0.20:8090/cam1.ffm
합니다. 여러 번 검색 한 결과, 지금까지 내가 한 것입니다.이 링크를 통해 ffmpeg 소스를 다운로드하고 빌드 한 http://bambuser.com/opensource을 발견했습니다. 빌드 출력을 몇 가지 : 1. 공유 libs와 [위해 libavcodec, libavcore, libavdevice, libavfilter, libavformat, libavutil, libswscale] 2. 실행 [는 FFmpeg, ffprobe]
하지 이러한 자원 내 기능을 연결하는 방법을 잘이 나는 지금까지 시도한 바있다. 1. System.loadLibrary()를 사용하여 나의 액티비티에 libs를로드 한 다음 실행시에 애 플리케이션의 "파일"디렉토리에 복사 한 assets 폴더에 ffmpeg 실행 파일을 복사했다. Runtime.getRuntime(). exec()를 사용하여 실행 파일을 만듭니다. 내 JNI 폴더에 빌드에 의해 생성 및 추가 된
Runtime.getRuntime().exec("ffmpeg -i file:///android_asset/movie.mp4http://<server>:8090/cam1.ffm");
2. 복사 ffmpeg.c, 공유 라이브러리와 "포함"폴더 : 다음 마지막 단계는 다음 문을 자바를 실행하는 것이 었습니다 ffmpeg.c의 main() 함수를 감싸는 jni 함수. 이 접근 방식을 사용하면 자신이 ndk 빌드를위한 ffmpeg 소스에서 여러 헤더 파일을 복사해야한다는 것을 알았고 성공하려면이 방법이 의심 스럽습니다.
위의 두 가지 접근 방식은 나를 위해 일했습니다. 어디서 잘못 될지 모르겠으므로 안드로이드에서 mp4 파일처럼 스트리밍하는 간단한 ffmpeg를 수행하는 방법에 대한 도움을 주시면 매우 감사하겠습니다.
누락 된 종속성을 해결할 샘플 프로젝트가 있습니까? – StackOverflowed