feed MediaCodec with Surface input은 CameraPreview와 같은 방법으로 시연되었지만 MediaCodec
에 제출하기 전에이 입력을 버퍼링하는 실제적인 방법이 있습니까? 제 experiments에서MediaCodec의 표면 입력 버퍼링
가 갤럭시 넥서스 byte[]
또는 ByteBuffer
입력으로 MediaCodec
사용시 CameraToMpegTest.java
에 직접 동기 부호화 방법을 이용하여 오디오/비디오 스트림을 생산 용인 딸꾹질 경험 우리는 ExecutorService
로 인코딩되지 않은 데이터를 전송할 수 또는 유사한 대기열을 사용하여 응용 프로그램의 제어에서 CPU 사용량이 급격하게 증가하더라도 프레임이 삭제되지 않도록 할 수 있습니다. 그러나, 수행하는 요구 사항으로 인해 color format conversion between Android's Camera and MediaCodec이 방법은 고해상도 라이브 비디오에 비현실적입니다.
생각 :
MediaCodec
-EGL14.eglCopyBuffers(EGLDisplay d, EGLSurface s, NativePixmapType p)
로 만든NativePixmapType
을 공급하는 방법이 있나요?카메라와 MediaCodec간에 ByteBuffer 형식을 조화시키는 것이 로드맵에 있는지 여부에 대한 Android의 의견은 누구에게도 설명 할 수 있습니까?
MediaCodec의 입력에 프레임을 전달할 때 딸꾹질을 해결할 방법을 찾았습니까? 필자는 MediaMuxer에 출력 할 때 MediaCodec의 출력을 버퍼링하고 있습니다. 하지만 MediaMuxer의 입력을 먹이 swapBuffers()를 호출 할 때 딸꾹질을 겪고 있습니다. – Petrakeas