Apple 문서에서 Quicktime 프레임 워크는 OSX 10.9에서 AVFoundations 및 AVKit을 사용하도록 권장되지 않습니다. 내가 확신 할 수없는 이유 때문에 대부분의 문서에서는 Quicktime 프레임 워크 대체 기능 중 일부가 VideoToolbox라는 프레임 워크에서 다루어지고 있음을 언급하지 않습니다. 이 대체 기능에는 다른 것들 사이의 디코딩 및 압축 해제가 포함됩니다.h.264 데이터 패킷을 '실시간'재생/Apple의 VideoToolbox를 사용하여 미리보기
H.264로 인코딩 된 비디오 데이터 패킷 (NAL 패킷, TS 패킷 등)을 해독하고 압축을 풀고 픽셀 버퍼에 넣은 다음 코어 비디오와 OpenGL을 사용하여 비디오를 표시합니다
비디오 데이터 패킷을 받고 인코딩 박스에서 USB를 통해 가져옵니다. [AVCaptureDevice devices]
을 실행하면이 상자가 표시되지 않습니다. 그래서 저는 AVFoundation (내 지식)의 대부분을 상자와 직접 인터페이스 할 수는 없습니다. 그러나 상자에 함께 제공되는 API가있어 비디오 데이터 패킷 파일에 액세스 할 수 있습니다. 디스크에 기록하고 퀵타임으로 재생할 수있는 비디오를 만들 수 있습니다. 그러나 실시간 재생을하는 것이 문제입니다. 따라서 디코딩, 압축 해제 및 픽셀 버퍼 생성과 관련하여 Core Video와 OpenGL을 사용할 수 있습니다.
픽셀 버퍼를 만들면 AVAssetWriterInputPixelBufferAdaptor
을 사용할 수 있고 어떤 식 으로든이를 AVCaptureSession
에 넣을 수 있습니다. 그렇게 할 수 있다면 OpenGL을 사용하지 않고 AVFoundations 및 AVKit에서 제공하는 도구를 사용할 수 있어야합니다.
또한 AVFoundations 설명서를 읽으면서 비디오/오디오 데이터 스트림에 대해 이야기 할 때마다 두 가지 중 하나에 대해 이야기하고 있습니다. AVCaptureDevice에서 오는 스트림 또는 HTTP 라이브 스트림에서 스트림을 처리하는 중 하나입니다. 전에 말했듯이 비디오 데이터 패킷을 생성하는 상자는 AVCaptureDevice
으로 표시되지 않습니다. 그리고 필요하지 않으면 HTTP Live Streaming 서버를 구축/구현하지 않을 것입니다. (바라건대, 나는 사람들이 한 온라인을 보았지만 나는 할 필요가 없기를 바랍니다.)
어떤 도움이라도 대단히 감사하겠습니다.
감사합니다.
안녕하세요, 일부 소스 코드를 제공해주세요. – Jazzmanouch
사과 개발자 계정을 갖고 계시다면 [이 게시물] (https://devforums.apple.com/message/959077#959077) – user2517182
감사합니다. user2517182 :) – Jazzmanouch