webRTC의 mediaStream 인터페이스는 여러 MediaStreamTrack을 허용하며 카메라/마이크의 오디오 및/또는 비디오 스트림 일 필요는 없습니다.JSON 개체를 사용하여 mediaStreamTrack을 만드는 방법이 있습니까?
JSON 개체를 사용하여 MediaStreamTrack을 어떻게 만들 수 있습니까?
webRTC의 mediaStream 인터페이스는 여러 MediaStreamTrack을 허용하며 카메라/마이크의 오디오 및/또는 비디오 스트림 일 필요는 없습니다.JSON 개체를 사용하여 mediaStreamTrack을 만드는 방법이 있습니까?
JSON 개체를 사용하여 MediaStreamTrack을 어떻게 만들 수 있습니까?
최근 회의 중 하나 인 the subject이 테이블에 있었으며 앞으로 가능할 수도 있습니다. 이것은 응용 프로그램이 같은 유형의 둘 이상의 장치를 사용할 수있게하는 데 사용할 수 있습니다.
스트림 트랙의 개체를 만들 수 있지만 미디어 스트림은 항상 브라우저에서 제공됩니다. 로컬 미디어 스트림이거나 getUserMedia() 메소드에서 가져 오거나 원격 미디어 스트림이며 피어 연결에서 수신합니다.
MediaStreamTrack은 브라우저 API로 생성 된 객체이며 로컬 (원격 또는 원격) 미디어는 항상 PeerConnection의 마이크/카메라 또는 미디어를 사용하여 브라우저에서 제공됩니다.