2010-01-28 4 views
14

2D 비디오를 3D 비디오로 변환하는 알고리즘이 있습니까 (안경을 사용하여 볼 때)?2D 비디오를 3D 비디오로 변환하는 알고리즘이 있습니까?

(A-라 IMAX 3D 경험을 아바타로 아바타를 선회.) - 라를 사용하거나 적어도 보는 일부 3D 느낌 준비를 비디오로 돌려 :

Alt text http://www.3dglassesonline.com/how-do-3d-glasses-work/3-d-glasses-traditional.gif

또는

Alt text http://www.3dglassesonline.com/how-do-3d-glasses-work/3-d-glasses-polarization-new.gif

+0

은 법선을 사용하여 3D 경험과 같은 것을 만들 수 있습니까? – Rella

+0

예전의 흑백 영화에 대한 자동 색상 방법의 아이디어처럼 보입니다. 좋은 생각이야. – darlinton

답변

2

편광 안경과 빨간색/파란색 안경의 차이점을 이해해야합니다. 빨간색/파란색 안경 3D 효과는 간단합니다. 몇 인치 떨어져서 (눈이 어떻게 배치되는지와 같은 종류의) 사진을 찍고 다른 이미지 위에 각각의 이미지를 겹치기 만하면됩니다. Making Anaglyph Images in Adobe Photoshop에서이를 수행하는 방법에 대한 자습서가 있습니다.

편광 안경 효과는 조금 더 어렵습니다. 영화관에 가서 편광 안경이있는 3D 영화를 볼 경우 실제 3D가 보입니다. 두 대의 프로젝터가있는 것으로 작동합니다. 한 프로젝터가 영화를 한 가지 유형의 편광으로 투사하고 두 번째 프로젝터가 영화를 다른 유형의 편광으로 투사합니다. 이미지가 서로 겹쳐 지므로 3D 편광 안경을 착용하고 있으면 3D로 표시됩니다.

TV 나 컴퓨터 모니터로는 쉽게 수행 할 수 없습니다. TV 또는 모니터는 두 개의 이미지를 동시에 투사해야합니다. 3D의 대중화로 인해 두 개의 이미지를 투사하지 않고 3D를 표시하는 3D TV 및 모니터가 출시되었습니다.작동 방식은 다음과 같습니다.

일반적인 컴퓨터 화면이나 TV는 주파수가 120   Hz 인 상태에서 새로 고칩니다. 이것은 1 초에 60 번을 의미하며,보고있는 이미지가 새로 고쳐집니다. 이 속도가 빠르기 때문에 인간의 눈에는 깜박임이 표시되지 않습니다. 3D TV 및 모니터는 120   Hz에서 새로 고칩니다. 편광 이미지는 초당 120 회의 속도로 인터체인지가 이루어 지지만, 두 개가 있기 때문에 초당 60 회에 나타나며 3D 효과를냅니다.

약간의 이해를 돕기를 바랍니다.

질문에 대답하려면 3D 비디오를 만들 수 있지만 3D 모니터와 3D TV가 있어야 볼 수 있습니다.

3

아니요. 알고리즘이 어떻게 든 씬 컨텐츠를 이해하고 그로부터 깊이 정보를 추정해야합니까? 3D 비디오에는 깊이있는 정보가 필요하다는 것을 기억하십시오. 그렇지 않으면 두 프레임 부분을 얼마나 많이 오프셋 시킬지 알 길이 없습니다.

다양한 어둠에 초점을 맞추어 다양한 깊이를 지정하여 시도해 볼 수는 있지만 사용할 수있는 것이 있을지는 의문입니다.

4

아니요 - 3D 비디오는 단순히 2D 비디오에 포함되어 있지 않은 추가 정보 (깊이)가 있어야합니다.

예를 들어 Toy Story에서 2D 렌더링을 사용하면 3D 필름을 매우 쉽게 만들 수 있습니다. 단지 화면 각도를 변경하고 다시 렌더링하면됩니다.

+0

s/2D 렌더링/3D 장면 설명/ – Joey

+2

인간은 2D 영화를 볼 때 깊이를 판단 할 수 있으므로 정보가 * 있습니다. 추출 할 수있는 알고리즘을 작성하는 것은 매우 어렵습니다. – Niki

13

음, 스탠포드는 ​​an algorithm for converting 2D photos into 3D models입니다. 제 생각에 영화로는 훨씬 더 쉬워야합니다. 그 이유는 단지 하나가 아닌 여러 장의 사진을 가지고 있기 때문에 인접한 프레임을 비교하여 더 깊이있는 정보를 추출 할 수 있기 때문입니다.

아마도 결과는 3D로 영화를 렌더링/촬영하는 것보다 결코 좋지 않을 것입니다.

+1

비슷한 연구 결과가 있습니다. 여기에서 : http://www.mpi-inf.mpg.de/~thormae/paper/Siggraph08_orthoimage.pdf –

1

올해의 CES 쇼에서 Toshiba은 셀 TV 디스플레이를 제시했으며 2D TV 신호를 3D로 변환 할 수 있다고 주장합니다. 나는 그것이 좋은 결과를 산출하는지 또는 어떤 알고리즘을 사용하고 있는지 알지 못한다. 그러나 그들이 사실이라면 이것을위한 알고리즘이 있어야한다.

하지만 불행히도, 어떻게 할 수 있는지 모르겠습니다.

1

2D 이미지 (예 : here 또는 here)에서 3D 모양을 추출하기위한 기존 알고리즘이 있습니다. 각 비디오 프레임에서 도형을 추출 할 수 있으며 여러 프레임을 사용하여 모션을 감지하여 도형을보다 잘 이해할 수 있습니다.

그러나 결과는 3D 영화의 표준 콘텐츠 품질에 아무런 영향이 없을 것입니다.

2

말마다 개별 알고리즘은 없지만 예, 가능합니다. 그것은 매우 어렵다. 지금이 문제에 종사하는 사람들이 있습니다. 관련된 알고리즘은 작성하기가 매우 어렵습니다. 항상 올바르게 작동하는 것은 아니며 모든 완벽한 솔루션에는 많은 양의 처리 능력이 필요합니다. 모든 솔루션은 처음에는 실시간 대신 오프라인이됩니다.

3D 인식은 당신이 믿을 수있는 것처럼 스테레오 광학과 밀접하게 연결되어 있지 않습니다. 3D를보기 위해 두 눈이 필요하다고 생각되면 안경을 착용하고 걸어 다니십시오. 너는 잘 할거야. 스테레오 카메라없이 2D 그림 세트에서 3D 모델을 만드는 상용 소프트웨어 패키지를 비롯하여 많은 프로그램이 있습니다. 일부는 온라인으로 실행되어 더 자세한 모델을 구성하여 더 많은 모델을 볼 수 있습니다.

그냥 영화에 대해 생각해 볼만한 몇 가지 문제를 생각하면됩니다. 예를 들어, 매트가 잘못된 깊이로 렌더링되는 것을 상상할 수 있습니다. Apple Motion과 같은 소프트웨어의 특수 효과가있는 비디오는 이상한 유물로 끝날 수 있습니다.

4

매우 간단한 이유 때문에 일반적으로 작동하지 않습니다. 해변에 벽이있는 장면이 있고 그 옆에 해변을 보여주는 벽에 창을 보여주는 사진이 있다고 가정 해 보겠습니다. 어떻게 알고리즘이 둘을 구별 할 수 있습니까? 깊이있는 현실과 평평한 사진은 무엇인지 어떻게 알 수 있습니까?

+0

당신의보기는 완벽한 것이다. 왜 이것이 실제로 완벽하게 작동 할 수 없는지를 쉽게 설명합니다. – Beska

2

입체 뷰를 에뮬레이션하는 알고리즘이있을 수 있지만 동일한 것은 아닙니다.

이유는 아주 간단합니다. 2D 비디오에서 깊이 정보 (입체 비디오를 얻는 데 충분하지 않음)가 누락되지 않았을뿐 아니라 다른 관점에서 볼 수있는 숨겨진 표면이 누락되었습니다.

모두는 깊이 정보가 사용 가능한 정보에서 추정 될 수 있다고 생각할 수 있으며 이는 사실입니다. 그러나, 누락 된 정보는 우수한 입체 효과를 갖는 데있어서 그렇게 정확하지 못합니다.

그 외에도 동일한 대상을 가리키는 8 대의 카메라 (8 대!)에서 정확한 3D 모델을 추출하는 시스템에 대해 들어 봤습니다. 옷 움직임을 정확하게 에뮬레이션하는 것은 매우 정확합니다. 그러나이 작업은 8 개의 2D 비디오를 처리합니다. 하나의 2D 비디오로 어떻게 동일한 결과를 얻을 수 있습니까?

원하는 결과를 얻는 것은 본질적으로 정보 가용성에 달려 있으며이 경우 (IMHO) 정보가 충분하지 않습니다. 그러나 2D 영상에서 입체 효과를 에뮬레이션하려고 할 수는 있지만 근본적으로 오랜 시간이 걸리므로 오랜 시간이 걸리므로 결과적으로 원본 입체 영상을 낮은 품질로 유지해야합니다.


나는 3D 뷰가 우리의 두뇌에 의해 생성되는 것을 기억하고 싶습니다. 눈은 2D 이미지 만 캡처 할 수 있고 두 이미지를 처리하는 우리의 두뇌는 표시된 개체의 깊이보기를 생성 할 수 있습니다.

관련 문제