2013-06-03 1 views
4

kinect없이 색상 프레임에 깊이 프레임을 매핑하려고합니다. 이전에 Kinect를 사용하여 이미지를 얻었습니다. 이제는 kinect 메서드를 사용하지 않고도 사람의 몸 모양을 명확하게 볼 수있는 깊이 이미지를 기반으로 색상과 깊이 이미지를 모두 비교하고 싶습니다. MapDephtFrametoColorFrame (적용 할 수 없습니다. 이 방법은 Kinect를 사용하지 않고).Kinect없이 깊이 프레임을 색상 프레임에 매핑하는 방법

어떻게 하시겠습니까?

255 점 (임계 값)의 깊이 지점을 얻은 다음 [x, y] 점을 색상과 일치 시키려고했지만 결과가 없습니다. 사전에

덕분에

+0

정확하게 귀하의 질문에 대한 답변이 아니지만 kinect가 켜져있는 동안이 정보를 캡처하여 이미지와 함께 저장할 수 있다면 이것이 아마도 가장 깨끗한 해결책 일 것입니다. –

답변

0

나는 이전에 (here's the link)

는 다음 사이트에서 의사 코드 (그리고 모든 매개 변수가 너무 웹 사이트에 있습니다) 그렇게하는 방법을 지적 기사를 발견 :

P3D.x = (x_d - cx_d) * depth(x_d,y_d)/fx_d 
P3D.y = (y_d - cy_d) * depth(x_d,y_d)/fy_d 
P3D.z = depth(x_d,y_d) 

P3D' = R.P3D + T 
P2D_rgb.x = (P3D'.x * fx_rgb/P3D'.z) + cx_rgb 
P2D_rgb.y = (P3D'.y * fy_rgb/P3D'.z) + cy_rgb 

마찬가지로 알고리즘을 사용하여 깊이를 rgb 데이터에 매핑하려고했지만 색상 매핑이 조금 다른 방향으로 이동하는 것처럼 보이는 약간의 정렬 불량이 여전히 남아 있습니다. 이미지 t와 다릅니다. 내 데이터 세트의 이미지.

적어도 이들이 올바른 방향으로 당신을 도울 수 있기를 바랍니다.

+0

John, 나는 이렇게 해 보았습니다. 최종 이미지가 정렬되지 않은 상태에서 MATLAB을 사용하여 여러 프레임에서 마스크와 바디 사이의 거리를 계산했습니다. 그런 다음 x_direction 및 y_direction에 대한 평균값을 계산하고 그 비율로 마스크를 이동했습니다. 결과는 전혀 나쁘지 않습니다. 나는 mean_x_value * (x_position/image width)와 같은 비율로 x_direction을 더 많이 상상해 보려고했습니다. 결과는 꽤 좋았지 만 여전히 효과적인 방법은 아니 었습니다. – 16per9

+0

그래, 내 결과에도 오정렬이 있습니다. StackOverflow에서이 질문을했는데 아직 좋은 대답이없는 것처럼 보입니다. –

+0

Kinect 시야와 깊이를 연결하는 것은 어떨까요? – 16per9

관련 문제