2011-02-18 4 views
0

컴퓨터 시각화 소프트웨어를 사용하기 위해 kinect를 사용하고 있습니다. 나는 일정 거리 이상으로 모든 것을 걸러 낼 수 있도록 프로그램 설정을하고, 일단 뭔가가 손에 들어가기에 충분히 가깝게 들어가면 내 프로그램은 그것을 가정한다.필터링 된 탐지 후 모양 추적

그러나이 기능을 확장하고 싶습니다. 현재 손이 깊이 필터링 된 영역을 벗어나면 소프트웨어는 더 이상 위치를 추적하지 않습니다. 깊이에 관계없이 그것을 인식 한 후에 어떻게 손을 따라갈 수 있습니까?

답변

0

저는 Kinect 컨트롤러로 작업하지는 않았지만 일단 레이저 스캐너를 사용하여 작업 한 후에는 범위를 반환했지만 수평면에서만 사용했습니다. 그러나 우리가 사용한 기술은 Kinect에도 적용될 수 있습니다.

우리가 찾고자하는 물체를 발견했을 때, 물체의 중심점을 계산했습니다. [X,Y] (Kinect의 경우 [X,Y,Z]이됩니다). 다음 "프레임"에 대해 주어진 반경 내에서 의 모든 점을 찾아 보았습니다. 다음 점에 대해서는 다음 프레임에 사용 된 새 점 [X,Y] 등이 계산되었습니다.

최대 가능 물체 속도와 프레임 속도를 사용하여 가능한 한 가장 작은 값을 계산합니다 (r). 개체가 두 측정 프레임 간의 추적에서 벗어나지 않도록했습니다.

0

나는 키 넥트 컨트롤러와 함께 일하지 않은,하지만 당신이 구현 빠른 템플릿 매칭 알고리즘을 시도 할 수 있습니다 : https://github.com/dajuric/accord-net-extensions

이 그냥 깊이 이미지 대신 표준 그레이 스케일 이미지를 사용합니다. 샘플이 포함되어 있습니다.

P. 이 라이브러리는 칼만 필터링, 입자 필터링, JPDAF, Camshift, Mean-shift (샘플 포함)와 같은 다른 추적 알고리즘도 제공합니다.