2017-02-23 2 views
0
이 튜토리얼을 바탕으로

을 위해 : https://medium.com/@harvitronix/continuous-online-video-classification-with-tensorflow-inception-and-a-raspberry-pi-785c8b1e13e1#.n7mlkeevl는 CNN 행동 분류

그들은 단순히 TV에서 축구 경기 사이에 광고를 차별화 비디오 분류를 만들기 위해 CNN과 RNN을 결합하여 CRNN 네트워크를 구축 하였다.

내 문제는이 입력 비디오에 부정 행위 (시험 치팅)가 포함되어 있는지 여부를 분류하거나 간단히 결정하기 때문에이 튜토리얼에 따르면 치팅 이미지와 비 윤곽 이미지 세트로 CNN을 교육해야합니다. 이 네트워크를 통해 일련의 프레임을 전달하여 일련의 (치터/비 치타) 플래그를 출력하고, 마지막으로 해당 출력으로 RNN을 테스트하거나 테스트합니다.

그렇다면 CNN이 CNN을 훈련시키는 데 큰 데이터 집합을 얻으려고 사기꾼 및 비 사기꾼으로 행동 할 것이기 때문에 CNN이 잘 수행 할 것입니다. 즉, 같은 사람이 사기꾼 역할을한다는 뜻입니다 혼란을 낳을 수있는 비 사기꾼!

내 마지막 질문은 행동 분류를 위해 튜토리얼에서 선언 한 접근법을 사용할 수 있는가? .. 또는 CNN이 치팅 프레임과 비 치명 프레임을 성공적으로 구별 할 수 있습니까?

답변

0

사실, 치터 및 비 치터 클립에 대해 동일한 사용자를 사용하면 으로 향상됩니다. NN은 사기꾼의 신체적 특성이 아닌 동작으로 구분하는 방법을 배워야합니다.

나는 이것이 당신에게 상당히 잘 작동 할 것으로 기대합니다. 그러나 특정 동작에 따라 특정 동작을 설명 할 때 개별 프레임 대신 비디오 시퀀스를 사용해야 할 수도 있습니다. 때로는 속임수는 단일 프레임 내에 포함 된 데이터가 아니라 요청 및 응답 시퀀스로 구성됩니다.

도움이 되었습니까?

+0

우리의 접근 방식은 각 프레임에서 생성 된 CNN 결과 (치트 및 비 치팅 플래그의 벡터로 수집 된)를 시퀀스 분류 자로서 RNN에 전달하는 것입니다. 튜토리얼에서 설명한 동일한 접근 방식. 하지만 괜찮 으면 비디오 시퀀스 분류를위한 몇 가지 기술을 제게 알려 주실 수 있습니까? –

+0

이것은 스택 오버플로 범위를 벗어납니다. 도움말 설명서의 게시 지침을 읽고 따르십시오. [주제] (http://stackoverflow.com/help/on-topic) 및 [묻는 방법] (http://stackoverflow.com/help/how-to-ask) 여기를 참조하십시오. – Prune