2017-02-20 3 views
1

살아있는 물체 감지 (2/4frames x second)를 위해 raspberry pi 3에서 SSD 또는 YOLO 개체 탐지를 실행할 수 있습니까?라즈베리 파이의 SSD 또는 YOLO

파이썬에서이 SSD 구현을 시도했지만 프레임 당 14 초가 걸렸습니다.

답변

0

YOLO와 동일합니다. 또한 엔비디아 GPU가 필요합니다. CPU의 경우 이미지 당 몇 초가 걸립니다.

2

나는 최근에 나의 프로젝트에 대한 물체 탐지를 조사하기 시작했고, 물건을 땅에 떨어 뜨릴 수 있는지 궁금해했다.

예 : 정원과 같은 열린 공간을 감시하기 위해 나무 딸기 파이 3에 실시간 물체 감지 시스템을 구현하고 싶습니다. 이미 몇 가지 솔루션을 시도했습니다. 나는 많은 클래스 (3 인, 개, 자전거)를 감지 할 필요가 없으므로 가장 빠른 옵션을 적은 필터 및 매개 변수로 재 훈련 할 수 있으므로 전체 계산 시간이 단축 될 수 있습니다.

다크 넷 (YOLO) [https://github.com/pjreddie/darknet]] 설치 한 기본 어두운 네트워크 테스트 YOLOv2 및 YOLO는 나무 딸기 파이 3에서 실행되며 각 프레임은 각 이미지에 대해 약 450 초 동안 실행됩니다. 작은 YOLO는 이미지 당 40 초 동안 실행되었습니다.

Tensorflow Google 객체 감지 (API) [https://github.com/tensorflow/models/blob/master/object_detection/g3doc/installation.md] : 사용 가능한 모든 네트워크를 시도했습니다. 가장 우수한 성능을 발휘하는 제품은 이미지 당 26 초에 실행되는 SSD 개시 네트워크였습니다.

Microsoft 임베디드 학습 라이브러리 [https://github.com/Microsoft/ELL] : 일부 컴파일 이유로이 기능을 사용할 수 없지만 나중에 다시 체크 아웃하려고합니다. 이 기능이 사용자를 위해 작동하고 개체 검색 작업에서 어떻게 수행되는지 알려주세요.

Darknet-NNPACK [https://github.com/thomaspark-pkj/darknet-nnpack] : 여기서 암흑 처리기는 암 프로세서 용으로 최적화되었으며 일종의 FFT 구현으로 회선이 구현되어 많은 작업 속도가 빨라졌습니다.

나는 이것으로부터 가장 많은 약속을 얻었지만 문제가 있습니다.

테스트 된 다크 넷 테스트 설치된 YOLO (full v1)은 Raspberry Pi3에서 실행되며 각 이미지에는 기본 YOLO 네트워크보다 10 배 빠른 약 45 초가 필요합니다. 작은 YOLO는 프레임 당 1.5 초 동안 작동했지만 결과는 없습니다.

이것은 모델과 cfg 파일 간의 버전 충돌로 인해보고 된 가능한 버그입니다. 나는 기둥을 열었다. (문제) [https://github.com/thomaspark-pkj/darknet-nnpack/issues/13]]하지만 아직 응답을받지 못했다.

MXnet (SSD) https://github.com/zhreshold/mxnet-ssd] : (NNPACK 컴파일되지 않음) Mxnet에서 SSD 포트 초 MXnet SSD 이미지별로 inceptionv3 35 초

CAFFE-욜로 [https://github.com/yeahkun/caffe-yolo] 화상 (88) 당 MXnet SSD의 resnet 50 : CAFFE 실행 yolo_small은 프레임 당 24 초 작동합니다. yolo_tiny에서 caffe를 실행하면 프레임 당 5 초가 소요됩니다. 이것은 darknet-nnpack 문제가 해결되지 않으면 시도한 것 중 가장 빠른 것 같습니다.

관련 문제