2017-11-12 1 views
-1

비전 시스템을 기반으로 탐색하는 로봇을 만들고 있습니다. 비전 시스템은 객체의 색상을 사용하여 내 카메라를 선택하는 방법을 탐색합니다. 내가 당신에게 조언을 줄 수있는 경우 신속 대역폭 병목 현상으로 얻을 수 있습니다로로봇 비전 시스템 선택 카메라

enter image description here

+0

당신이 갖고있는 시스템과 카메라가 할 수 있어야하는 것이 무엇인지를 더 분명히 할 수 있습니까? LAN 또는 USB, 야간/일 비전 등과 연결될 수 있습니다 .... 왜 그냥 USB 웹캠으로 시작하지? – user3732793

+0

속도가 실시간 비전에서 매우 중요하기 때문에 나는 USB로 갈 것이며 그 날 비전의 주된 업무는 인간과 같은 컬러 이미지를 포착하는 것이다. 나는 20 프레임 이상을 원하고, 시스템에서의 지연을 피하기 위해 고해상도 픽셀이 필요하다. 실제로 나는 USB 웹캠 또는 웹캠에 내장 된 노트북으로 시작 하겠지만, 카메라를 구입하려는 경우 고려해야 할 사항을 알고 싶습니다. –

+0

시간당 데이터 크기 ... 사진 크기를 고려해야 할 것입니다. 무한대로 설정할 수 없습니다. . 솔직히 말해서 대부분의 네비게이션 시스템은 색상이 데이터의 양을 늘리는 것과 같이 그레이 스케일 그림으로 작업합니다 ... 가장자리를 감지하고 싶습니다 ... openCV 예제를보십시오 – user3732793

답변

0

는 USB 제어 카메라에주의해야합니다. 즉, 분석해야하는 이미지의 크기가 너무 커서 USB 버스에 맞지 않거나 충분히 빠르게 전송되지 않을 수 있습니다.

우리는 이미지를 전송하기 위해 이더넷을 사용하며, iCub 로봇이 이더넷을 통해 이미지 처리 기능을 수행하는 다른 데스크탑 컴퓨터에도 이미지를 전송한다는 것을 알고 있습니다. (사람들은 여전히 너무 느린).

다른 많은 언급처럼, 올바른 카메라는 당신이하고 싶은 것과 당신이 소비하고자하는 것에 달려 있습니다. 컬러 기반의 이미지 프로세싱을 수행하는 많은 로봇이 있지만 그런 이미지는 매우 무겁고 (픽셀의 이미지의 3 배 영역) 매우 병목 현상이 발생할 수 있습니다.

아마 당신이 스스로 밝히고 싶은 첫 번째 것은 카메라의 해상도입니다. 해상도가 높을수록 알고리즘의 정보가 많을수록 (처리하는 데 필요한 CPU 전력이 많을수록) 해상도가 낮을수록 처리 속도는 빠르며 시스템 비용은 저렴 해집니다. 예를 들어 애드혹 보드).

데이터를 영리하게 사용하면 해상도가 높을수록 CPU 사용률이 높을수록 자동으로 더 나은 로봇을 사용할 수 없습니다. 2009 년 Nao 로봇은 내장형 회로를 사용하여 Geode 마이크로 컨트롤러에 내부적으로 인터페이스 된 320x240 컬러 카메라 (구형 휴대 전화와 같은)를 사용하고있었습니다. 원래 이미지가 서브 샘플링되었지만 로봇은 여전히 ​​축구를 할 수있었습니다. 물론 코드는 철저하게 최적화되었습니다.

0

사용자 지정이 거의 필요없는 간단한 개체를 상자 밖으로 찾으려면 pixy를 사용해보십시오. 7 종의 컬러 서명과 7 가지 색상 코드를 추적 할 수있는 독립형 마이크로 프로세서와 카메라입니다. 한 번에 여러 객체를 추적하여 각각에 대한 좌표를 반환 할 수 있습니다.

Kickstart Video, Kickstarter, CMUcam5 Pixy, Adafruit

0

인텔 Realsense 카메라를보십시오! 자율 항법 및 심층 학습과 같은 개발 프로젝트에 가장 적합합니다. ROS와 통합 할 수도 있습니다.

관련 문제