죄송합니다. 분명하지만 C++과 Cuda를 지금 공부하고 있으며 이것이 가능한지 알고 싶으면 관련 섹션에 더 집중할 수 있습니다.CUDA가 자체 작업 대기열을 처리 할 수 있습니까?
기본적으로 내 문제는 병렬 처리가 가능합니다. 실제로 현재 여러 서버에서 실행 중입니다. ,
- 데이터를 (에 저장) 유지 : 내 프로그램은 작업 항목 (아주 작은 목록)를 가져 와서 그 위에 루프를 실행하고 3 결정 중 하나 만든다 이렇게하는 것에는 확실 상기
- 프로세스 데이터() 그것 때문에 데이터를 수정하고 처리하는 큐에 다시 보낸다.
이
현재의 생각 프로세스는 C++ 호스트의 큐를 관리 한 다음 처리를 장치로 보낸 다음 결과를 호스트로 다시 보내고 장치로 다시 보낸다고합니다. CUDA 메모리 자체에 대기열을 넣을 수 있는지, 커널이 작업을하고 직접 작업을 보낼 수 있는지 알고 싶었습니다.
CUDA를 사용하여 이와 같은 작업을 수행 할 수 있습니까? 아니면이를 수행하는 더 좋은 방법이 있습니까?
가능한 복제본 [C++에서 작업 대기열을 관리하는 데 사용할 수있는 내장 라이브러리가 있습니까?] (http://stackoverflow.com/questions/10464838/is-there-a-embedded-library-i-can -use-to-manage-a-work-queue-in-c) – talonmies