여러 대의 저가형 컴퓨터가 클라우드 시나리오를 통해 요청/응답을 통해 중앙 서버에있는 GPU로 CUDA 호출을 할 수 있습니까? 이 로우 엔드 컴퓨터가 "가상"GPU를 소유 한 것처럼 만듭니다.네트워크화 된 CUDA GPU
1
A
답변
2
나는 비슷한 문제를 해결해야했습니다.
데이터베이스가 로우 엔드 머신에 있었고 로컬 네트워크에서 GPU 클러스터를 사용하고있었습니다.
데이터베이스를 구문 분석하기 위해 로우 엔드 시스템에서 작은 클라이언트를 만들고 google protocol buffers으로 데이터를 직렬화하고 서버에 zmq sockets으로 보냅니다. 데이터 분배를 위해 게시자/가입자 소켓을 asynchrouns 할 수 있습니다.
서버 쪽에서 데이터를 비 직렬화하고 계산을 실행하는 CUDA 프로그램이 있습니다 (대몬화된 응용 프로그램 일 수도 있으므로 항상 매번 실행하지 않아도됩니다).
데이터가 서버에서 준비되면 클라이언트에서 동기 메시지 (요청/응답 소켓)를 발행 할 수 있고 서버가 메시지를 수신하면 함수 래퍼를 CUDA 커널에 호출합니다.
클라이언트에서 결과를 다시 처리해야하는 경우 역방향 경로를 따라 클라이언트로 데이터를 다시 보낼 수 있습니다.
데이터가 이미 서버에있는 경우 훨씬 쉽습니다. 메시지를 보내고 함수를 호출하려면 요청/응답 소켓 만 있으면됩니다.
zmq 설명서를 확인하면 많은 프로그래밍 언어로 많은 예제가 있습니다.
관련 문제
- 1. Matlab과 GPU/CUDA 프로그래밍
- 2. 멀티 gpu CUDA 추력
- 3. 통합 gpu + 외장 장치의 cuda
- 4. GPU 프로그래밍, CUDA 또는 OpenCL?
- 5. 어떻게 CUDA GPU 성능을 결정합니까?
- 6. CUDA 타이머 - CPU 대 GPU?
- 7. CUDA GPU 2D 매트릭스 액세스
- 8. cuda gpu : 전문 용어의 정의
- 9. cuda enabled nvidia GPU 비교
- 10. cuda gpu cudaMemcpyToSymbol을 통해 메모리 할당 해제
- 11. CUDA GPU 변수와 함께 MATLAB 함수 사용
- 12. PCI 장치에서 CUDA GPU 메모리로 복사
- 13. 네트워크화/오프라인 메시지 라우팅
- 14. MATLAB GPU - CUDA 메모리 복사본의 지연?
- 15. CUDA GPU 메모리의 변수에 값을 할당
- 16. gpu 코어 당 CUDA 측정 실행 시간
- 17. Tensorflow (GPU 및 CUDA 포함) v5.5
- 18. CUDA 추력을 사용한 다중 GPU 사용
- 19. 는 CUDA 가속 라이브러리 (GPU-LIBSVM)
- 20. 왜 여러 GPU CUDA 코드가 실패 했습니까?
- 21. GPU (CUDA)에서 병렬 처리에 대한 질문
- 22. GPU (CUDA)에 MapReduce 구현이 있습니까?
- 23. CUDA GPU 정수/부동 소수점 제한
- 24. 다른 CUDA 컨텍스트에서 GPU 버퍼 공유
- 25. ffmpeg 상태 및 품질/cuda (CPU/GPU)
- 26. FLOPS (CUDA SAMPLES)에서의 GPU 효율 추정
- 27. GPU tensorflow 설치 문제
- 28. OpenCL 동적 병렬/GPU- 생성 된 스레드?
- 29. 지원되는 GPU 찾기
- 30. CUDA 드라이버가 Matlab GPU 용으로 너무 오래 되었습니까?