2016-11-02 2 views
0

동료들과 저는 SXM2 NVlink 등에서 깊은 학습을 위해 새로운 서버를 구입하는 것을 고려하고 있습니다.power8 아키텍처에서 일반적인 스택을 구축하는 데 어려움이 예상됩니다. 도커 + 깊은 학습 프레임 워크를위한 텐서 흐름. 다음 설치가 작동하거나 어려움/불가능을 예상해야한다면 누군가 경험 했습니까?에 대한 깊은 학습 power8 sxm2 nvlink with 우분투 + p100

  • SXM2 Power8 - NVLINK
  • OS의 경우 4 개의 P100의 GPU : 우분투 14.04/16.04 베어 금속 설치
  • 는 SLURM 스케줄러를 통해 선택 게재.
  • 깊은 학습 프레임 워크 : caffee와 토치, tensorflow

답변

1

위의 설정에서 우리는 유스 케이스에 크게 의존한다는 것을 알아 냈습니다. 여기에 결과가 있습니다. 어쩌면이 고성능 영역으로 뛰어 들기를 바라는 다른 사람들을 도울 수 있고 어떤 아키텍처를 사야할지 확실하지 않을 수 있습니다.

사용 사례 : 우리의 유스 케이스는 기존 아키텍처 (SLURM) 및 클라우드 서비스 (주로 x86의 경우 예 : aws)와의 통합입니다. 따라서 저는 nvidia와 이야기를 나누었고 x86에서 nvlink (sxm2)를 사용하도록 권장했습니다. PCIe는 GPIB 통신을위한 표준 소켓을 포함합니다. SXM2는 으로 투명하게을 GPU 그리드 통신으로 대체합니다. 하나는 전체 Power8 전원을 원하는 경우 x86 용 배포가 같은 (GPU는의 PCIe를 통해도 연결된다) 유지하면서 이것은 GPU에서 훈련 빠르게 오르고 있다는 장점이있을 것이다

Power8는 여기에 사용 사례가 될 것이다 소켓에서 GPU까지의 진정한 HPC 레벨. 이렇게하면 배포가 더 복잡해질 것입니다. power8 boost가 필요한 경우 유스 케이스 레벨 (예 : 고급 연구)을 결정해야합니다.

Nvidia에는 ​​멋진 기술 overview paper 종이가있어 자세한 내용을 설명합니다.

1

불행하게도 우리가 TensorFlow에 대한 파워 아키텍처에 많은 경험이없는 (사용자 정의 빌드), 그리고 지역 사회에있는 사람들의보고를 보지 못했다 성공적으로 사용하기 때문에 문제 해결을 위해 문제 해결이 필요할 수 있습니다.

관련 문제