2017-11-20 1 views
1

하나의 tensorflow estimator tf.estimator.Estimator에 할당 된 GPU 메모리의 크기를 제어하려고합니다. 그 목적은 동일한 GPU에서 다른 텐서 플로우 그물을 실행하는 데에만 절반을 할당하는 것입니다. 나는 contrib 버전을 찾았지만 공식은 찾지 못했습니다. 누군가 가능한지 안다면?tf.estimator로 GPU 메모리 크기를 제어하는 ​​방법

답변

2

Estimator 인스턴스를 생성 할 때 생성자 config 인스턴스를 전달할 수 있습니다. RunConfig에는 session_config 속성이 있으며이 매개 변수를 사용하여 세션의 매개 변수로 tf.ConfigProto을 설정할 수 있습니다.

session_config = tf.ConfigProto() 
session_config.gpu_options.per_process_gpu_memory_fraction = 0.5 
estimator_config = tf.estimator.RunConfig(session_config=session_config) 
my_estimator = tf.estimator.Estimator(..., config=estimator_config) 
: 코드에서

, 이것은로 변환

관련 문제