예는 다음과 같은 코드를 포함했다 :TensorFlow의 시간이나 배치에 최적화 한
pred = tf.tensordot(x, w, 1) + b
cost = tf.reduce_sum((pred-y)**2/n_samples)
optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(cost)
을 ... a의 오버 헤드를 발생
for epoch in range(epochs):
for (x1, y1) in zip(train_x, train_y):
optimizer.run({x: x1, y: y1})
각 교육 사례에 대한 Python 루프 반복. 나는이 방법 대신 다음과 같이 시도하기로 결정했다 :
for epoch in range(epochs):
optimizer.run({x: train_x, y: train_y})
그리고 똑같이 잘 작동하는 것처럼 보입니다.
내가 한 번에 하나씩하는 것에 대해 잘 모르고있는 이유가 있습니까? 아니면 실제로 일괄 처리 방식이 무료 속도 향상이기 때문에 대신 사용해야하는 경우입니까?