나는 표준 문제 또는 균일 한 노이즈가있는 대규모 데이터 세트에 대한 선형 회귀 분석에 초점을 맞추고 있습니다. 모델링 프레임 워크로 TensorFlow에서 Estimator API를 선택했습니다.TensorFlow로 선형 회귀에 필요한 일괄 처리 크기 또는 에포크를 조정합니까?
사실, 하이퍼 파라미터 튜닝은 훈련 단계의 수가 충분히 커질 수있는 경우 이러한 기계 학습 문제에 중요하지 않습니다. 하이퍼 매개 변수는 교육 데이터 스트림의 일괄 처리 크기 또는 에포크 수를 의미합니다.
공식적인 증거가있는 논문/문서가 있습니까?
훌륭한 답변을 보내 주셔서 감사합니다. tf.estimator.LinearRegressor()에는 학습 속도가 하이퍼 매개 변수로 지정되어 있지 않은 경우에만 문제가 발생합니다. 하이퍼 매개 변수는 입력 기능 측면에서 배치 크기 및 에포크 수입니다. 전통적인 tf.train.GradientDescentOptimizer를 사용하지 않았습니다. 학습 속도는 입력 할 수있는 명시적인 매개 변수였습니다. – Tirtha
@Tirtha 많은 세부 사항을 숨기므로 높은 수준의 TF API는 까다 롭습니다. 실제로 다음과 같이 옵티 마이저를 만들고 전달하여 학습 속도를 설정할 수 있습니다 :'ftrl.FtrlOptimizer (learning_rate = learning_rate)' – Maxim