0

0과 1의 테이블에 대해 길쌈 신경 네트워크를 학습하려고합니다. 이미지의 크기는 7 * 6이고 필터의 수는 15입니다. 데이터 세트 다소 큰데, 나는 fit_generator 함수로 그것을 훈련하려고한다. 다음 코드는Keras fit_generator가 모든 데이터를 볼 수 없습니다.

model.fit_generator(
generator=data_generator(ml_mode='train'), 
samples_per_epoch=12800,#int(self.num_points['train']['pos'] * 2 * self.configs['training']['train_data_fraction_per_epoch']), 
nb_epoch=100, 
callbacks=None, 
verbose=1, 
validation_data=data_generator(ml_mode='test'), 
nb_val_samples = 1280, 
initial_epoch=0, 
class_weight = my_class_weight 
) 

이며, 여기 내 data_generator의 구현입니다 : 내가 그것을 읽고 얼마나 많은 라인을 확인하기 위해 지문을 넣어

model.fit_generator(
generator=data_generator(ml_mode='train'), 
samples_per_epoch=12800,#int(self.num_points['train']['pos'] * 2 * self.configs['training']['train_data_fraction_per_epoch']), 
nb_epoch=100, 
callbacks=None, 
verbose=1, 
validation_data=data_generator(ml_mode='test'), 
nb_val_samples = 1280, 
initial_epoch=0, 
class_weight = my_class_weight 
) 

내 데이터가 130000 개 라인 동안 나는 25K의 수를 가지고 . 아무도 내가 여기에서 잠재적 인 문제가 무엇인지 또는 무엇을 놓치고 있는지 이해할 수 있도록 도와 줄 수 있습니까?

덕분에

답변

0

내가 직접 해결하고 난 내가 관찰 한 내용을 공유하는 것이 유용 할 것 같아요.

samples_per_epoch는 데이터를 만들기 전에 알고리즘이 출력량에서 계속되는 횟수입니다. 이 매개 변수를 내 batch_size로 설정하고 nb_epoch를 data_size/batch_size 값으로 설정하여 문제를 해결했습니다.

Keras는 10 가지 사례를 먼저 읽은 다음 나에게 약간 혼란스러운 최상의 코어를 찾으려고 시도합니다.

최고

관련 문제