DNA 모티프를 추출하도록 설계된 길쌈 신경 네트워크의 맥락에서 왜 최대 풀링 기능없이 중간에 컨볼 루션 레이어를 쌓아 두겠습니까?이 컨텍스트에서 회선 사이에 풀링 레이어가없는 이점은 무엇입니까?
다음은이 아키텍처가 나타나는 컨텍스트입니다.
self.model = Sequential()
assert len(num_filters) == len(conv_width)
for i, (nb_filter, nb_col) in enumerate(zip(num_filters, conv_width)):
conv_height = 4 if i == 0 else 1
self.model.add(Convolution2D(
nb_filter=nb_filter, nb_row=conv_height,
nb_col=nb_col, activation='linear',
init='he_normal', input_shape=self.input_shape,
W_regularizer=l1(L1), b_regularizer=l1(L1)))
self.model.add(Activation('relu'))
self.model.add(Dropout(dropout))
self.model.add(MaxPooling2D(pool_size=(1, pool_width)))
활성화 기능이없는 경우 네트워크는 여러 선형 함수의 스택이므로 선형 함수입니다. 이 네트워크는 선형 기능 만 나타낼 수 있기 때문에 그다지 강력하지 않습니다. 왜 이렇게했는지, 나는 잘 모르겠다. –
활성화 레이어 하나가 있고 그 뒤에 최대 풀링 레이어가 있지만 둘 다 컨볼 루션 레이어 뒤에 있습니다. 내 질문은 활성화 또는 풀링 레이어에 의해 분리되는 것과는 대조적으로 컨볼 루션 레이어가 차례로 나오는 이유입니다. @PankajDaga – odeng
soem 컨텍스트 또는 paer를 보지 않고 잘 모르겠습니다. 이러한 레이어를 통과하는 신호는 선형 적으로 만 변환됩니다. '왜'그것이 이루어지고 있는지는 더 이상의 세부 사항 없이는 내 부분에 대한 추측 일뿐입니다. –