1
CNTK에서는 relu, hardmax, softmax, sigmoid 및 모든 좋은 것들이 있지만 회귀 기반 알고리즘을 만들고 있으며 최종 레이어는 2 개 이상의 회귀 출력을 예측해야합니다. 그래서 n 개의 노드가 필요하고, 활성화는 단지 선형 활성화의 실행 일뿐입니다. 정품 인증을 없음으로 설정할 수 있음을 알았습니다. 실제로 올바른 것입니까?cntk 선형 활성화 기능?
with cntk.layers.default_options(activation=cntk.ops.relu, pad=True):
z = cntk.models.Sequential([
cntk.models.LayerStack(2, lambda : [
cntk.layers.Convolution((3,3), 64),
cntk.layers.Convolution((3,3), 64),
cntk.layers.MaxPooling((3,3), (2,2))
]),
cntk.models.LayerStack(2, lambda i: [
cntk.layers.Dense([256,128][i]),
cntk.layers.Dropout(0.5)
]),
cntk.layers.Dense(4, activation=None)
])(feature_var)