이 깊은 학습 환경에서 다양한 길이의 시계열 작업에 대한 개념 질문 : 나는 시간을 포함 불규칙한 간격으로 발생 표준화 된 기능의 관찰이깊은 학습 및 시계열 : 시변 벡터 길이
은 모든 개별 측정에서 그런 다음이 다 변수 시계열 (패널 데이터)을 각 시계열에 대한 단일 연속 특징 벡터로 병합합니다.
xxxx(T=2)xxxx(T=4)xxxx(T=5)
xxxx(T=1)xxxx(T=2)
xxxx(T=3)
xxxx(T=1)xxxx(T=2)xxxx(T=3)xxxx(T=5)
을 그리고 같은 길이로 0으로 채워 끝이다 : 그럼 지금과 같이 이러한 벡터에 이진 분류 작업에 대한 깊은 신경 네트워크를 구축 할 수 있습니다.
"xxxxT"는 "x"가 비 시각적 피쳐이고 "T"가 시간 기반 피쳐 인 관찰을 나타냅니다. 제 질문은 뉴럴 네트워크가이 시계열의 불규칙한 본질을 독자적으로 차별 할 수있을 것이라고 가정 할 수 있을까요?
아니면 ("0000"이 누락 된 관찰을 채우는 것을 나타내는) 간헐적으로 발생하지 않는 관찰을 채워야합니까?
0000(T=1)xxxx(T=2)0000(T=3)xxxx(T=4)xxxx(T=5)
xxxx(T=1)xxxx(T=2)0000(T=3)0000(T=4)0000(T=5)
0000(T=1)0000(T=2)xxxx(T=3)0000(T=4)0000(T=5)
xxxx(T=1)xxxx(T=2)xxxx(T=3)0000(T=4)xxxx(T=5)
저는 실제로 이것을 이미 수행했으며 두 접근법의 결과를 조사했습니다. 나는 누군가가 깊은 신경 회로망이 이것을 "해석"하는 방법에 대해 밝힐 수 있는지 알고 싶었다.
고맙습니다. @vega. 그것은 나의 해석이기도하다. 필자의 경우 한 가지 사실은 LSTM RNN 아키텍처 (훨씬 긴 교육 시간)를 사용할 때 매우 중요한 성능 향상이 흥미로워 졌다는 점입니다. 시간 기반 기능이 그 영향을 포착하거나 시퀀스 간의 시간적 연관성이 실제로 약할 수도 있다는 것이 올바른 해석이라고 생각하십니까? 내 결과는 정확한 주제에 대한 학술 논문을 잘 반영하지만 실제로는 설명을하지 않았습니다. – Pylander
LSTM을 사용할 때 무엇보다 뚜렷한 개선점이 있습니까? – vega
피드 포워드 네트워크에 비해 LSTM RNN을 사용할 때 개선점이 작았습니다. – Pylander