심층적 인 컨볼 루션 신경망을 만들어 이미지의 개별 픽셀을 분류했습니다. 내 교육 데이터는 항상 동일한 크기 (32x32x7)이지만 테스트 데이터는 모든 크기가 될 수 있습니다.Tensorflow CNN 트레이닝 이미지는 모두 다른 크기입니다.
현재 내 모델은 같은 크기 이미지에서 작동합니다. 나는 tensorflow mnist tutorial을 광범위하게 사용하여 모델을 구성하는 데 도움이되었습니다. 이 자습서에서는 28x28 이미지 만 사용합니다. 어떤 크기의 이미지를 받아들이도록 다음과 같은 모델을 어떻게 변경하겠습니까?
x = tf.placeholder(tf.float32, shape=[None, 784])
y_ = tf.placeholder(tf.float32, shape=[None, 10])
W = tf.Variable(tf.zeros([784,10]))
b = tf.Variable(tf.zeros([10]))
x_image = tf.reshape(x, [-1, 28, 28, 1])
내 모델은 출력 형태를 지정해야 회선을 바꾸어이 상황이 조금 더 복잡하게합니다. 트랜스 포즈 컨볼 루션이 입력과 동일한 크기의 모양을 출력 할 수 있도록 다음 코드 행을 어떻게 조정합니까?
DeConnv1 = tf.nn.conv3d_transpose(layer1, filter = w, output_shape = [1,32,32,7,1], strides = [1,2,2,2,1], padding = 'SAME')
일반적으로 동일한 파이프 라인을 사용하여 교육 및 추론을 위해 분류 시스템에 데이터를 가져와야합니다. 어떻게 32x32x7 이미지를 생성합니까? 같은 기술을 사용하여 작업에 관계없이 분류 시스템에 데이터를 가져옵니다. – RagingRoosevelt