dynamic_rnn 예제

텐서플로우 에이카나_rnn,,2,20,128], 2,20,128], 20,20,20,20 128개의 크기, 크기, 그리고, 출력, last_states, 출력 [2,20,128], 마지막_주(c,h)주미(c,h)의 주체,배치,128°C 빠뜨릴 수 없는 tf.nn.dynamic_nn.n.dynamic_rnn(세포, 입력, 시퀀스_길이=N…N… u010960155 우리는 텐서 플로우의 dynamic_rnn() 작업을 사용하여이 작업을 수행합니다. 입력 시퀀스를 보유하는 텐서 블록을 취하고 출력 활성화 및 마지막 숨겨진 상태를 텐서로 반환합니다. 출력, 상태 =tf.nn.dynamic_rnn()의 BasicLSTMCell laolu1573의 텐서 state_series는 위의 코드 샘플의 두 번째 행에서 모양을 [batch_size*truncated_backprop_length, state_size]로 변경하여 곧 그 이유를 볼 수 있습니다. 설명서에서 dynamic_rnn에 대한 자세한 내용을 읽을 수 있습니다. 표준 RNN과 마찬가지로 Tensorflow에는 양방향 RNN의 정적 및 동적 버전이 있습니다. 이 글을 쓰는 시점에서 양방향_dynamic_rnn은 아직 문서화되지 않았지만 정적 양방향_rnn보다 선호됩니다. 따라서 도달 시간 단계 13이 완료되면 일괄 처리의 첫 번째 예제가 이미 “완료”되어 추가 계산을 수행하지 않으려고합니다. 두 번째 예제는 20단계까지 RNN을 거치지 않아야 합니다. sequence_length=[13,20]를 전달하면 Tensorflow에게 13단계에서 예를 들어 1과 같은 계산을 중지하고 시간 단계 13부터 끝까지 상태를 복사할 수 있습니다.

출력은 13을 지난 모든 시간 단계에 대해 0으로 설정됩니다. 방금 계산 비용을 절감했습니다. 그러나 더 중요한 것은 sequence_length를 통과하지 못하면 잘못된 결과를 얻을 수 있습니다! sequence_length를 통과하지 않으면 텐서플로우는 단순히 T=13에서 상태를 복사하는 대신 T=20까지 상태를 계속 계산합니다. 즉, 패딩된 요소를 사용하여 상태를 계산합니다. 만연해 있는 ,만일의 교류를 하고, _스텝, 스텝, 스텝, 스텝, 스텝, 스텝, 패딩을 하고, ,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,에의, 가면을 쓰고, 텐서를 입고, 풍요로우며, 가면을 쓰고, 가면을 쓰고, 역학_rnn 텐서플로우의 RNN 기능은 텐서 모양의 텐서를 기대합니다 [B, T, 입력으로 …] 여기서 B는 일괄 처리 크기이고 T는 각 입력의 시간 길이입니다(예: 문장의 단어 수). 마지막 차원은 데이터에 따라 달라집니다. 이 문제가 있습니까? 일반적으로 단일 배치의 모든 시퀀스가 동일한 길이 T인 것은 아니지만 RNN으로 공급하려면 반드시 사용해야 합니다.

This entry was posted in Uncategorized. Bookmark the permalink. Both comments and trackbacks are currently closed.
  • Get a Quote
  • Request a Call Back

    Enter your details and we will call you back!
  • We deliver…

    • Fully A-Rated Inhouse
    • Special Q-Lon Sealing Gaskets
    • Heat Retaining Glass
    • Most Competitive Prices
    • 10 Day delivery
    • Expert Fitting
    • Same Day Aftercare
    • Largest Range of Colours
    • Best Technical Advice
    • No Deposit