Apa yang disusun RNN?
Menyusun RNN hanya bermaksud memberi makan output satu lapisan RNN ke lapisan RNN yang lain. Lapisan RNN boleh mengeluarkan urutan (iaitu, output pada setiap langkah) dan ini boleh diberi makan, seperti mana -mana urutan input, ke lapisan RNN berikutnya.
Mengapa LSTM lebih baik daripada RNN?
LSTM Networks memerangi kecerunan lenyap RNN atau isu ketergantungan jangka panjang. Kecerunan Vanishing merujuk kepada kehilangan maklumat dalam rangkaian saraf apabila sambungan berulang dalam tempoh yang lebih lama. Dengan kata -kata mudah, LSTM menangani kecerunan lenyap dengan mengabaikan data/maklumat yang tidak berguna dalam rangkaian.
Apakah saiz tersembunyi di pytorch RNN?
Tersembunyi_size - bilangan ciri dalam keadaan tersembunyi h. Num_layers - Bilangan lapisan berulang. E.g., menetapkan num_layers = 2 bermaksud menyusun dua RNNs bersama -sama untuk membentuk RNN yang disusun, dengan RNN kedua mengambil output RNN pertama dan mengira hasil akhir. Lalai: 1.