- Mengapa terjemahan rangkaian saraf konvolusi tidak sah?
- Adakah terjemahan CNN invarian atau equivariant?
- Adakah CNNs invarian untuk giliran terjemahan dan skala?
- Mengapa CNN tidak invarian untuk putaran?
Mengapa terjemahan rangkaian saraf konvolusi tidak sah?
Biasanya dipercayai bahawa rangkaian saraf konvolusi (CNNs) adalah arsitektur yang tidak bersuara untuk terjemahan terima kasih kepada konvolusi dan/atau operasi penyatuan yang mereka dikurniakan. Malah, beberapa kajian mendapati bahawa rangkaian ini secara sistematik gagal mengenali objek baru di lokasi yang tidak terlatih.
Adakah terjemahan CNN invarian atau equivariant?
Pengaktifan lapisan konvolusi di CNN tidak invarian di bawah terjemahan: mereka bergerak ketika imej bergerak di sekitar (i.e., mereka bersemangat, bukannya invarianct, untuk terjemahan). Pengaktifan itu biasanya dimasukkan ke dalam lapisan penyatuan, yang juga tidak invarian untuk terjemahan.
Adakah CNNs invarian untuk giliran terjemahan dan skala?
Rangkaian Neural Convolutional Deep (CNNs) secara empirik dikenali sebagai invarian untuk terjemahan sederhana tetapi tidak berputar dalam klasifikasi imej. Makalah ini mencadangkan model CNN yang mendalam, yang dipanggil CYCNN, yang mengeksploitasi pemetaan kutub imej input untuk menukar putaran ke terjemahan.
Mengapa CNN tidak invarian untuk putaran?
Sekali lagi, penapis ini sendiri bukan giliran invarian - hanya CNN telah mempelajari bagaimana "9" kelihatan seperti di bawah putaran kecil yang ada dalam set latihan. Kecuali data latihan anda merangkumi digit yang diputar di seluruh spektrum 360 darjah penuh, CNN anda tidak benar-benar giliran invarian.