Pertanyaan Terbaru Tentang Tensorflow

0
Menjawab

Memvisualisasikan bobot perhatian diri untuk masalah penjumlahan urutan dengan LSTM?

Saya menggunakan Self Attention lapisan dari here untuk masalah sederhana menambahkan semua angka dalam urutan yang muncul sebelum pembatas. Dengan pelatihan, saya berharap jaringan saraf mempelajari angka mana yang akan ditambahkan dan menggunakan lapisan Perhatian Mandiri, saya berharap dapat memvisualisasikan di mana model itu fokus. Kode untuk mereproduksi hasil adalah sebagai berikut

lstm attention model tensorflow keras deep learning

Tag Populer

© 2021   Pemrograman.Net