PROSES MEDELIN
3.PROSES MEDELIN
Madaline (Banyak Adaline) adalah ekstensi
multilayer dari bipolar single-neuron Adaline ke jaringan. Karena Madaline
adalah ekstensi multi-layer metodologi penyesuaian lebih berat daripada di
Back Propagation dan memberikan pemahaman yang sulit ke dalam menyesuaikan
bobot dalam jaringan multi-layer, meskipun kurang efisien. Struktur dasar
diberikan pada Gambar. 5.1 yang dalam hal dua lapisan Adalines, ditambah
lapisan masukan yang hanya berfungsi sebagai distributor masukan jaringan
(lihat Gambar. 5.2).
The
Madaline mempekerjakan prosedur pelatihan yang dikenal sebagai Madaline Aturan
II, yang didasarkan pada Gangguan Prinsip Minimum, sebagai berikut [Widrow et
al., 1987]:
(1)
Semua bobot diinisialisasi dengan nilai acak rendah. Selanjutnya, satu set
pelatihan input L vektor xi (i = 1; 2;:::; L) diterapkan satu vektor pada suatu
waktu untuk input.
(2)
Jumlah nilai bipolar yang salah pada lapisan output dihitung dan jumlah ini
dilambangkan sebagai e error per vektor masukan yang diberikan.
(3)
Untuk semua neuron pada lapisan output:
(A) Yang
menunjukkan th sebagai ambang fungsi aktivasi (sebaiknya 0), periksa: [z-th]
untuk setiap vektor masukan dari training set diberikan vektor untuk lapisan
tertentu yang dianggap pada langkah ini. Pilih neuron diset pertama dari atas,
namun yang sesuai dengan abs terendah [z-th] terjadi lebih dari yang himpunan
vektor input. Oleh karena itu, untuk kasus vektor L masukan dalam masukan set
dan untuk lapisan n neuron, seleksi dari nilai-nilai n L z. Ini
adalah node yang dapat membalikkan polaritas oleh perubahan terkecil dalam
bobot nya, sehingga yang dilambangkan sebagai neuron gangguan-minimum, dari
mana nama prosedur berasal. Sebuah neuron sebelumnya diset adalah neuron yang
berat belum ditetapkan belum.
(B)
Selanjutnya, kita harus mengubah bobot dari neuron yang terakhir sehingga y
keluaran bipolar bahwa perubahan satuan. Perubahan terkecil berat melalui modi
sebuah ed prosedur curam seperti di Sec. 3.4.2 yang menganggap [z-th] bukan em
dari Persamaan. (3.22) akan menyebabkan perubahan ini. Atau, perubahan acak
dapat digunakan.
(C)
Input set vektor disebarkan ke output sekali lagi.
(D) Jika
perubahan berat badan mengurangi biaya kinerja \ e “dari Langkah 2, maka
perubahan ini diterima. Lain, asli (sebelumnya) bobot dikembalikan ke neuron
itu.
(4)
Ulangi Langkah 3 untuk semua lapisan kecuali lapisan input.
(5)
Untuk semua neuron dari lapisan output: Terapkan Langkah 3, 4 untuk sepasang
neuron yang analog node-output z paling dekat dengan nol, dll
(6)
Untuk semua neuron dari lapisan output: Terapkan Langkah 3, 4 untuk triplet
neuron yang simpul-output analog yang paling dekat dengan nol, dll
(7)
Pergi ke vektor berikutnya ke L’th vektor.
(8)
Ulangi untuk kombinasi lebih lanjut dari vektor L sampai pelatihan memuaskan.
Hal yang
sama dapat diulang untuk empat kali lipat dari neuron, dll Namun, pengaturan
ini kemudian menjadi sangat panjang dan karena itu mungkin ed unjusti. Semua
bobot awalnya ditetapkan untuk (berbeda-beda) nilai acak rendah. Nilai-nilai
bobot bisa positif atau negatif dalam beberapa rentang tetap, katakanlah,
antara 1 dan 1. Tingkat pembelajaran awal Persamaan. (3.18) dari bab sebelumnya
harus antara 1 dan 20. Untuk konvergensi yang memadai, jumlah tersembunyi
neuron lapisan harus setidaknya 3, sebaiknya lebih tinggi. Banyak iterasi
langkah (sering, ribuan) dari algoritma steepest descent of Sec. 3.4.2
diperlukan untuk konvergensi. Adalah lebih baik untuk menggunakan bipolar
daripada konfigurasi biner untuk fungsi aktivasi.
Diskusi
di atas dari jaringan saraf Madeline (NN) menunjukkan bahwa Madeline adalah
intuitif, tetapi agak primitif dan inecient NN. Hal ini juga sangat sensitif
terhadap suara. Meskipun memiliki sifat-sifat dasar dari beberapa jaringan
saraf lain yang dibahas dalam bab-bab selanjutnya dari buku ini, kita akan
melihat bahwa jaringan dibahas nanti adalah jauh lebih efisient dan kurang
kebisingan sensitif.
Komentar
Posting Komentar