PROSES PERCEPTRON
2. PROSES PERCEPTRON
Perceptron adalah salah
satu metode JST training yang sederhana dipakaikan prosedur algoritma training
yang pertama kali. Terdiri dari neuron tunggal dengan bobot synaptic yang
diatur menggunakan fungsi aktifasi hard limit.
Aturan belajar perceptron lebih handal jika dibandingkan dengan aturan Hebbrule, dengan asumsi yang sesuai prosedur belajar iteratifnya dapat dibuktikan dengan konvergennya ke bobot yang benar, yaitu bobot yang memungkinakan jaringan menghasilkan nilai output yang benar untuk setiap pola input pelatihan.
Arsitektur perceptron belajar mengenali pola dengan metode pembelajaran terbimbing. Perhatikan gambar berikut ini
Target = Nilai yang diinginkan, Output = Nilai yang keluar dari neuron
Proses Compare digunakan untuk membandingkan antara output dengan target,
Jika terjadi perbedaan maka weight/bobot di adjust/atur sampai nilai ouput= (mendekati) nilai target
Jika terjadi perbedaan maka weight/bobot di adjust/atur sampai nilai ouput= (mendekati) nilai target
Bagaimana Perceptron Belajar ?
Untuk memahami proses belajar perceptron perhatikan diagram berikut ini
p = input jaringan
w = bobot
b = bias
input jaringan akan diberikan pembobotan ( w ) yang kemudian diproses oleh
Pemroses ELemen dimana nilai input akan dikalikan dengan nilai pembobotannya.
Perceptron dilatih dengan menggunakan sekumpulan pola yang diberikan
kepadanya secara berulang ulang selama latihan. Setiap pola yang diberikan
merupakan pasangan pola masukan dan pola yang diinginkan sebagai target.
Perceptron melakukan penjumlahan terhadap tiap tiap masukannya dan menggunakan
fungsi ambang untuk menghitung keluarannya. keluaran ini kemudian dibandingkan
dengan hasil yang diinginkan, perbedaan yang dihasilkan dari perbandingan ini
digunakan untuk merubah bobot bobot dalam jaringan. Demikian dilakukan berulang
ulang sampai dihasilkan keluaran yang sesuai dengan hasil yang diinginkan.
Keterpisahan Linier
Berbagai penelitian dilakukan untuk mengetahui kemampuan perceptron dalam
klasifikasi pola. meskipun perceptron mampu menyelesaikan banyak masalah
klasifikasi pola tetapi kadang kadang konvergensi terjadi dalam waktu yang
sangat lama, kelemahan ini terjadi karena keterbatasan perceptron yang tidak
mengijinkan adanya lapisan hiden layer diantara lapisan input dan outputnya.
Sehingga didalam pengklasifikasian pola hal ini menyebabkan perceptron
hanya mampu memisahkan pola yang terpisah secara linier.
Konsep keterpisahan linier menyatakan bahwa pola dikatakan terpisah secara
linier jika pola tersebut dapat dipisahkan oleh sebuah garis lurus.
Langkah langkah proses pembelajaran perceptron :
Pada awalnya bobot dibuat kecil untuk menjaga jangan sampai terjadi
perbedaan yang sangat besar dengan target.
Bobot awal adalah dibuat random, umumnya dalam interval [-0.5 – 0.5]
Keluaran adalah proses jumlah perkalian antara masukan dengan bobot.
Jika terjadi perbedaan antara keluaran dengan target, e(k) = a(k) – t(k), k
= iterasi ke- 1, 2, 3, maka:
Bobot diupdate/diatur sedikit demi sedikit untuk mendapatkan keluaran yang
sesuai dengan target
w(k+1) = w(k) + Δw(k)
Langkah pertama : Inisialisasi Awal
Mengatur bobot w1, w2, ..., wn interval [-0.5 – 0.5], mengatur
bias/threshold b, mengatur kec pembelajaran ŋ, fungsi aktivasi
Langkah kedua : Menghitung keluaran
Mengaktifkan perceptron dengan memakai masukan p1(k), p2(k), ..., pi(k) dan
target yang dikehendaki t(k). Hitunglah output aktual pada iterasi ke-k =
1
Langkah ke tiga : Menghitung error
e(k) = t(k) – a(k) t(k) = target,a(t)=keluaran
perceptron
Langkah ke empat : Mengatur Bobot
Mengupdate bobot perceptron
wi(k+1) = wi(k) + Δwi(k)
w(k+1)--> bobot baru w(k)-->
bobot yg lalu
Δwi(p) adalah pengkoreksian bobot pada iterasi k, yang dihitung dengan:
Δwi(p) = ŋ x pi(k) x e(k)
Langkah ke lima : pengulangan
Naikkan iterasi k dengan 1 (k=k+1), kembalilah ke langkah ke dua dan ulangi
proses sampai keluaran=target or mendekati target.
Komentar
Posting Komentar