PROSES PERCEPTRON

                 2. PROSES PERCEPTRON
Perceptron adalah salah satu metode JST training yang sederhana dipakaikan prosedur algoritma training yang pertama kali. Terdiri dari neuron tunggal dengan bobot synaptic yang diatur menggunakan fungsi aktifasi hard limit.

Aturan belajar perceptron lebih handal jika dibandingkan dengan aturan Hebbrule, dengan asumsi yang sesuai prosedur belajar iteratifnya dapat dibuktikan dengan konvergennya ke bobot yang benar, yaitu bobot yang memungkinakan jaringan menghasilkan nilai output yang benar untuk setiap pola input pelatihan.

Arsitektur perceptron belajar mengenali pola dengan metode pembelajaran terbimbing. Perhatikan gambar berikut ini
 Target = Nilai yang diinginkan,  Output = Nilai yang keluar dari neuron
Proses Compare digunakan untuk membandingkan antara output dengan target,

Jika terjadi perbedaan maka weight/bobot di adjust/atur sampai nilai ouput= (mendekati) nilai target


Bagaimana Perceptron Belajar ?
Untuk memahami proses belajar perceptron perhatikan diagram berikut ini

 
p = input jaringan
w = bobot
b = bias

input jaringan akan diberikan pembobotan ( w ) yang kemudian diproses oleh Pemroses ELemen dimana nilai input akan dikalikan dengan nilai pembobotannya.

Perceptron dilatih dengan menggunakan sekumpulan pola yang diberikan kepadanya secara berulang ulang selama latihan. Setiap pola yang diberikan merupakan pasangan pola masukan dan pola yang diinginkan sebagai target. Perceptron melakukan penjumlahan terhadap tiap tiap masukannya dan menggunakan fungsi ambang untuk menghitung keluarannya. keluaran ini kemudian dibandingkan dengan hasil yang diinginkan, perbedaan yang dihasilkan dari perbandingan ini digunakan untuk merubah bobot bobot dalam jaringan. Demikian dilakukan berulang ulang sampai dihasilkan keluaran yang sesuai dengan hasil yang diinginkan.

Keterpisahan Linier

Berbagai penelitian dilakukan untuk mengetahui kemampuan perceptron dalam klasifikasi pola. meskipun perceptron mampu menyelesaikan banyak masalah klasifikasi pola tetapi kadang kadang konvergensi terjadi dalam waktu yang sangat lama, kelemahan ini terjadi karena keterbatasan perceptron yang tidak mengijinkan adanya lapisan hiden layer diantara lapisan input dan outputnya.

Sehingga didalam pengklasifikasian pola hal ini menyebabkan perceptron hanya mampu memisahkan pola yang terpisah secara linier.

Konsep keterpisahan linier menyatakan bahwa pola dikatakan terpisah secara linier jika pola tersebut dapat dipisahkan oleh sebuah garis lurus.

Langkah langkah proses pembelajaran perceptron :

Pada awalnya bobot dibuat kecil untuk menjaga jangan sampai terjadi perbedaan yang sangat besar dengan target.

Bobot awal adalah dibuat random, umumnya dalam interval [-0.5 – 0.5]
Keluaran adalah proses jumlah perkalian antara masukan dengan bobot.

Jika terjadi perbedaan antara keluaran dengan target, e(k) = a(k) – t(k), k = iterasi ke- 1, 2, 3, maka: 

Bobot diupdate/diatur sedikit demi sedikit untuk mendapatkan keluaran yang sesuai dengan target 
   w(k+1) = w(k) + Δw(k)

Langkah pertama : Inisialisasi Awal

Mengatur bobot w1, w2, ..., wn interval [-0.5 – 0.5], mengatur bias/threshold b, mengatur kec pembelajaran ŋ, fungsi aktivasi 

Langkah kedua : Menghitung keluaran

Mengaktifkan perceptron dengan memakai masukan p1(k), p2(k), ..., pi(k) dan target yang dikehendaki  t(k). Hitunglah output aktual pada iterasi ke-k = 1


Langkah ke tiga : Menghitung error
     e(k) = t(k) – a(k)   t(k) = target,a(t)=keluaran perceptron

Langkah ke empat : Mengatur Bobot

Mengupdate bobot perceptron
    wi(k+1) = wi(k) + Δwi(k)        
         w(k+1)--> bobot baru  w(k)--> bobot yg lalu

Δwi(p) adalah pengkoreksian bobot pada iterasi k, yang dihitung dengan:
Δwi(p) = ŋ x pi(k) x e(k)        

Langkah ke lima : pengulangan 
Naikkan iterasi k dengan 1 (k=k+1), kembalilah ke langkah ke dua dan ulangi proses sampai keluaran=target or mendekati target.

Komentar

Postingan populer dari blog ini

SOAL UTS

BAB 7 Jaringan Hopfield

BAB 9 Adaptive Resonance Theory