BAB 4 PERCEPTRON
PERCEPTRON
Pengertian:
Perceptron adalah salah satu metode JST
training yang sederhana dipakaikan prosedur algoritma training yang pertama
kali. Terdiri dari neuron tunggal dengan bobot synaptic yang diatur menggunakan
fungsi aktifasi hard limit.
1.Dasar Struktur [kembali]
Perceptron berfungsi
sebagai sebuah blok bangunan untuk sebagian besar model,termasuk Adaline
seperti yg dibahas sebelumnya yang Model neuron mungkin dianggap sebagai kasus
khusus dari Perceptron. The Perceptrron memiliki satu struktur dasar seperti
pada Gambar.
koneksi yang terhubung ke output, beberapa neuron di sisi input dan output sel menghubungkan ke beberapa sel
saraf lain di sisi output. Saya t berbeda dari model neuronal dari Adaline (dan
Madaline) dalam pekerjaan nya fungsi aktivasi halus ( "mulus switch"
non-linear). Namun "keras switch "fungsi aktivasi Adaline dan dari
Madaline dapat dianggap sebagai batas-kasus fungsi aktivasi Perceptron ini.
Fungsi aktivasi perceptron
Output Perceptron ini sel
berbeda dari output penjumlahan dengan operasi aktivasi tubuh sel, , seperti output
dari sel biologis berbeda dari jumlah tertimbang dari input. operasi
ractivation adalah dalam hal fungsi aktivasi f (zi), yang merupakan nonlinier
sebuah Fungsi menghasilkan keluaran yi
engan sel untuk
Fungsi aktivasi f juga
dikenal sebagai fungsi squashing. Itu membuat sel output antara batas-batas
tertentu seperti halnya di neuron biologis. Berbeda fungsi f (zi) yang
digunakan, yang semuanya memiliki properti membatasi atas.
2. Representasi Masalah Single Layer [kembali]
Teorema pembelajaran
perceptron dirumuskan oleh Rosenblatt pada tahun 1961. teorema perceptron dapat
belajar (memecahkan) apa pun dapat mewakili (Mensimulasikan). Namun, kita akan
melihat bahwa teorema ini tidak berlaku untuk satu Perceptron (atau untuk
setiap model neuronal dengan output biner atau bipolar, seperti di Bab 3) atau
untuk satu lapisan model neuron tersebut. Kita akan lihat nanti bahwa itu tidak
berlaku untuk model di mana neuron yang terhubung dalam jaringan multi-layer.
Perceptron single layer menghasilkan deskripsi representasi untuk situasi dua
input. representasi ini berlaku untuk beberapa neuron tersebut
dalam lapisan tunggal jika mereka tidak interkoneksi. Dengan teorema
representasi, perceptron dapat menyelesaikan semua masalah yang atau dapat
direduksi menjadi masalah pemisahan linier (klasifikasi).
Pada tahun 1969, Minsky dan
Papert menerbitkan sebuah buku di mana mereka menunjukkan seperti yang
dilakukan E. B. Derek pada tahun 1965 dalam sebuah buku yang kurang dikenal,
dengan keterbatasan dalam kemampuan dari perceptron, seperti terbukti dengan
teorema perwakilannya. Mereka telah menunjukkan bahwa, misalnya, perceptron
tidak bisa memecahkan Or (XOR) Masalah [(x1 ∪ x2) ∩
(X1 ∪ X2)], atau pelengkap nya,
kontradiksi masalah 2-state (XNOR).
Pada single-layer
pengklasifikasi tidak bisa memecahkan. Begitu banyak sehingga, bahwa untuk satu
lapisan jaringan saraf dengan peningkatan jumlah input, jumlah masalah yang
dapat diklasifikasikan menjadi sebagian kecildari totalitas masalah yang dapat
dirumuskan. Secara khusus, neuron dengan input biner dapat memiliki pola
masukan 2n yang berbeda.Karena setiap pola input dapat menghasilkan 2 output biner
yang berbeda, maka ada 22nfungsi yang berbeda dari n variabel. Jumlah masalah
yang terpisah secara linear dari n input biner Namun sebagian kecil dari 22 n.
4. Perceptron Banyak Layer [kembali]
5. Contoh Video Aplikasi [kembali]
File HTML - Download
Komentar
Posting Komentar