SOAL UTS


              1.APA ITU JST???
Jaringan saraf tiruan (JST) (Bahasa Inggris: artificial neural network (ANN), atau juga disebut simulated neural network (SNN), atau umumnya hanya disebut neural network (NN)), adalah jaringan dari sekelompok unit pemroses kecil yang dimodelkan berdasarkan sistem saraf manusia. JST merupakan sistem adaptif yang dapat mengubah strukturnya untuk memecahkan masalah berdasarkan informasi eksternal maupun internal yang mengalir melalui jaringan tersebut. Oleh karena sifatnya yang adaptif, JST juga sering disebut dengan jaringan adaptif.
Jaringan  Syaraf  Tiruan  dibuat  pertama  kali  pada  tahun  1943  oleh neurophysiologist Waren cCulloch dan logician Walter Pits, namun teknologi yang tersedia pada saat itu belum memungkinkan mereka berbuat lebih jauh.
Jaringan syaraf tiruan (artifical neural network) adalah sistem komputasi yang arsitektur dan operasinya diilhami dari pengetahuan tentang sel syaraf biologis di dalam otak. Jaringan syaraf tiruan merupakan salah satu representasi buatan dari otak manusia yang selalu mencoba menstimulasi proses pembelajaran pada otak manusia tersebut. Jaringan syaraf tiruan dapat digambarkan sebagai model matematis dan komputasi untuk fungsi aproksimasi non-linear, klasifikasi data cluster dan regresi non-parametrik atau sebuah simulasi dari koleksi model jaringan syaraf biologi.
Model jaringan syaraf ditunjukkan dengan kemampuannya dalam emulasi, analisis, prediksi dan asosiasi. Kemampuan yang dimiliki jaringan syaraf tiruan dapat digunakan untuk belajar dan menghasilkan aturan atau operasi dari beberapa contoh atau input yang dimasukkan dan membuat prediksi tentang kemungkinan output yang akan muncul atau menyimpan karakteristik input yang diberikan kepada jaringan syaraf tiruan.
Salah satu organisasi yang sering digunakan dalam paradigma jaringan syaraf tiruan adalah perambatan galat mundur  atau backpropagation. (Hermawan, 2006)


                 2. PROSES PERCEPTRON
Perceptron adalah salah satu metode JST training yang sederhana dipakaikan prosedur algoritma training yang pertama kali. Terdiri dari neuron tunggal dengan bobot synaptic yang diatur menggunakan fungsi aktifasi hard limit.

Aturan belajar perceptron lebih handal jika dibandingkan dengan aturan Hebbrule, dengan asumsi yang sesuai prosedur belajar iteratifnya dapat dibuktikan dengan konvergennya ke bobot yang benar, yaitu bobot yang memungkinakan jaringan menghasilkan nilai output yang benar untuk setiap pola input pelatihan.

Arsitektur perceptron belajar mengenali pola dengan metode pembelajaran terbimbing. Perhatikan gambar berikut ini
 Target = Nilai yang diinginkan,  Output = Nilai yang keluar dari neuron
Proses Compare digunakan untuk membandingkan antara output dengan target,

Jika terjadi perbedaan maka weight/bobot di adjust/atur sampai nilai ouput= (mendekati) nilai target


Bagaimana Perceptron Belajar ?
Untuk memahami proses belajar perceptron perhatikan diagram berikut ini

 
p = input jaringan
w = bobot
b = bias

input jaringan akan diberikan pembobotan ( w ) yang kemudian diproses oleh Pemroses ELemen dimana nilai input akan dikalikan dengan nilai pembobotannya.

Perceptron dilatih dengan menggunakan sekumpulan pola yang diberikan kepadanya secara berulang ulang selama latihan. Setiap pola yang diberikan merupakan pasangan pola masukan dan pola yang diinginkan sebagai target. Perceptron melakukan penjumlahan terhadap tiap tiap masukannya dan menggunakan fungsi ambang untuk menghitung keluarannya. keluaran ini kemudian dibandingkan dengan hasil yang diinginkan, perbedaan yang dihasilkan dari perbandingan ini digunakan untuk merubah bobot bobot dalam jaringan. Demikian dilakukan berulang ulang sampai dihasilkan keluaran yang sesuai dengan hasil yang diinginkan.

Keterpisahan Linier

Berbagai penelitian dilakukan untuk mengetahui kemampuan perceptron dalam klasifikasi pola. meskipun perceptron mampu menyelesaikan banyak masalah klasifikasi pola tetapi kadang kadang konvergensi terjadi dalam waktu yang sangat lama, kelemahan ini terjadi karena keterbatasan perceptron yang tidak mengijinkan adanya lapisan hiden layer diantara lapisan input dan outputnya.

Sehingga didalam pengklasifikasian pola hal ini menyebabkan perceptron hanya mampu memisahkan pola yang terpisah secara linier.

Konsep keterpisahan linier menyatakan bahwa pola dikatakan terpisah secara linier jika pola tersebut dapat dipisahkan oleh sebuah garis lurus.

Langkah langkah proses pembelajaran perceptron :

Pada awalnya bobot dibuat kecil untuk menjaga jangan sampai terjadi perbedaan yang sangat besar dengan target.

Bobot awal adalah dibuat random, umumnya dalam interval [-0.5 – 0.5]
Keluaran adalah proses jumlah perkalian antara masukan dengan bobot.

Jika terjadi perbedaan antara keluaran dengan target, e(k) = a(k) – t(k), k = iterasi ke- 1, 2, 3, maka: 

Bobot diupdate/diatur sedikit demi sedikit untuk mendapatkan keluaran yang sesuai dengan target 
   w(k+1) = w(k) + Δw(k)

Langkah pertama : Inisialisasi Awal

Mengatur bobot w1, w2, ..., wn interval [-0.5 – 0.5], mengatur bias/threshold b, mengatur kec pembelajaran ŋ, fungsi aktivasi 

Langkah kedua : Menghitung keluaran

Mengaktifkan perceptron dengan memakai masukan p1(k), p2(k), ..., pi(k) dan target yang dikehendaki  t(k). Hitunglah output aktual pada iterasi ke-k = 1


Langkah ke tiga : Menghitung error
     e(k) = t(k) – a(k)   t(k) = target,a(t)=keluaran perceptron

Langkah ke empat : Mengatur Bobot

Mengupdate bobot perceptron
    wi(k+1) = wi(k) + Δwi(k)        
         w(k+1)--> bobot baru  w(k)--> bobot yg lalu

Δwi(p) adalah pengkoreksian bobot pada iterasi k, yang dihitung dengan:
Δwi(p) = ŋ x pi(k) x e(k)        

Langkah ke lima : pengulangan 
Naikkan iterasi k dengan 1 (k=k+1), kembalilah ke langkah ke dua dan ulangi proses sampai keluaran=target or mendekati target.


                    3.PROSES  MEDELIN 
 Madaline (Banyak Adaline) adalah ekstensi multilayer dari bipolar single-neuron Adaline ke jaringan. Karena Madaline adalah ekstensi multi-layer metodologi penyesuaian lebih berat daripada di Back Propagation dan memberikan pemahaman yang sulit ke dalam menyesuaikan bobot dalam jaringan multi-layer, meskipun kurang efisien. Struktur dasar diberikan pada Gambar. 5.1 yang dalam hal dua lapisan Adalines, ditambah lapisan masukan yang hanya berfungsi sebagai distributor masukan jaringan (lihat Gambar. 5.2).


The Madaline mempekerjakan prosedur pelatihan yang dikenal sebagai Madaline Aturan II, yang didasarkan pada Gangguan Prinsip Minimum, sebagai berikut [Widrow et al., 1987]:
(1) Semua bobot diinisialisasi dengan nilai acak rendah. Selanjutnya, satu set pelatihan input L vektor xi (i = 1; 2;:::; L) diterapkan satu vektor pada suatu waktu untuk input.
(2) Jumlah nilai bipolar yang salah pada lapisan output dihitung dan jumlah ini dilambangkan sebagai e error per vektor masukan yang diberikan.
(3) Untuk semua neuron pada lapisan output:
(A) Yang menunjukkan th sebagai ambang fungsi aktivasi (sebaiknya 0), periksa: [z-th] untuk setiap vektor masukan dari training set diberikan vektor untuk lapisan tertentu yang dianggap pada langkah ini. Pilih neuron diset pertama dari atas, namun yang sesuai dengan abs terendah [z-th] terjadi lebih dari yang himpunan vektor input. Oleh karena itu, untuk kasus vektor L masukan dalam masukan set dan untuk lapisan n neuron, seleksi dari nilai-nilai n L z. Ini adalah node yang dapat membalikkan polaritas oleh perubahan terkecil dalam bobot nya, sehingga yang dilambangkan sebagai neuron gangguan-minimum, dari mana nama prosedur berasal. Sebuah neuron sebelumnya diset adalah neuron yang berat belum ditetapkan belum.
(B) Selanjutnya, kita harus mengubah bobot dari neuron yang terakhir sehingga y keluaran bipolar bahwa perubahan satuan. Perubahan terkecil berat melalui modi sebuah ed prosedur curam seperti di Sec. 3.4.2 yang menganggap [z-th] bukan em dari Persamaan. (3.22) akan menyebabkan perubahan ini. Atau, perubahan acak dapat digunakan.
(C) Input set vektor disebarkan ke output sekali lagi.
(D) Jika perubahan berat badan mengurangi biaya kinerja \ e “dari Langkah 2, maka perubahan ini diterima. Lain, asli (sebelumnya) bobot dikembalikan ke neuron itu.
(4) Ulangi Langkah 3 untuk semua lapisan kecuali lapisan input.
(5) Untuk semua neuron dari lapisan output: Terapkan Langkah 3, 4 untuk sepasang neuron yang analog node-output z paling dekat dengan nol, dll
(6) Untuk semua neuron dari lapisan output: Terapkan Langkah 3, 4 untuk triplet neuron yang simpul-output analog yang paling dekat dengan nol, dll
(7) Pergi ke vektor berikutnya ke L’th vektor.
(8) Ulangi untuk kombinasi lebih lanjut dari vektor L sampai pelatihan memuaskan.
Hal yang sama dapat diulang untuk empat kali lipat dari neuron, dll Namun, pengaturan ini kemudian menjadi sangat panjang dan karena itu mungkin ed unjusti. Semua bobot awalnya ditetapkan untuk (berbeda-beda) nilai acak rendah. Nilai-nilai bobot bisa positif atau negatif dalam beberapa rentang tetap, katakanlah, antara 1 dan 1. Tingkat pembelajaran awal Persamaan. (3.18) dari bab sebelumnya harus antara 1 dan 20. Untuk konvergensi yang memadai, jumlah tersembunyi neuron lapisan harus setidaknya 3, sebaiknya lebih tinggi. Banyak iterasi langkah (sering, ribuan) dari algoritma steepest descent of Sec. 3.4.2 diperlukan untuk konvergensi. Adalah lebih baik untuk menggunakan bipolar daripada konfigurasi biner untuk fungsi aktivasi.
Diskusi di atas dari jaringan saraf Madeline (NN) menunjukkan bahwa Madeline adalah intuitif, tetapi agak primitif dan inecient NN. Hal ini juga sangat sensitif terhadap suara. Meskipun memiliki sifat-sifat dasar dari beberapa jaringan saraf lain yang dibahas dalam bab-bab selanjutnya dari buku ini, kita akan melihat bahwa jaringan dibahas nanti adalah jauh lebih efisient dan kurang kebisingan sensitif.


                                             4.APLIKASI BACK PROPAGATION

Pengenalan tulisan tangan atau karakter - Optical Character Recognition(OCR) adalah sebuah aplikasi untuk mengubah dokumen dalam bentuk gambar digital ke dalam bentuk dokumen dengan format teks (ASCII)yang dapat dengan mudah diubah isinya. Gambar digital tersebut biasa didapat dengan cara melakukan scanning dengan menggunakan perangkat keras berupa scanner.

Gambar digital tersebut dapat berisi tulisan tangan maupun tulisan ketik. Hal pertama yang dilakukan oleh aplikasi OCR moderen adalah membagi halaman ke dalam beberapa elemen dasar seperti teks, tabel, gambar, dan sebagainya. Teks akan dibagi lagi menjadi per baris. Baris teks akan dibagi menjadi kata dan akhirnya menjadi karakter. Kemudian karakter-karakter tersebut akan dibandingkan dengan berbagai pola karakter yang ada. Karakter tersebut akan melalui beberapa hipotesadan kemungkinan yang pada akhirnya menunjuk kepada karakter tersebut. Pada akhirnya, karakter-karakter yang telah dikenali tersebut akan dirangkaikan kembali ke dalam bentuk teks seperti di awal menjadi sebuah dokumen teks digital hasil OCR.

Example pada plat nomor kendaraan :

Metode OCR memiliki tahapan dalam penerapannya dan tahapan itu meliputi yang pertama, akusisi. Proses akusisi berfungsi untuk mengambil objek citra plat nomor kemudian menjadikannya sebagai inputan citra digital. Kedua prepocessing, adalah kumpulan dari beberapa proses yang digunakan untuk mengolah citra plat nomor yang terdiri dari image adjustment (imadjust), image complement, biner, dan morphological opening. Ketiga adalah proses OCR, yang berfungsi mengkorelasikan antara karakter pola citra plat nomor dengan citra template matching. Proses OCR sekaligus juga akan mengubah citra yang telah dikorelasikan untuk di ubah menjadi text. Keempat adalah proses identifikasi yang digunakan untuk mengidentifikasi bagian karakter terakhir dari output text untuk di cari identitas kota dari plat nomor itu sendiri.

Pada pelatihan :
Struktur

Jaringan saraf dari desain ini terdiri dari tiga lapisan dengan 2 neuron masing-masing, satu lapisan output dan dua lapisan tersembunyi. Ada 36 masukan ke jaringan. Dalam kasus ini fungsi sigmoid:


dipilih sebagai fungsi aktivasi neuron nonlinear. hal Bias (sama dengan 1) dengan bobot dilatih juga dimasukkan dalam struktur jaringan. Diagram struktural dari jaringan saraf yang diberikan pada Gambar. 6.A.1.


Desain Database

Kami mengajarkan jaringan saraf untuk mengenali karakter 'A', 'B' dan 'C'. Untuk melatih jaringan untuk menghasilkan sinyal kesalahan kita akan menggunakan 'D' lain 6 karakter, 'E', 'F', 'G', 'H' dan 'I'. Untuk memeriksa apakah jaringan telah belajar untuk mengenali kesalahan kita akan menggunakan karakter 'X', 'Y' dan 'Z'. Perhatikan bahwa kami tertarik dalam memeriksa respon dari jaringan untuk kesalahan pada karakter yang tidak terlibat dalam prosedur pelatihan.

Karakter untuk diakui diberikan pada 6 × 6 kotak. Masing-masing dari 36 piksel diatur ke 0 atau 1. Sesuai 6 × 6 matriks dari representasi karakter diberikan sebagai:



Set-up jaringan

Algoritma pembelajaran Kembali propagasi (BP) dari Bagian 6.2 digunakan untuk memecahkan masalah. Tujuan dari algoritma ini adalah untuk meminimalkan kesalahan-energi pada lapisan output, seperti dalam Sect. 6.2 di atas, menggunakan persamaan (6.17), (6.19), (6.26), (6.27) daripadanya. Dalam metode ini satu set pelatihan vektor input diterapkan vektor-by-vektor ke input dari jaringan dan maju-disebarkan ke output. Bobot kemudian disesuaikan dengan algoritma BP seperti di atas. Selanjutnya, kita ulangi langkah ini untuk semua set pelatihan. Seluruh proses ini kemudian diulang untuk selanjutnya (m + 2) iterasi -th dan sebagainya. Kami berhenti ketika konvergensi memadai tercapai.

Kode program di C ++ ditulis untuk mensimulasikan respon dari jaringan dan melakukan prosedur pembelajaran, seperti di Bagian 6.A.5 bawah.

Hasil
Pelatihan jaringan

Untuk melatih jaringan untuk mengenali karakter di atas kita diterapkan sesuai 6 × 6 grid dalam bentuk 1 × 36 vektor ke input dari jaringan. Karakter dianggap diakui jika kedua output dari jaringan yang tidak lebih dari 0,1 off nilai-nilai yang diinginkan masing-masing. Awal tingkat belajar η adalah eksperimental diatur ke 1,5 dan menurun dengan faktor 2 setelah setiap iterasi 100. Pendekatan ini, bagaimanapun, menghasilkan prosedur pembelajaran terjebak dalam berbagai minima lokal. Kami mencoba menjalankan algoritma belajar untuk 1000 iterasi dan menjadi jelas bahwa parameter kesalahan-energi telah berkumpul untuk beberapa nilai stabil, namun pengakuan gagal untuk semua karakter (vektor).

Namun, tak satu pun dari vektor pelatihan kami diakui pada saat ini:


Pelatihan vektor 0, 1, ..., 8 di entri log ini sesuai dengan karakter 'A', 'B',. . . , 'I'.

Untuk mencegah hal ini terjadi, satu lagi modifikasi dibuat. Setelah setiap iterasi 400 kita ulang tingkat belajar nilai awalnya. Kemudian setelah sekitar 2000 iterasi kami mampu konvergen ke 0 kesalahan dan untuk benar mengenali semua karakter:

Hasil pengenalan

Dalam rangka untuk menentukan apakah kesalahan deteksi dilakukan dengan benar, kita diselamatkan bobot yang diperoleh ke dalam file data, memodifikasi dataset dalam program menggantikan karakter 'G', 'H' dan 'I' (pelatihan vektor 6, 7 dan 8) dengan karakter 'X', 'Y' dan 'Z'. Kami kemudian berlari program, dimuat bobot disimpan sebelumnya dari file data dan diterapkan input ke jaringan. Perhatikan bahwa kami melakukan pelatihan lebih lanjut. Kami mendapat hasil sebagai berikut:

Semua tiga karakter yang berhasil dipetakan kesalahan sinyal 0,0.
Robustness Investigation

Untuk menyelidiki bagaimana kuat jaringan syaraf kami, kami menambahkan beberapa kebisingan untuk input dan mendapat hasil berikut. Dalam kasus 1-bit distorsi (dari 36 bit) tingkat pengakuan adalah:


Kami juga menyelidiki kasus 2-bit distorsi dan mampu mencapai tingkat pengakuan berikut:





JUDUL JURNAL :
Penerapan Jaringan Syaraf Tiruan Untuk Memprediksi Jumlah Pengangguran di Provinsi Kalimantan Timur Dengan Menggunakan Algoritma Pembelajaran Backpropagation

ANALISIS
Karena jumlah data yang besar mengakibatkan  lamanya proses Training. Setelah dilakukan  pelatihan dengan maksimum epoch 500000 dengan neuron pada hid den layer 10 neuron.  Untuk training 3 neuron membutuhkan waktu kurang lebih 10 jam dan berhenti pada epoch 500000. Untuk training 10 neuron membutuhkan waktu kurang lebih 11 jam dan berhenti pada epoch 500000. Dari hasil training model jaringan saraf tiruan yang telah dibuat dengan konstanta belajar 0,1, keberhasilan
dalam memprediksi jumlah pengangguran dengan RMSE sebesar 13.7001521. Jadi setelah proses training dan testing dapat diprediksi jumlah pengangguran pada tahun 2009 adalah 133.104

 KESIMPULAN
Dari hasil penelitian, dapat disimpulkan bahwa metode Backpropagation dapat digunakan untuk melakukan prediksi pengangguran, maupun kasus yang memiliki data masa lalu, dan dengan menggunakan metode Backpropagation, target output yang diinginkan lebih mendekati ketepatan dalam malakukan pengujian, karena terjadi penyesuaian nilai bobot dan bias yang semakin baik pada proses pelatihan.Diperoleh hasil prediksi jumlah pengangguran pada tahun 2009 adalah 133.104. Sedangkan hasil prediksi jumlah pengangguran tahun 2009 yang dilakukan oleh BPS Provinsi Kalimantan Timur adalah 139.830 .Walaupun memiliki segudang kelebihan, JST uga mempunyai sejumlah keterbatasan, antara lain kekurang mampuannya dalam melakukan operasi-operasi numerik dengan presisitinggi, operasi algoritma aritmatik, operasi logika, dan operasi simbolis serta lamanya proses pelatihan yang terkadang membutuhkan waktu berhari-hari untuk jumlah data yang besar. Karena sistem JST merupakan sistem yang baru maka hanya dapat berfungsi sebagai alat Bantu sehingga untuk mengambilnkeputusan masih perlu menggunakan tambahan kebijakan yang lain.

LEBIH LENGKAP KLIK  APLIKASI JST DARI JURNAL

Komentar

Postingan populer dari blog ini

BAB 7 Jaringan Hopfield

BAB 9 Adaptive Resonance Theory