SOAL UTS
1.APA
ITU JST???
Jaringan saraf tiruan (JST) (Bahasa
Inggris: artificial neural network (ANN), atau juga disebut simulated
neural network (SNN), atau umumnya hanya disebut neural network (NN)),
adalah jaringan dari sekelompok unit pemroses kecil yang dimodelkan berdasarkan
sistem saraf manusia. JST merupakan sistem adaptif yang dapat mengubah
strukturnya untuk memecahkan masalah berdasarkan informasi eksternal maupun
internal yang mengalir melalui jaringan tersebut. Oleh karena sifatnya yang
adaptif, JST juga sering disebut dengan jaringan adaptif.
Jaringan Syaraf Tiruan dibuat pertama kali pada tahun 1943 oleh neurophysiologist Waren
cCulloch dan logician Walter Pits, namun teknologi yang tersedia pada
saat itu belum memungkinkan mereka berbuat lebih jauh.
Jaringan syaraf tiruan (artifical
neural network) adalah sistem komputasi yang arsitektur dan
operasinya diilhami dari pengetahuan tentang sel syaraf biologis di dalam otak.
Jaringan syaraf tiruan merupakan salah satu representasi buatan dari otak
manusia yang selalu mencoba menstimulasi proses pembelajaran pada otak manusia
tersebut. Jaringan syaraf tiruan dapat digambarkan sebagai model matematis dan
komputasi untuk fungsi aproksimasi non-linear, klasifikasi data cluster dan
regresi non-parametrik atau sebuah simulasi dari koleksi model jaringan syaraf
biologi.
Model jaringan syaraf ditunjukkan dengan
kemampuannya dalam emulasi, analisis, prediksi dan asosiasi. Kemampuan yang
dimiliki jaringan syaraf tiruan dapat digunakan untuk belajar dan menghasilkan
aturan atau operasi dari beberapa contoh atau input yang dimasukkan dan membuat
prediksi tentang kemungkinan output yang akan muncul atau menyimpan
karakteristik input yang diberikan kepada jaringan syaraf tiruan.
Salah satu organisasi yang sering digunakan
dalam paradigma jaringan syaraf tiruan adalah perambatan galat mundur
atau backpropagation.
(Hermawan, 2006)
Aturan belajar perceptron lebih handal jika dibandingkan dengan aturan Hebbrule, dengan asumsi yang sesuai prosedur belajar iteratifnya dapat dibuktikan dengan konvergennya ke bobot yang benar, yaitu bobot yang memungkinakan jaringan menghasilkan nilai output yang benar untuk setiap pola input pelatihan.
Arsitektur perceptron belajar mengenali pola dengan metode pembelajaran terbimbing. Perhatikan gambar berikut ini
2. PROSES PERCEPTRON
Perceptron adalah salah
satu metode JST training yang sederhana dipakaikan prosedur algoritma training
yang pertama kali. Terdiri dari neuron tunggal dengan bobot synaptic yang
diatur menggunakan fungsi aktifasi hard limit.
Aturan belajar perceptron lebih handal jika dibandingkan dengan aturan Hebbrule, dengan asumsi yang sesuai prosedur belajar iteratifnya dapat dibuktikan dengan konvergennya ke bobot yang benar, yaitu bobot yang memungkinakan jaringan menghasilkan nilai output yang benar untuk setiap pola input pelatihan.
Arsitektur perceptron belajar mengenali pola dengan metode pembelajaran terbimbing. Perhatikan gambar berikut ini
Target = Nilai yang diinginkan, Output = Nilai yang keluar dari neuron
Proses Compare digunakan untuk membandingkan antara output dengan target,
Jika terjadi perbedaan maka weight/bobot di adjust/atur sampai nilai ouput= (mendekati) nilai target
Jika terjadi perbedaan maka weight/bobot di adjust/atur sampai nilai ouput= (mendekati) nilai target
Bagaimana Perceptron Belajar ?
Untuk memahami proses belajar perceptron perhatikan diagram berikut ini
p = input jaringan
w = bobot
b = bias
input jaringan akan diberikan pembobotan ( w ) yang kemudian diproses oleh
Pemroses ELemen dimana nilai input akan dikalikan dengan nilai pembobotannya.
Perceptron dilatih dengan menggunakan sekumpulan pola yang diberikan
kepadanya secara berulang ulang selama latihan. Setiap pola yang diberikan
merupakan pasangan pola masukan dan pola yang diinginkan sebagai target.
Perceptron melakukan penjumlahan terhadap tiap tiap masukannya dan menggunakan
fungsi ambang untuk menghitung keluarannya. keluaran ini kemudian dibandingkan
dengan hasil yang diinginkan, perbedaan yang dihasilkan dari perbandingan ini
digunakan untuk merubah bobot bobot dalam jaringan. Demikian dilakukan berulang
ulang sampai dihasilkan keluaran yang sesuai dengan hasil yang diinginkan.
Keterpisahan Linier
Berbagai penelitian dilakukan untuk mengetahui kemampuan perceptron dalam
klasifikasi pola. meskipun perceptron mampu menyelesaikan banyak masalah
klasifikasi pola tetapi kadang kadang konvergensi terjadi dalam waktu yang
sangat lama, kelemahan ini terjadi karena keterbatasan perceptron yang tidak
mengijinkan adanya lapisan hiden layer diantara lapisan input dan outputnya.
Sehingga didalam pengklasifikasian pola hal ini menyebabkan perceptron
hanya mampu memisahkan pola yang terpisah secara linier.
Konsep keterpisahan linier menyatakan bahwa pola dikatakan terpisah secara
linier jika pola tersebut dapat dipisahkan oleh sebuah garis lurus.
Langkah langkah proses pembelajaran perceptron :
Pada awalnya bobot dibuat kecil untuk menjaga jangan sampai terjadi
perbedaan yang sangat besar dengan target.
Bobot awal adalah dibuat random, umumnya dalam interval [-0.5 – 0.5]
Keluaran adalah proses jumlah perkalian antara masukan dengan bobot.
Jika terjadi perbedaan antara keluaran dengan target, e(k) = a(k) – t(k), k
= iterasi ke- 1, 2, 3, maka:
Bobot diupdate/diatur sedikit demi sedikit untuk mendapatkan keluaran yang
sesuai dengan target
w(k+1) = w(k) + Δw(k)
Langkah pertama : Inisialisasi Awal
Mengatur bobot w1, w2, ..., wn interval [-0.5 – 0.5], mengatur
bias/threshold b, mengatur kec pembelajaran ŋ, fungsi aktivasi
Langkah kedua : Menghitung keluaran
Mengaktifkan perceptron dengan memakai masukan p1(k), p2(k), ..., pi(k) dan
target yang dikehendaki t(k). Hitunglah output aktual pada iterasi ke-k =
1
Langkah ke tiga : Menghitung error
e(k) = t(k) – a(k) t(k) = target,a(t)=keluaran
perceptron
Langkah ke empat : Mengatur Bobot
Mengupdate bobot perceptron
wi(k+1) = wi(k) + Δwi(k)
w(k+1)--> bobot baru w(k)-->
bobot yg lalu
Δwi(p) adalah pengkoreksian bobot pada iterasi k, yang dihitung dengan:
Δwi(p) = ŋ x pi(k) x e(k)
Langkah ke lima : pengulangan
Naikkan iterasi k dengan 1 (k=k+1), kembalilah ke langkah ke dua dan ulangi
proses sampai keluaran=target or mendekati target.
3.PROSES MEDELIN
Madaline (Banyak Adaline) adalah ekstensi
multilayer dari bipolar single-neuron Adaline ke jaringan. Karena Madaline
adalah ekstensi multi-layer metodologi penyesuaian lebih berat daripada di
Back Propagation dan memberikan pemahaman yang sulit ke dalam menyesuaikan
bobot dalam jaringan multi-layer, meskipun kurang efisien. Struktur dasar
diberikan pada Gambar. 5.1 yang dalam hal dua lapisan Adalines, ditambah
lapisan masukan yang hanya berfungsi sebagai distributor masukan jaringan
(lihat Gambar. 5.2).
The
Madaline mempekerjakan prosedur pelatihan yang dikenal sebagai Madaline Aturan
II, yang didasarkan pada Gangguan Prinsip Minimum, sebagai berikut [Widrow et
al., 1987]:
(1)
Semua bobot diinisialisasi dengan nilai acak rendah. Selanjutnya, satu set
pelatihan input L vektor xi (i = 1; 2;:::; L) diterapkan satu vektor pada suatu
waktu untuk input.
(2)
Jumlah nilai bipolar yang salah pada lapisan output dihitung dan jumlah ini
dilambangkan sebagai e error per vektor masukan yang diberikan.
(3)
Untuk semua neuron pada lapisan output:
(A) Yang
menunjukkan th sebagai ambang fungsi aktivasi (sebaiknya 0), periksa: [z-th]
untuk setiap vektor masukan dari training set diberikan vektor untuk lapisan
tertentu yang dianggap pada langkah ini. Pilih neuron diset pertama dari atas,
namun yang sesuai dengan abs terendah [z-th] terjadi lebih dari yang himpunan
vektor input. Oleh karena itu, untuk kasus vektor L masukan dalam masukan set
dan untuk lapisan n neuron, seleksi dari nilai-nilai n L z. Ini
adalah node yang dapat membalikkan polaritas oleh perubahan terkecil dalam
bobot nya, sehingga yang dilambangkan sebagai neuron gangguan-minimum, dari
mana nama prosedur berasal. Sebuah neuron sebelumnya diset adalah neuron yang
berat belum ditetapkan belum.
(B)
Selanjutnya, kita harus mengubah bobot dari neuron yang terakhir sehingga y
keluaran bipolar bahwa perubahan satuan. Perubahan terkecil berat melalui modi
sebuah ed prosedur curam seperti di Sec. 3.4.2 yang menganggap [z-th] bukan em
dari Persamaan. (3.22) akan menyebabkan perubahan ini. Atau, perubahan acak
dapat digunakan.
(C)
Input set vektor disebarkan ke output sekali lagi.
(D) Jika
perubahan berat badan mengurangi biaya kinerja \ e “dari Langkah 2, maka
perubahan ini diterima. Lain, asli (sebelumnya) bobot dikembalikan ke neuron
itu.
(4)
Ulangi Langkah 3 untuk semua lapisan kecuali lapisan input.
(5)
Untuk semua neuron dari lapisan output: Terapkan Langkah 3, 4 untuk sepasang
neuron yang analog node-output z paling dekat dengan nol, dll
(6)
Untuk semua neuron dari lapisan output: Terapkan Langkah 3, 4 untuk triplet
neuron yang simpul-output analog yang paling dekat dengan nol, dll
(7)
Pergi ke vektor berikutnya ke L’th vektor.
(8)
Ulangi untuk kombinasi lebih lanjut dari vektor L sampai pelatihan memuaskan.
Hal yang
sama dapat diulang untuk empat kali lipat dari neuron, dll Namun, pengaturan
ini kemudian menjadi sangat panjang dan karena itu mungkin ed unjusti. Semua
bobot awalnya ditetapkan untuk (berbeda-beda) nilai acak rendah. Nilai-nilai
bobot bisa positif atau negatif dalam beberapa rentang tetap, katakanlah,
antara 1 dan 1. Tingkat pembelajaran awal Persamaan. (3.18) dari bab sebelumnya
harus antara 1 dan 20. Untuk konvergensi yang memadai, jumlah tersembunyi
neuron lapisan harus setidaknya 3, sebaiknya lebih tinggi. Banyak iterasi
langkah (sering, ribuan) dari algoritma steepest descent of Sec. 3.4.2
diperlukan untuk konvergensi. Adalah lebih baik untuk menggunakan bipolar
daripada konfigurasi biner untuk fungsi aktivasi.
Diskusi
di atas dari jaringan saraf Madeline (NN) menunjukkan bahwa Madeline adalah
intuitif, tetapi agak primitif dan inecient NN. Hal ini juga sangat sensitif
terhadap suara. Meskipun memiliki sifat-sifat dasar dari beberapa jaringan
saraf lain yang dibahas dalam bab-bab selanjutnya dari buku ini, kita akan
melihat bahwa jaringan dibahas nanti adalah jauh lebih efisient dan kurang
kebisingan sensitif.
Jaringan saraf dari desain ini terdiri dari tiga lapisan dengan 2 neuron masing-masing, satu lapisan output dan dua lapisan tersembunyi. Ada 36 masukan ke jaringan. Dalam kasus ini fungsi sigmoid:
Kami mengajarkan jaringan saraf untuk mengenali karakter 'A', 'B' dan 'C'. Untuk melatih jaringan untuk menghasilkan sinyal kesalahan kita akan menggunakan 'D' lain 6 karakter, 'E', 'F', 'G', 'H' dan 'I'. Untuk memeriksa apakah jaringan telah belajar untuk mengenali kesalahan kita akan menggunakan karakter 'X', 'Y' dan 'Z'. Perhatikan bahwa kami tertarik dalam memeriksa respon dari jaringan untuk kesalahan pada karakter yang tidak terlibat dalam prosedur pelatihan.
Karakter untuk diakui diberikan pada 6 × 6 kotak. Masing-masing dari 36 piksel diatur ke 0 atau 1. Sesuai 6 × 6 matriks dari representasi karakter diberikan sebagai:
Set-up jaringan
Algoritma pembelajaran Kembali propagasi (BP) dari Bagian 6.2 digunakan untuk memecahkan masalah. Tujuan dari algoritma ini adalah untuk meminimalkan kesalahan-energi pada lapisan output, seperti dalam Sect. 6.2 di atas, menggunakan persamaan (6.17), (6.19), (6.26), (6.27) daripadanya. Dalam metode ini satu set pelatihan vektor input diterapkan vektor-by-vektor ke input dari jaringan dan maju-disebarkan ke output. Bobot kemudian disesuaikan dengan algoritma BP seperti di atas. Selanjutnya, kita ulangi langkah ini untuk semua set pelatihan. Seluruh proses ini kemudian diulang untuk selanjutnya (m + 2) iterasi -th dan sebagainya. Kami berhenti ketika konvergensi memadai tercapai.
Kode program di C ++ ditulis untuk mensimulasikan respon dari jaringan dan melakukan prosedur pembelajaran, seperti di Bagian 6.A.5 bawah.
Hasil
Pelatihan vektor 0, 1, ..., 8 di entri log ini sesuai dengan karakter 'A', 'B',. . . , 'I'.
Untuk mencegah hal ini terjadi, satu lagi modifikasi dibuat. Setelah setiap iterasi 400 kita ulang tingkat belajar nilai awalnya. Kemudian setelah sekitar 2000 iterasi kami mampu konvergen ke 0 kesalahan dan untuk benar mengenali semua karakter:
Hasil pengenalan
Dalam rangka untuk menentukan apakah kesalahan deteksi dilakukan dengan benar, kita diselamatkan bobot yang diperoleh ke dalam file data, memodifikasi dataset dalam program menggantikan karakter 'G', 'H' dan 'I' (pelatihan vektor 6, 7 dan 8) dengan karakter 'X', 'Y' dan 'Z'. Kami kemudian berlari program, dimuat bobot disimpan sebelumnya dari file data dan diterapkan input ke jaringan. Perhatikan bahwa kami melakukan pelatihan lebih lanjut. Kami mendapat hasil sebagai berikut:
Semua tiga karakter yang berhasil dipetakan kesalahan sinyal 0,0.
Kami juga menyelidiki kasus 2-bit distorsi dan mampu mencapai tingkat pengakuan berikut:
LEBIH LENGKAP KLIK APLIKASI JST DARI JURNAL
4.APLIKASI BACK PROPAGATION
Pengenalan tulisan tangan atau karakter - Optical Character
Recognition(OCR) adalah sebuah aplikasi untuk mengubah dokumen dalam bentuk
gambar digital ke dalam bentuk dokumen dengan format teks (ASCII)yang dapat
dengan mudah diubah isinya. Gambar digital tersebut biasa didapat dengan cara
melakukan scanning dengan menggunakan perangkat keras berupa scanner.
Gambar digital tersebut dapat berisi tulisan tangan maupun tulisan ketik. Hal pertama yang dilakukan oleh aplikasi OCR moderen adalah membagi halaman ke dalam beberapa elemen dasar seperti teks, tabel, gambar, dan sebagainya. Teks akan dibagi lagi menjadi per baris. Baris teks akan dibagi menjadi kata dan akhirnya menjadi karakter. Kemudian karakter-karakter tersebut akan dibandingkan dengan berbagai pola karakter yang ada. Karakter tersebut akan melalui beberapa hipotesadan kemungkinan yang pada akhirnya menunjuk kepada karakter tersebut. Pada akhirnya, karakter-karakter yang telah dikenali tersebut akan dirangkaikan kembali ke dalam bentuk teks seperti di awal menjadi sebuah dokumen teks digital hasil OCR.
Example pada plat nomor kendaraan :
Metode OCR memiliki tahapan dalam penerapannya dan tahapan itu meliputi yang pertama, akusisi. Proses akusisi berfungsi untuk mengambil objek citra plat nomor kemudian menjadikannya sebagai inputan citra digital. Kedua prepocessing, adalah kumpulan dari beberapa proses yang digunakan untuk mengolah citra plat nomor yang terdiri dari image adjustment (imadjust), image complement, biner, dan morphological opening. Ketiga adalah proses OCR, yang berfungsi mengkorelasikan antara karakter pola citra plat nomor dengan citra template matching. Proses OCR sekaligus juga akan mengubah citra yang telah dikorelasikan untuk di ubah menjadi text. Keempat adalah proses identifikasi yang digunakan untuk mengidentifikasi bagian karakter terakhir dari output text untuk di cari identitas kota dari plat nomor itu sendiri.
Pada pelatihan :
Gambar digital tersebut dapat berisi tulisan tangan maupun tulisan ketik. Hal pertama yang dilakukan oleh aplikasi OCR moderen adalah membagi halaman ke dalam beberapa elemen dasar seperti teks, tabel, gambar, dan sebagainya. Teks akan dibagi lagi menjadi per baris. Baris teks akan dibagi menjadi kata dan akhirnya menjadi karakter. Kemudian karakter-karakter tersebut akan dibandingkan dengan berbagai pola karakter yang ada. Karakter tersebut akan melalui beberapa hipotesadan kemungkinan yang pada akhirnya menunjuk kepada karakter tersebut. Pada akhirnya, karakter-karakter yang telah dikenali tersebut akan dirangkaikan kembali ke dalam bentuk teks seperti di awal menjadi sebuah dokumen teks digital hasil OCR.
Example pada plat nomor kendaraan :
Metode OCR memiliki tahapan dalam penerapannya dan tahapan itu meliputi yang pertama, akusisi. Proses akusisi berfungsi untuk mengambil objek citra plat nomor kemudian menjadikannya sebagai inputan citra digital. Kedua prepocessing, adalah kumpulan dari beberapa proses yang digunakan untuk mengolah citra plat nomor yang terdiri dari image adjustment (imadjust), image complement, biner, dan morphological opening. Ketiga adalah proses OCR, yang berfungsi mengkorelasikan antara karakter pola citra plat nomor dengan citra template matching. Proses OCR sekaligus juga akan mengubah citra yang telah dikorelasikan untuk di ubah menjadi text. Keempat adalah proses identifikasi yang digunakan untuk mengidentifikasi bagian karakter terakhir dari output text untuk di cari identitas kota dari plat nomor itu sendiri.
Pada pelatihan :
Struktur
Jaringan saraf dari desain ini terdiri dari tiga lapisan dengan 2 neuron masing-masing, satu lapisan output dan dua lapisan tersembunyi. Ada 36 masukan ke jaringan. Dalam kasus ini fungsi sigmoid:
dipilih sebagai fungsi aktivasi neuron nonlinear. hal Bias (sama dengan 1)
dengan bobot dilatih juga dimasukkan dalam struktur jaringan. Diagram
struktural dari jaringan saraf yang diberikan pada Gambar. 6.A.1.
Desain Database
Kami mengajarkan jaringan saraf untuk mengenali karakter 'A', 'B' dan 'C'. Untuk melatih jaringan untuk menghasilkan sinyal kesalahan kita akan menggunakan 'D' lain 6 karakter, 'E', 'F', 'G', 'H' dan 'I'. Untuk memeriksa apakah jaringan telah belajar untuk mengenali kesalahan kita akan menggunakan karakter 'X', 'Y' dan 'Z'. Perhatikan bahwa kami tertarik dalam memeriksa respon dari jaringan untuk kesalahan pada karakter yang tidak terlibat dalam prosedur pelatihan.
Karakter untuk diakui diberikan pada 6 × 6 kotak. Masing-masing dari 36 piksel diatur ke 0 atau 1. Sesuai 6 × 6 matriks dari representasi karakter diberikan sebagai:
Set-up jaringan
Algoritma pembelajaran Kembali propagasi (BP) dari Bagian 6.2 digunakan untuk memecahkan masalah. Tujuan dari algoritma ini adalah untuk meminimalkan kesalahan-energi pada lapisan output, seperti dalam Sect. 6.2 di atas, menggunakan persamaan (6.17), (6.19), (6.26), (6.27) daripadanya. Dalam metode ini satu set pelatihan vektor input diterapkan vektor-by-vektor ke input dari jaringan dan maju-disebarkan ke output. Bobot kemudian disesuaikan dengan algoritma BP seperti di atas. Selanjutnya, kita ulangi langkah ini untuk semua set pelatihan. Seluruh proses ini kemudian diulang untuk selanjutnya (m + 2) iterasi -th dan sebagainya. Kami berhenti ketika konvergensi memadai tercapai.
Kode program di C ++ ditulis untuk mensimulasikan respon dari jaringan dan melakukan prosedur pembelajaran, seperti di Bagian 6.A.5 bawah.
Hasil
Pelatihan jaringan
Untuk melatih jaringan untuk mengenali karakter di atas kita diterapkan sesuai 6 × 6 grid dalam bentuk 1 × 36 vektor ke input dari jaringan. Karakter dianggap diakui jika kedua output dari jaringan yang tidak lebih dari 0,1 off nilai-nilai yang diinginkan masing-masing. Awal tingkat belajar η adalah eksperimental diatur ke 1,5 dan menurun dengan faktor 2 setelah setiap iterasi 100. Pendekatan ini, bagaimanapun, menghasilkan prosedur pembelajaran terjebak dalam berbagai minima lokal. Kami mencoba menjalankan algoritma belajar untuk 1000 iterasi dan menjadi jelas bahwa parameter kesalahan-energi telah berkumpul untuk beberapa nilai stabil, namun pengakuan gagal untuk semua karakter (vektor).
Namun, tak satu pun dari vektor pelatihan kami diakui pada saat ini:
Untuk melatih jaringan untuk mengenali karakter di atas kita diterapkan sesuai 6 × 6 grid dalam bentuk 1 × 36 vektor ke input dari jaringan. Karakter dianggap diakui jika kedua output dari jaringan yang tidak lebih dari 0,1 off nilai-nilai yang diinginkan masing-masing. Awal tingkat belajar η adalah eksperimental diatur ke 1,5 dan menurun dengan faktor 2 setelah setiap iterasi 100. Pendekatan ini, bagaimanapun, menghasilkan prosedur pembelajaran terjebak dalam berbagai minima lokal. Kami mencoba menjalankan algoritma belajar untuk 1000 iterasi dan menjadi jelas bahwa parameter kesalahan-energi telah berkumpul untuk beberapa nilai stabil, namun pengakuan gagal untuk semua karakter (vektor).
Namun, tak satu pun dari vektor pelatihan kami diakui pada saat ini:
Pelatihan vektor 0, 1, ..., 8 di entri log ini sesuai dengan karakter 'A', 'B',. . . , 'I'.
Untuk mencegah hal ini terjadi, satu lagi modifikasi dibuat. Setelah setiap iterasi 400 kita ulang tingkat belajar nilai awalnya. Kemudian setelah sekitar 2000 iterasi kami mampu konvergen ke 0 kesalahan dan untuk benar mengenali semua karakter:
Hasil pengenalan
Dalam rangka untuk menentukan apakah kesalahan deteksi dilakukan dengan benar, kita diselamatkan bobot yang diperoleh ke dalam file data, memodifikasi dataset dalam program menggantikan karakter 'G', 'H' dan 'I' (pelatihan vektor 6, 7 dan 8) dengan karakter 'X', 'Y' dan 'Z'. Kami kemudian berlari program, dimuat bobot disimpan sebelumnya dari file data dan diterapkan input ke jaringan. Perhatikan bahwa kami melakukan pelatihan lebih lanjut. Kami mendapat hasil sebagai berikut:
Semua tiga karakter yang berhasil dipetakan kesalahan sinyal 0,0.
Robustness
Investigation
Untuk menyelidiki bagaimana kuat jaringan syaraf kami, kami menambahkan beberapa kebisingan untuk input dan mendapat hasil berikut. Dalam kasus 1-bit distorsi (dari 36 bit) tingkat pengakuan adalah:
Untuk menyelidiki bagaimana kuat jaringan syaraf kami, kami menambahkan beberapa kebisingan untuk input dan mendapat hasil berikut. Dalam kasus 1-bit distorsi (dari 36 bit) tingkat pengakuan adalah:
Kami juga menyelidiki kasus 2-bit distorsi dan mampu mencapai tingkat pengakuan berikut:
JUDUL JURNAL :
Penerapan Jaringan Syaraf Tiruan Untuk Memprediksi Jumlah Pengangguran di
Provinsi Kalimantan Timur Dengan Menggunakan Algoritma Pembelajaran
Backpropagation
ANALISIS
Karena jumlah data yang besar mengakibatkan lamanya proses Training. Setelah dilakukan pelatihan dengan maksimum epoch 500000 dengan
neuron pada hid den layer 10 neuron. Untuk
training 3 neuron membutuhkan waktu kurang lebih 10 jam dan berhenti pada epoch
500000. Untuk training 10 neuron membutuhkan waktu kurang lebih 11 jam dan berhenti
pada epoch 500000. Dari hasil training model jaringan saraf tiruan yang telah
dibuat dengan konstanta belajar 0,1, keberhasilan
dalam memprediksi jumlah pengangguran dengan RMSE sebesar 13.7001521. Jadi
setelah proses training dan testing dapat diprediksi jumlah pengangguran pada
tahun 2009 adalah 133.104
KESIMPULAN
Dari hasil penelitian, dapat disimpulkan bahwa metode Backpropagation dapat digunakan untuk melakukan prediksi pengangguran, maupun kasus yang
memiliki data masa lalu, dan dengan menggunakan metode Backpropagation, target
output yang diinginkan lebih mendekati ketepatan dalam malakukan pengujian,
karena terjadi penyesuaian nilai bobot dan bias yang semakin baik pada proses pelatihan.Diperoleh
hasil prediksi jumlah pengangguran pada tahun 2009 adalah 133.104. Sedangkan
hasil prediksi jumlah pengangguran tahun 2009 yang dilakukan oleh BPS Provinsi Kalimantan
Timur adalah 139.830 .Walaupun memiliki segudang kelebihan, JST uga mempunyai
sejumlah keterbatasan, antara lain kekurang mampuannya dalam melakukan operasi-operasi
numerik dengan presisitinggi, operasi algoritma aritmatik, operasi logika, dan operasi
simbolis serta lamanya proses pelatihan yang terkadang membutuhkan waktu
berhari-hari untuk jumlah data yang besar. Karena sistem JST merupakan sistem
yang baru maka hanya dapat berfungsi sebagai alat Bantu sehingga untuk
mengambilnkeputusan masih perlu menggunakan tambahan kebijakan yang lain.
LEBIH LENGKAP KLIK APLIKASI JST DARI JURNAL
Komentar
Posting Komentar