APLIKASI JARINGAN SYARAF TIRUAN UNTUK ... - digilib

20 downloads 2228 Views 1MB Size Report
Aplikasi Jaringan Syaraf Tiruan Untuk Memprediksi Prestasi Siswa SMU. Dengan ..... Puspitaningrum, 2006, Pengantar Jaringan Saraf Tiruan, C.V Andi Offset,.
APLIKASI JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI PRESTASI SISWA SMU DENGAN METODE BACKPROPAGATION SKRIPSI Diajukan Kepada Fakultas Sains dan Teknologi Universitas Islam Negeri Sunan Kalijaga Yogyakarta Untuk Memenuhi Syarat Memperoleh Gelar Sarjana

Disusun Oleh: FITRIA YUNANTI NIM : 04610018

PROGRAM STUDI MATEMATIKA FAKULTAS SAINS DAN TEKNOLOGI UNIVERSITAS ISLAM NEGERI SUNAN KALIJAGA YOGYAKARTA 2010

0

ii

iii

iv

!" # $ %% &

'

(

%)

1

%

*

+( , # ,

+ 23

.

, %% /-$ +

01

%

2

%

KATA PENGANTAR Puji syukur kehadirat Allah SWT yang telah memberikan rahmatNya kepada penulis, sehingga penulis dapat menyelesaikan skripsi yang berjudul : Aplikasi Jaringan Syaraf Tiruan Untuk Memprediksi Prestasi Siswa SMU Dengan Metode Backpropagation. Penulis sadar tanpa bantuan dari berbagai pihak, skripsi ini tidak akan terlaksana dengan baik. Oleh karena itu, pada kesempatan ini penulis dengan ketulusan hati mengucapkan terimakasih atas dukungan, bimbingan, dan bantuannya baik secara moral maupun spiritual kepada: 1. Prof. Dr. HM. Amin Abdullah selaku Rektor Universitas Islam Negeri Sunan Kalijaga Yogyakarta. 2. Ibu Dra. Maizer Said Nahdi, M.Si. selaku Dekan Fakultas Sains dan Teknologi Universitas Islam Negeri Sunan kalijaga Yogyakarta yang telah memberikan ijin penelitian. 3. Ibu Sri Utami Zuliana,S.Si, M.Sc. selaku Kaprodi Matematika Fakultas Sains dan Teknologi Universitas Islam Negeri Sunan Kalijaga Yogyakarta sekaligus sebagai Pembimbing yang dengan sabar memberi pengarahan, bimbingan dan petunjuk selama melakukan penelitian. 4. Bapak Akhmad Fauzy, Ph.D. selaku Pembimbing yang telah memberikan pengarahan selama melakukan penelitian. 5. Para Staf Pengajar Fakultas Sains dan Teknologi Universitas Islam Negeri Sunan Kalijaga Yogyakarta, yang telah banyak memberilkan ilmu pengetahuan dan wawasan yang tak ternilai harganya. 3

6. Bapak Kepala Sekolah SMU N 1 WERU SUKOHARJO yang telah memberikan ijin untuk melakukan penelitian di sekolah yang dipimpinnya. 7. Kedua orang tuaku dan semua keluargaku tercinta yang tak henti-hentinya mendo’akan dan memberikan dorongan kepada penulis. 8. Mas Heri Pramono yang sudah memberikan nasehat, motivasi, semangat dan selalu meluangkan waktu untuk penulis sehingga penulis bisa menyalesaikan skripsi ini dengan sebaik-baiknya. 9. Teman-temanku Prodi Matematika, teman-teman kos Az-Zahrah, dan semua pihak yang tidak dapat disebutkan satu per satu, yang telah ikut memberikan bantuan dan sumbangan dalam pelaksanaan penelitian dan penulisan skripsi ini. Harapan penulis semoga segala arahan, dorongan pengorbanan dan nasehat yang telah diberikan kapada penulis menjadi amal yang shaleh dan diridhoi Allah SWT. Penulis menyadari bahwa penelitian ini masih banyak kekurangannya. Oleh sebab itu, segala bentuk saran dan kritik yang sifatnya membangun demi lebih baiknya penelitian sangat diharapkan. Akhirnya penulis berharap dan berdo’a semoga skripsi ini bermanfaat bagi diri paneliti dan pembaca semuanya. Amin.

Yogyakarta, 4 Januari 2010 Penulis

Fitria yunanti NIM :04610018

4

DAFTAR ISI

HALAMAN JUDUL ………………………………………………………… i HALAMAM PENGESAHAN ………………………………………………. ii HALAMAN PERNYATAAN ………………………………………………. iii HALAMAN MOTTO………………………………………………………… iv PERSEMBAHAN ……………………………………………………………. v KATA PENGANTAR ……………………………………………………….. vi DAFTAR ISI…………………………………………………………………. viii DAFTAR GAMBAR…………………………………………………………. x DAFTAR LAMPIRAN ……………………………………………………… xi ABSTRAK …………………………………………………………………… xii BAB I.

PENDAHULUAN ………………………………………………… 1 A. Latar belakang Masalah ………………………………………… 1 B. Perumusan Masalah …………………………………………….. 3 C. Batasan masalah ………………………………………………… 3 D. Tujuan Penelitian ……………………………………………….. 4 E. Manfaat Penelitian ……………………………………………... 4 F. Sistematika Pembahasan ……………………………………….. 5

BABII.

TINJAUAN PUSTAKA…………………………………………… 6 A. TINJAUAN PUSTAKA ………………………………………. 6 1.

Dasar-Dasar Matematika …………………………………… 7 1.1. Vektor …………………………………………………. 7

5

1.2. Matriks ……………………………………………..... 10 2.

Dasar-dasar Statistika …………………………………….. 13

BAB III. METODE PENELITIAN ……………………………………….. 15 BAB IV. HASIL PENELITIAN DAN PEMBAHASAN ………………… 17 A. HASIL PENELITIAN ……………………………………….. 17 1. Backpropagation …………………………………………. 19 2. Istilah-istilah yang digunakan pada jaringan syaraf tiruan backpropagation …………………………………. 21 3. Arsitektur jaringan syaraf tiruan backpropagation ….. 23 4. Langkah-langkah algoritma backpropagation ………... 24 5. Proses pelatihan …………………………………………. 26 6. Matlab ……………………………………………………. 26 7. Fungsi aktivasi …………………………………………… 29 BAB V.

KESIMPULAN DAN SARAN …………………………………. 31 A. KESIMPULAN ……………………………………………… 31 B. SARAN ……………………………………………………….. 34

DAFTAR PUSTAKA ………………………………………………………… 35 LAMPIRAN…………………………………………………………………… 36

6

DAFTAR GAMBAR

Halaman Gambar 1. Arsitektur Jaringan Backpropagation …………………………

18

Gambar 2. Struktur Neuron Jaringan Syaraf……………………………….

20

Gambar 3. Jaringan Syaraf dengan Banyak Lapisan……………………….

23

Gambar 4. Fungsi Aktivasi …………………………………………………

30

Gambar 5. Pembelajaran dengan Trainingdm……………………………….

51

Gambar 6. Perbandingan antara Data Training dan Target atau Output dari input pertama dan input kedua……………………………..

50

Gambar 7. Perbandingan antara Data Testing dan Target atau Output……...

51

7

DAFTAR LAMPIRAN

Lampiran 1. Data Keseluruhan Penelitian ………………………………….. 37 Lampiran 2. Source Code …………………………………………………… 38 Lampiran 3. Format Pembentukan Jaringan dengan Matlab ………………… 39 Lampiran 4. Output Program ………………………………………………… 40 Lampiran 5. Grafik Output Program …………………………………………. 50

8

APLIKASI JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI PRESTASI SISWA SMU DENGAN METODE BACKPROPAGATION Penulis

: Fitria Yunanti / NIM: 04610018

Pembimbing

:

1. Akhmad Fauzy, Ph.D. 2. Sri Utami Zuliana, S.Si, M.Sc

ABSTRAKSI Tujuan dari penelitian ini adalah 1) Mempelajari teori jaringan syaraf tiruan backpropagation; dan 2) Menerapkan perangkat lunak berbasis jaringan syaraf tiruan backpropagation untuk melakukan prediksi dengan program yang digunakan adalah MATLAB. Penelitian ini menggunakan metode literature dan analisis data. Pengambilan data dilakukan dengan melakukan penelitian secara langsung ke obyek yang dijadikan acuan dalam penganalisisan data. Obyek penelitian ini adalah nilai UAN suatu bidang studi ketika masih berada di bangku SMP dan nilai rata-rata ujian semester suatu bidang studi ketika berada di SMA. Penelitian dilaksanakan pada bulan maret 2009 dengan mengambil lokasi di SMA N 1 WERU SUKOHARJO, Jawa Tengah, Indonesia. Hasil analisis penelitian menunjukkan bahwa; 1) Jaringan syaraf backpropagation adalah sistem pemrosesan informasi yang bertujuan untuk melatih jaringan agar mendapatkan keseimbangan antara kemampuan jaringan untuk mengenali pola yang digunakan selama pelatihan dan kemampuan jaringan untuk memberikan respon yang benar terhadap pola masukan yang serupa (tetapi tidak sama) dengan pola yang digunakan selama pelatihan. 2) pada saat pengujian terjadi kesalahan yang paling besar adalah 76,62 dan terdapat nilai Mean Square Error (MSE) pada akhir pelatihan sebesar 0,126, sehingga dapat diperkirakan bahwa dari 50 data yang dilatihkan ada 29 data yang tidak sesuai dengan output yang diinginkan, sedangkan ada 21 data yang sesuai dengan output yang diinginkan, artinya banyak peserta didik yang kurang berprestasi saat di Sekolah Menengah Umum (SMU) walaupun ketika di Sekolah Menengah Pertama (SMP) mereka berprestasi. 3) Dari output program MATLAB dapat dibuat model matematika, yaitu y = 3,4287x1+ 0,0699x2 + 0,7494. Kata kunci: Aplikasi Jaringan Syaraf Tiruan dengan metode Backpropagation

9

BAB I PENDAHULUAN

A. Latar Belakang Masalah Setelah melalui beberapa fase perkembangannya, komputer modern berperan besar dalam memberikan dukungan kepada manusia untuk menyelesaikan berbagai macam persoalan. Seiring dengan kemajuan teknologi komputer, pekerjaan yang sebelumnya tidak dapat atau sulit dilakukan oleh komputer, kini dapat diselesaikan dengan cukup baik. Dewasa ini, komputer digunakan secara luas pada hampir segala aspek kehidupan manusia dan memegang peranan yang sangat penting dalam bidang industri, matematika, perdagangan, dan hampir seluruh bidang dalam kehidupan manusia lainnya. Jaringan Syaraf Tiruan (Artificial Neural Network) atau disingkat JST, adalah sistem komputasi dimana arsitektur dan operasi diilhami dari pengetahuan tentang sel syaraf biologis dalam otak, yang merupakan salah satu representasi buatan dari otak manusia yang selalu mencoba menstimulasi proses pembelajaran pada otak manusia tersebut. Saat ini, komputer tidak lagi hanya digunakan untuk sekedar membantu pekerjaan manusia, tetapi juga untuk mengganti hampir sebagian besar pekerjaan manusia yang tidak memerlukan pemikiran dan bersifat rutin. Perkembangan selanjutnya, para ahli mencoba untuk mengadaptasi sistem otak manusia ke dalam sistem komputer, sehingga diharapkan dimasa yang akan datang, jaringan syaraf tiruan bekerja mendekati sistem kerja otak manusia yaitu dapat menyimpulkan dan mengambil keputusan berdasarkan

10

data yang dimasukkan. Jadi, jaringan syaraf tiruan merupakan salah satu dari sistem informasi yang didesain dengan menirukan kerja otak manusia dalam menyelesaikan suatu masalah dengan melakukan proses belajar melalui perubahan bobot sinapsisnya. Jaringan syaraf tiruan yang digunakan dalam skripsi ini adalah jaringan syaraf tiruan dengan metode backpropagation yang pemrogramannya menggunakan toolbox matlab. Toolbox MATLAB merupakan salah satu alat pemrograman dalam komputer yang bisa digunakan untuk memprediksi data prestasi siswa SMU dengan jaringan syaraf tiruan. Toolbox MATLAB adalah perangkat lunak yang cocok dipakai karena banyak model jaringan syaraf tiruan yang menggunakan manipulasi matriks/vektor dalam iterasinya. Toolbox

MATLAB

telah

menyediakan

fungsi-fungsi

khusus

untuk

menyelesaikan model jaringan syaraf tiruan. Jaringan syaraf tiruan terdiri dari beberapa metode, yaitu metode hebb, metode perceptron, metode backpropagation, metode adaline. Dari sekian banyak metode jaringan syaraf tiruan yang paling terkenal adalah metode backpropagation. Menurut Andreson, metode backpropogation paling banyak dipakai untuk melakukan prediksi nilai berdasarkan data time series. Data time series diperoleh dari penelitian prestasi siswa di SMU Negeri 1 Weru Sukoharjo. SMU Negeri 1 Weru Sukoharjo merupakan salah satu SMU negeri yang berstandar nasional di kabupaten Sukoharjo. Seiring dengan perkembangan dunia pendidikan, prestasi SMU Negeri 1 Weru Sukoharjo dapat dibanggakan. Seleksi penerimaan siswa baru menjadi

11

pengaruh berkembang atau tidaknya pendidikan di sekolah tersebut. Pada dasarnya tidak ada penolakan dalam seleksi penerimaan siswa baru, namun karena disesuaikan dengan daya tampung di setiap sekolah, maka dilakukan seleksi terhadap para calon peserta didik berdasarkan peringkat nilai Ujian Akhir Nasional (UAN) ketika para peserta didik masih duduk di bangku Sekolah Menengah Pertama (SMP). Seleksi penerimaan siswa baru bertujuan untuk meningkatkan kualitas dan kuantitas SMU Negeri 1 Weru Sukoharjo dalam hal prestasi. Oleh sebab itu, jaringan syaraf tiruan akan mencoba memprediksi nilai Ujian Akhir Semester ketika peserta didik masih duduk di bangku Sekolah Menengah Pertama (SMP) dan nilai awal semester ketika para peserta didik sudah belajar di SMU Negeri 1 Weru berkaitan dengan prestasi yang diperoleh.

B. Perumusan Masalah Masalah pada skripsi ini adalah mempelajari alur dan teori-teori yang digunakan pada pemrograman jaringan syaraf tiruan backpropagation dengan menggunakan bantuan program MATLAB untuk melakukan prediksi.

C. Batasan Masalah Dari latar belakang masalah di atas, maka dapat diambil batasan masalah sebagai berikut: 1. Jaringan Syaraf Tiruan backpropagation terdiri dari satu layer input, satu layer tersembunyi, dan satu variabel output.

12

2. Pengaplikasian program jaringan syaraf tiruan backpropagation untuk memprediksi data prestasi siswa SMU dengan bantuan program MATLAB sebagai software utamanya.

D. Tujuan Penelitian Sesuai dengan pokok permasalahan yang telah dirumuskan di atas, maka tujuan penelitian ini adalah: 1. Mempelajari teori jaringan syaraf tiruan backpropagation. 2. Menerapkan

perangkat

lunak

berbasis

jaringan

syaraf

tiruan

backpropagation untuk melakukan prediksi data prestasi siswa SMU dengan bantuan program yang digunakan adalah MATLAB.

E. Manfaat Penelitian Manfaat dari penelitian ini adalah: 1. Memberikan alternatif lain untuk memprediksi data yang sudah ada. 2. Memberikan hasil analisis dan evaluasi tentang struktur Jaringan Syaraf Tiruan yang optimal yang dipakai untuk pengembangan aplikasi lebih lanjut. 3. Sebagai sumbangan informasi bagi mereka yang berminat mengkaji metode jaringan syaraf tiruan ini. 4. Untuk memperkaya ilmu pengetahuan jaringan syaraf tiruan dalam hal memprediksi.

13

F. Sistematika Pembahasan Sistematika penulisan skripsi meliputi hal-hal berikut: Bab I

Pendahuluan Bab ini akan menjadi dasar pijakan bagi pembahasan pada beberapa bab berikutnya. Bab yang pertama ini terdiri dari latar belakang masalah, perumusan masalah, batasan masalah, tujuan penelitian, manfaat penelitian, dan sistematika pembahasan.

Bab II

Tinjauan Pustaka A. Tinjauan Pustaka B. Landasan Teori

Bab III

Metode Penelitian A. Jenis Penelitian B. Pendekatan Penelitian C. Metode Pengumpulan Data

Bab IV

Hasil Penelitian dan Pembahasan A. Hasil Penelitian B. Pembahasan

Bab V

Kesimpulan A. Kesimpulan B. Saran

14

BAB V KESIMPULAN DAN SARAN

A. KESIMPULAN Jaringan syaraf tiruan adalah suatu sistem pemrosesan informasi yang mempunyai karakteristik menyerupai jaringan syaraf manusia. Model jaringan syaraf tiruan terdiri atas beberapa elemen penghitung tak linier yang masingmasing dihubungkan melalui suatu pembobot dan tersusun secara paralel. Pembobot inilah yang nantinya akan berubah (beradaptasi) selama jaringan syaraf tiruan ini mengalami pelatihan. Pelatiham perlu dilakukan pada suatu jaringan syaraf tiruan sebelum digunakan untuk menyelesaikan suatu masalah. Jaringan syaraf tiruan terdiri dari berbagai model, antara lain: hebb, perceptron, adaline/madalaine, backpropagation, dan hopfield. Model yang digunakan

pada

skripsi

ini

yaitu

model

jaringan

syaraf

tiruan

backpropagation. Jaringan syaraf backpropagation adalah sistem pemrosesan informasi yang bertujuan untuk melatih jaringan agar mendapatkan keseimbangan antara kemampuan jaringan untuk mengenali pola yang digunakan selama pelatihan dan kemampuan jaringan untuk memberikan respon yang benar terhadap pola masukan yang serupa (tetapi tidak sama) dengan pola yang digunakan selama pelatihan. Jaringan

syaraf

tiruan

backpropagation

merupakan

algoritma

pembelajaran yang terawasi. Metode backpropagation dibagi menjadi 3 fase, yaitu propagasi maju, propagasi mundur dan perubahan bobot. Fase pertama

40

adalah propagasi maju, tujuannya mencari keluaran network dan error. Pola masukan dihitung maju mulai dari layer input menuju layer output melewati hidden layer menggunakan fungsi aktivasi yang telah ditentukan. Selisih antara target dan keluaran output menghasilkan error. Pada fase kedua, error yang

dihasilkan

dipropagasikan

mundur,

dimulai

dari

bobot

yang

menghubungkan output dan hidden layer dan layer output. Dan fase ketiga adalah memodifikasi bobot untuk menurunkan nilai error yang terjadi. Dalam pelatihan, pengujian, dan prediksi nilai, sistem jaringan syaraf tiruan mempunyai beberapa kelebihan, antara lain proses yang akurat, cepat, serta dapat meminimalisasi kesalahan. Adapun kelemahan jaringan syaraf tiruan ini antara lain sistem jaringan syaraf tiruan merupakan sistem baru, sehingga hanya dapat berfungsi sebagai alat bantú saja. Oleh sebab itu, di dalam pengambilan keputusan masih digunakan faktor-faktor pendukung atau kebijakan-kabijakan yang lain. Untuk lebih mengetahui kemampuan prediksi, semakin banyak jumlah data yang dilatihkan, maka akan semakin baik. Namun akan berdampak dengan lambatnya proses palatihan. Pada perolehan data ini, hasilnya menunjukkan bahwa siswa dengan nilai UAN ketika di SMP yang bagus, tidak selalu menunjukkan prestasi yang baik pada saat di SMU. Hasil data-data yang dilatih dan di uji juga menunjukkan bahwa nilai UAN mata pelajaran matematika dan IPA ketika di SMP yang baik tidak selalu menunjukkan prestasi yang baik juga saat di SMU. Penerapan toolbox MATLAB dapat dilihat di lampiran.

41

Dalam output program MATLAB dapat dibuat model matematika secara sederhana yaitu sebagai berikut: y = v1H1+v2H2+…+vnHn+b1+b2 dimana: H1 = w11x1 + w12x2 H2 = w21x1 + w22x2 . . .

Hn =wm1x1 + wm2x2 y=v1(w11x1+w12x2)+v2(w21x1+w22x2)+…+vn(wm1x1+wm2x2)b1+b2 y= v1 v2 … vn w11 w12 w21 w22 .

.

.

.

x1 x2 b1 +b2

wm1 wm2

y= 0,3698 0,4987 -0,8935 -1,2929 0,667

y = 3,4287 0,0699 0,4802

x1 x2 1

+

y = 3,4287x1+ 0,0699x2 + 0,7494

42

0,2027 -0,2925 0,0715 x1 0,3332 -0,4884 0,0590 x2 -0,9428 -0,5056 -0,1369 +b2 -1,4021 0,0279 -0,3999 b1 0,5485 0,0090 -0,3218

0,2692

1

B. SARAN Ada beberapa saran yang diajukan penulis dengan selesainya penelitian ini, yaitu: a. Perlu dilakukan pembelajaran dan pelatihan dengan data yang lebih banyak, sehingga pola jaringan syaraf tiruan yang dikenali lebih mendekati target. b. Penelitian lebih lanjut diharapkan mampu mengaplikasikan jaringan syaraf tiruan kedalam metode-metode yang lainnya dengan data yang berbeda dan dengan program yang berbeda juga, sehingga hasilnya dapat dibandingkan dengan penelitian penulis. c. Jaringan syaraf tiruan masih membutuhkan campur tangan pakar untuk memasukkan pengetahuan dan menguji data, karena diharapkan hasil yang diperoleh selama pembelajaran bisa sesuai dengan target yang diinginkan.

43

DAFTAR PUSTAKA

Anggarani, D, 2006, Jaringan Saraf Tiruan Untuk Prediksi Kelulusan Dan Penjurusan Ke Sekolah Lanjutan Pada Siswa Sekolah Menengah Pertama (SMP) Dengan Metode Backpropagation, Skripsi Jurusan Matematika dan Ilmu Pengetahuan Alam UGM. Anton, H., 1995, Aljabar Linier Elementer, Erlangga. Jakarta. Fausett, L., 1994, Fundamentals of Neural Network, Architecture, Algoritms, And Applications, Printice-Hall, Inc, London. Furchan, A., Agus M., 2005, Studi Tokoh: Metode penelitian mengenai tokoh, Pustaka Pelajar, Yogyakarta. Hermawan, Arief, 2006, Jaringan Saraf Tiruan (Teori dan Aplikasi), C.V Andi Offset, Yogyakarta. Jong, J.S, 2005, Jaringan Saraf Tiruan dan Pemrogramannya Menggunakan Matlab, C.V Andi Offset, Yogyakarta. Kusumadewi, S., 2004, Membangun Jaringan Saraf Tiruan Menggunakan Matlab Dan Excel Link, Graha Ilmu, Yogyakarta. Nursantika, D, 2008, Identifikasi Sidik Bibir Menggunakan Jaringan Saraf Tiruan Backpropagation, Skripsi Jurusan Matematika dan Ilmu Pengetahuan Alam UGM. Puspitaningrum, 2006, Pengantar Jaringan Saraf Tiruan, C.V Andi Offset, Yogyakarta. Supranto, J., 1993, Statistik (Teori dan Aplikasi), Erlangga, Jakarta.

44

45

Lampiran 1. Data Keseluruhan Penelitian SAMPEL DATA NILAI UAN DAN NILAI RATA-RATA SEMESTER 1 SMU NEGERI 1 WERU SUKOHARJO 2008/2009 No 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30

INPUT X1 X2 8 6.25 8 6.75 6 6 6.75 7 6.25 8 6.5 8 7.25 8.25 6.5 5 8.25 6.25 5 6.75 4.5 5.5 5 6.25 5.75 6.25 6.25 8 4.75 6.25 5.25 6.75 5.25 7.5 7 6.5 4.5 6 4.5 6.75 4.5 7.5 4.5 6.5 5.5 5.25 7.25 6.25 7.75 7.75 5.5 6.25 8 7 4.5 6 5.75 5 4.25 6.75

TARGET

No

60 72.5 67.5 70 60 70 67.5 62.5 70 47.5 45 45 60 67.5 45 57.5 45 80 40 45 47.5 65 47.5 80 75 47.5 72.5 55 50 50

31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60

46

INPUT X1 X2 4.5 6.75 5.75 7.75 8.5 8.5 5 6.5 6.5 6.25 5.5 6 4.25 5.5 5.5 6.5 5 8.25 5.75 6.5 5 6.5 4.75 5.75 5.25 8 6.75 8.25 5.5 6.25 4.25 7.75 6 5.5 5.75 6.25 5.5 6.25 5.75 8 7.75 6.5 6.5 6 7.5 7.25 4.75 8.25 7.5 4.5 8.5 8.25 5.5 4.5 4.75 5.75 5 5 6.75 8

TARGET 57.5 52.5 72.5 52.5 82.5 47.5 40 52.5 45 45 50 62.5 50 70 45 50 60 65 67.5 52.5 67.5 65 70 77.5 72.5 67.5 75 47.5 72.5 70

Lampiran 2. Source Code » %data input dan target » %prepocessing » [pn,minp,maxp,tn,mint,maxt]=premnmx (p,t) » %membangun jaringan syaraf feedforward » net=newff(minmax(pn),[5 1],{'logsig' 'purelin'},'traingdm'); » %set bobot » %set max epoch, goal, learning rate, show step » %melakukan pembelajaran » net=train(net,pn,tn); » %melihat bobot-bobot awal input, lapisan dan bias » bobotAkhir_input=net.IW{1,1} » bobotAkhir_bias_input=net.b{1,1} » bobotAkhir_lapisan=net.LW{2,1} » bobotAkhir_bias_lapisan=net.b{2,1} » %melakukan simulasi » an=sim (net , pn) » %input baru Q akan di tes, dengan target TQ » %normalisasi input baru » Qn = tramnmx(Q,minp,maxp); » bn = sim(net,Qn) » %menggambar grafik » pause; » subplot(211) plot(p(1,:),t,'bo',p(1,:),a,'g*'); » title ('Data Training: Perbandingan antara Target (o) dan Output Jaringan (*)'); xlabel('input pertama'); » ylabel('Target atau Output'); » grid; » subplot(212) » plot(p(2,:), t ,'mo',p(2,:),a,'r+'); » title ('Data Training: Perbandingan antara Target (o) dan Output Jaringan (+)'); » xlabel ('input kedua'); » ylabel('Target atau Output'); » grid;pause; » subplot (211) » plot(Q(1,:), TQ, 'bo', Q(1,:),b,'r*'); » title('Data Testing: Perbandingan antara Target (o) dan Output Jaringan (*)'); xlabel ('input pertama'); » ylabel ('Target atau Output'); » Grid; subplot (212) » plot(Q(2,:),TQ,'bo',Q(2,:),b,'rs'); » title ('Data Testing: Perbandingan antara Target (o) dan Output Jaringan (s)'); » xlabel ('input kedua'); » ylabel ('Target atau Output'); » Grid;

47

Lampiran 3. Format Pembentukan Jaringan dengan MATLAB Net

=

newff

(PR,[S1,S2,.

.

.

,SN],{TF1,TF2,.

.

.TFN},BTF,BLF,PF) Dengan

net

=

jaringan

backpropagation

yang

terdiri

dari

n

layar PR = matriks ordo Rx2 yang berisi nilai minimum dan maksimum R buah elemen masukannya Si

(i=1,2,…,n)=

jumlah

nilai

pada

layer

ke-I

(i=1,2,…,n) Tfi (i=1,2,…,n)= fungsi aktivasi yang digunakan pada layer ke-i (i=1,2,…,n). Default

=

tansig

(sigmoid

bipolar),

namun

dalam

penulisan ini digunakan fungsi logsig (sigmoid biner) BTF = fungsi pelatihan jaringan. Defaultnya = traingdx BLF

=

fungsi

perubahan

bobot/bias.

Defaultnya

learngdm PF = fungsi perhitungan error. Default = mse.

48

=

Lampiran 4. Output Program %data input dan target » p=[8 8 6 6.75 6.25 6.5 7.25 6.5 8.25 5 4.5 5 5.75 6.25 4.75 5.25 5.25 7 4.5 4.5 4.5 4.5 5.5 7.25 7.75 5.5 8 4.5 5.75 4.25 4.5 5.75 8.5 5 6.5 5.5 4.25 5.5 5 5.75 5 4.75 5.25 6.75 5.5 4.25 6 5.75 5.5 5.75; 6.25 6.75 6 7 8 8 8.25 5 6.25 6.75 5.5 6.25 6.25 8 6.25 6.75 7.5 6.5 6 6.75 7.5 6.5 5.25 6.25 7.75 6.25 7 6 5 6.75 6.75 7.75 8.5 6.5 6.25 6 5.5 6.5 8.25 6.5 6.5 5.75 8 8.25 6.25 7.75 5.5 6.25 6.25 8]; » t=[60 72.5 67.5 70 60 70 67.5 62.5 70 47.5 45 45 60 67.5 45 57.5 45 80 40 45 47.5 65 47.5 80 75 47.5 72.5 55 50 50 57.5 52.5 72.5 52.5 82.5 47.5 40 52.5 45 45 50 62.5 50 70 45 50 60 65 67.5 52.5]; » %prepocessing » [pn,minp,maxp,tn,mint,maxt]=premnmx (p,t) pn = Columns 1 through 7 0.7647 0.4118 -0.2857 0.8571

0.7647

-0.1765

0.1765

-0.0588

0.0588

0

-0.4286

0.1429

0.7143

0.7143

0.8824

-0.6471

-0.8824

-0.6471

-0.2941

-0.2857

0

-0.7143

-0.2857

-0.2857

-0.5294

-0.5294

0.2941

-0.8824

-0.8824

0

0.4286

-0.1429

-0.4286

0

-0.4118

0.4118

0.6471

-0.4118

0.7647

-

-0.8571

-0.2857

0.5714

-0.2857

0.1429

-

-1.0000

-0.8824

-0.2941

1.0000

-0.6471

0

0

0.5714

1.0000

-0.1429

Columns 8 through 14 0.0588 0.0588 -1.0000 0.7143

-

Columns 15 through 21 -0.7647 0.8824 -0.2857 0.4286

-

Columns 22 through 28 -0.8824 0.8824 -0.1429 0.4286

Columns 29 through 35 -0.2941 0.0588 -1.0000 0.2857

Columns 36 through 42

49

-

-0.4118 0.7647 -0.4286 0.5714

-1.0000

-0.4118

-0.6471

-0.2941

-0.6471

-

-0.7143

-0.1429

0.8571

-0.1429

-0.1429

-

0.1765

-0.4118

-1.0000

-0.1765

-0.2941

-

0.8571

-0.2857

0.5714

-0.7143

-0.2857

-

0.2941

0.4118

-0.0588

0.4118

-0.6471

-0.7647

-0.7647

-0.0588

-0.7647

0.8824

-1.0000

-0.7647

-

0.8824

0.6471

-0.6471

0.5294

-

-0.1765

-0.4118

0.5294

-0.4118

Columns 43 through 49 -0.5294 0.4118 0.7143 0.2857 Column 50 -0.2941 0.7143 minp = 4.2500 5.0000 maxp = 8.5000 8.5000 tn = Columns 1 through 7 -0.0588 0.2941

0.5294

Columns 8 through 14 0.0588 0.2941

0.4118

Columns 15 through 21 -0.7647 0.6471

-0.1765

Columns 22 through 28 0.1765 0.2941

-0.6471

Columns 29 through 35 -0.5294 1.0000

-0.5294

50

Columns 36 through 42 -0.6471 0.0588

-1.0000

-0.4118

-0.7647

-0.7647

-0.5294

-0.7647

-0.5294

-0.0588

0.1765

Columns 43 through 49 -0.5294 0.2941

0.4118

Column 50 -0.4118 mint = 40 maxt = 82.5000 » %membangun jaringan syaraf feedforward » net=newff(minmax(pn),[5 1],{'logsig' 'purelin'},'traingdm'); » %set bobot awal » net.IW{1,1}=[-0.10 -0.30; -0.05 -0.50; -0.05 -0.60; 0.01 0.05; 0.05 0.01]; » net.b{1,1}=[0.05 0.01 0.02 -0.30 -0.40]'; » net.LW{2,1}=[0.25 0.30 -0.50 -0.75 0.30]; » net.b{2,1}=[0.05]; » %set max epoch, goal, learning rate, show step » net.trainParam.epochs=1000; » net.trainParam.goal=1e-3; » net.trainParam.lr=0.1; » net.trainParam.show=10; » %melakukan pembelajaran » net=train (net,pn,tn); TRAINGDM, Epoch 0/1000, MSE 0.293082/0.001, Gradient 0.188121/1e010 TRAINGDM, Epoch 10/1000, MSE 0.281679/0.001, Gradient 0.216595/1e010 TRAINGDM, Epoch 20/1000, MSE 0.266109/0.001, Gradient 0.121899/1e010 TRAINGDM, Epoch 30/1000, MSE 0.254394/0.001, Gradient 0.109596/1e010 TRAINGDM, Epoch 40/1000, MSE 0.243375/0.001, Gradient 0.111568/1e010 TRAINGDM, Epoch 50/1000, MSE 0.2323/0.001, Gradient 0.104989/1e010 TRAINGDM, Epoch 60/1000, MSE 0.221456/0.001, Gradient 0.103922/1e010 TRAINGDM, Epoch 70/1000, MSE 0.210756/0.001, Gradient 0.103102/1e010

51

TRAINGDM, Epoch 80/1000, MSE 0.200269/0.001, Gradient 0.101023/1e010 TRAINGDM, Epoch 90/1000, MSE 0.190163/0.001, Gradient 0.0982676/1e-010 TRAINGDM, Epoch 100/1000, MSE 0.18061/0.001, Gradient 0.0945482/1e-010 TRAINGDM, Epoch 110/1000, MSE 0.171776/0.001, Gradient 0.0898172/1e-010 TRAINGDM, Epoch 120/1000, MSE 0.163806/0.001, Gradient 0.0842491/1e-010 TRAINGDM, Epoch 130/1000, MSE 0.156793/0.001, Gradient 0.0780168/1e-010 TRAINGDM, Epoch 140/1000, MSE 0.150777/0.001, Gradient 0.0713438/1e-010 TRAINGDM, Epoch 150/1000, MSE 0.145741/0.001, Gradient 0.0644815/1e-010 TRAINGDM, Epoch 160/1000, MSE 0.141622/0.001, Gradient 0.0576627/1e-010 TRAINGDM, Epoch 170/1000, MSE 0.138323/0.001, Gradient 0.0510902/1e-010 TRAINGDM, Epoch 180/1000, MSE 0.135728/0.001, Gradient 0.0449236/1e-010 TRAINGDM, Epoch 190/1000, MSE 0.133718/0.001, Gradient 0.039271/1e-010 TRAINGDM, Epoch 200/1000, MSE 0.132179/0.001, Gradient 0.0341924/1e-010 TRAINGDM, Epoch 210/1000, MSE 0.131011/0.001, Gradient 0.0297055/1e-010 TRAINGDM, Epoch 220/1000, MSE 0.130128/0.001, Gradient 0.0257951/1e-010 TRAINGDM, Epoch 230/1000, MSE 0.129461/0.001, Gradient 0.0224235/1e-010 TRAINGDM, Epoch 240/1000, MSE 0.128956/0.001, Gradient 0.0195395/1e-010 TRAINGDM, Epoch 250/1000, MSE 0.128573/0.001, Gradient 0.0170862/1e-010 TRAINGDM, Epoch 260/1000, MSE 0.12828/0.001, Gradient 0.0150064/1e-010 TRAINGDM, Epoch 270/1000, MSE 0.128054/0.001, Gradient 0.0132468/1e-010 TRAINGDM, Epoch 280/1000, MSE 0.127877/0.001, Gradient 0.0117594/1e-010 TRAINGDM, Epoch 290/1000, MSE 0.127739/0.001, Gradient 0.0105027/1e-010 TRAINGDM, Epoch 300/1000, MSE 0.127628/0.001, Gradient 0.00944154/1e-010 TRAINGDM, Epoch 310/1000, MSE 0.127538/0.001, Gradient 0.00854638/1e-010 TRAINGDM, Epoch 320/1000, MSE 0.127465/0.001, Gradient 0.00779257/1e-010 TRAINGDM, Epoch 330/1000, MSE 0.127404/0.001, Gradient 0.0071595/1e-010 TRAINGDM, Epoch 340/1000, MSE 0.127353/0.001, Gradient 0.00662981/1e-010 TRAINGDM, Epoch 350/1000, MSE 0.127309/0.001, Gradient 0.00618866/1e-010

52

TRAINGDM, Epoch 360/1000, 0.00582324/1e-010 TRAINGDM, Epoch 370/1000, 0.00552238/1e-010 TRAINGDM, Epoch 380/1000, 0.00527628/1e-010 TRAINGDM, Epoch 390/1000, 0.00507631/1e-010 TRAINGDM, Epoch 400/1000, 0.00491493/1e-010 TRAINGDM, Epoch 410/1000, 0.00478558/1e-010 TRAINGDM, Epoch 420/1000, 0.00468263/1e-010 TRAINGDM, Epoch 430/1000, 0.00460128/1e-010 TRAINGDM, Epoch 440/1000, 0.00453749/1e-010 TRAINGDM, Epoch 450/1000, 0.0044879/1e-010 TRAINGDM, Epoch 460/1000, 0.00444974/1e-010 TRAINGDM, Epoch 470/1000, 0.00442075/1e-010 TRAINGDM, Epoch 480/1000, 0.00439908/1e-010 TRAINGDM, Epoch 490/1000, 0.00438325/1e-010 TRAINGDM, Epoch 500/1000, 0.00437207/1e-010 TRAINGDM, Epoch 510/1000, 0.00436458/1e-010 TRAINGDM, Epoch 520/1000, 0.00436002/1e-010 TRAINGDM, Epoch 530/1000, 0.0043578/1e-010 TRAINGDM, Epoch 540/1000, 0.00435742/1e-010 TRAINGDM, Epoch 550/1000, 0.00435852/1e-010 TRAINGDM, Epoch 560/1000, 0.00436078/1e-010 TRAINGDM, Epoch 570/1000, 0.00436398/1e-010 TRAINGDM, Epoch 580/1000, 0.00436793/1e-010 TRAINGDM, Epoch 590/1000, 0.00437248/1e-010 TRAINGDM, Epoch 600/1000, 0.0043775/1e-010 TRAINGDM, Epoch 610/1000, 0.00438292/1e-010 TRAINGDM, Epoch 620/1000, 0.00438866/1e-010 TRAINGDM, Epoch 630/1000, 0.00439465/1e-010

MSE 0.12727/0.001, Gradient MSE 0.127236/0.001, Gradient MSE 0.127206/0.001, Gradient MSE 0.127178/0.001, Gradient MSE 0.127152/0.001, Gradient MSE 0.127128/0.001, Gradient MSE 0.127105/0.001, Gradient MSE 0.127083/0.001, Gradient MSE 0.127062/0.001, Gradient MSE 0.127041/0.001, Gradient MSE 0.127021/0.001, Gradient MSE 0.127001/0.001, Gradient MSE 0.126982/0.001, Gradient MSE 0.126962/0.001, Gradient MSE 0.126943/0.001, Gradient MSE 0.126924/0.001, Gradient MSE 0.126905/0.001, Gradient MSE 0.126886/0.001, Gradient MSE 0.126867/0.001, Gradient MSE 0.126848/0.001, Gradient MSE 0.126829/0.001, Gradient MSE 0.12681/0.001, Gradient MSE 0.126791/0.001, Gradient MSE 0.126772/0.001, Gradient MSE 0.126753/0.001, Gradient MSE 0.126734/0.001, Gradient MSE 0.126714/0.001, Gradient MSE 0.126695/0.001, Gradient

53

TRAINGDM, Epoch 640/1000, 0.00440086/1e-010 TRAINGDM, Epoch 650/1000, 0.00440726/1e-010 TRAINGDM, Epoch 660/1000, 0.0044138/1e-010 TRAINGDM, Epoch 670/1000, 0.00442048/1e-010 TRAINGDM, Epoch 680/1000, 0.00442727/1e-010 TRAINGDM, Epoch 690/1000, 0.00443416/1e-010 TRAINGDM, Epoch 700/1000, 0.00444114/1e-010 TRAINGDM, Epoch 710/1000, 0.0044482/1e-010 TRAINGDM, Epoch 720/1000, 0.00445534/1e-010 TRAINGDM, Epoch 730/1000, 0.00446255/1e-010 TRAINGDM, Epoch 740/1000, 0.00446982/1e-010 TRAINGDM, Epoch 750/1000, 0.00447716/1e-010 TRAINGDM, Epoch 760/1000, 0.00448456/1e-010 TRAINGDM, Epoch 770/1000, 0.00449201/1e-010 TRAINGDM, Epoch 780/1000, 0.00449953/1e-010 TRAINGDM, Epoch 790/1000, 0.0045071/1e-010 TRAINGDM, Epoch 800/1000, 0.00451474/1e-010 TRAINGDM, Epoch 810/1000, 0.00452242/1e-010 TRAINGDM, Epoch 820/1000, 0.00453017/1e-010 TRAINGDM, Epoch 830/1000, 0.00453797/1e-010 TRAINGDM, Epoch 840/1000, 0.00454582/1e-010 TRAINGDM, Epoch 850/1000, 0.00455373/1e-010 TRAINGDM, Epoch 860/1000, 0.0045617/1e-010 TRAINGDM, Epoch 870/1000, 0.00456973/1e-010 TRAINGDM, Epoch 880/1000, 0.00457781/1e-010 TRAINGDM, Epoch 890/1000, 0.00458596/1e-010 TRAINGDM, Epoch 900/1000, 0.00459416/1e-010 TRAINGDM, Epoch 910/1000, 0.00460241/1e-010

MSE 0.126676/0.001, Gradient MSE 0.126656/0.001, Gradient MSE 0.126637/0.001, Gradient MSE 0.126618/0.001, Gradient MSE 0.126598/0.001, Gradient MSE 0.126578/0.001, Gradient MSE 0.126559/0.001, Gradient MSE 0.126539/0.001, Gradient MSE 0.126519/0.001, Gradient MSE 0.126499/0.001, Gradient MSE 0.126479/0.001, Gradient MSE 0.12646/0.001, Gradient MSE 0.126439/0.001, Gradient MSE 0.126419/0.001, Gradient MSE 0.126399/0.001, Gradient MSE 0.126379/0.001, Gradient MSE 0.126359/0.001, Gradient MSE 0.126338/0.001, Gradient MSE 0.126318/0.001, Gradient MSE 0.126297/0.001, Gradient MSE 0.126277/0.001, Gradient MSE 0.126256/0.001, Gradient MSE 0.126235/0.001, Gradient MSE 0.126214/0.001, Gradient MSE 0.126194/0.001, Gradient MSE 0.126173/0.001, Gradient MSE 0.126152/0.001, Gradient MSE 0.12613/0.001, Gradient

54

TRAINGDM, Epoch 920/1000, MSE 0.126109/0.001, Gradient 0.00461073/1e-010 TRAINGDM, Epoch 930/1000, MSE 0.126088/0.001, Gradient 0.00461911/1e-010 TRAINGDM, Epoch 940/1000, MSE 0.126067/0.001, Gradient 0.00462754/1e-010 TRAINGDM, Epoch 950/1000, MSE 0.126045/0.001, Gradient 0.00463604/1e-010 TRAINGDM, Epoch 960/1000, MSE 0.126024/0.001, Gradient 0.0046446/1e-010 TRAINGDM, Epoch 970/1000, MSE 0.126002/0.001, Gradient 0.00465322/1e-010 TRAINGDM, Epoch 980/1000, MSE 0.125981/0.001, Gradient 0.0046619/1e-010 TRAINGDM, Epoch 990/1000, MSE 0.125959/0.001, Gradient 0.00467065/1e-010 TRAINGDM, Epoch 1000/1000, MSE 0.125937/0.001, Gradient 0.00467946/1e-010 TRAINGDM, Maximum epoch reached, performance goal was not met. » %melihat bobot-bobot awal input, lapisan dan bias » bobotAkhir_input=net.IW{1,1} bobotAkhir_input = 0.2027 -0.2925 0.3332 -0.4884 -0.9428 -0.5056 -1.4021 0.0279 0.5485 0.0090 » bobotAkhir_bias_input=net.b{1,1} bobotAkhir_bias_input = 0.0715 0.0590 -0.1369 -0.3999 -0.3218 » bobotAkhir_lapisan=net.LW{2,1} bobotAkhir_lapisan = 0.3698

0.4987

-0.8935

-1.2929

» bobotAkkhir_bias_lapisan=net.b{2,1} bobotAkkhir_bias_lapisan = 0.2692 » %melakukan simulasi » an=sim(net,pn) an =

55

0.6677

Columns 1 through 7 0.6036 0.3787

0.6059

-0.0862

0.2029

0.0273

0.1195

-0.4541

-0.6275

-0.4569

-0.1788

-0.3555

0.2870

-0.6289

-0.6278

-

0.3700

0.5335

-0.2732

0.6062

-

-0.6278

-0.1640

0.7233

-0.4557

-0.2712

-0.4386

-0.1765

-0.4557

-

-0.2732

-0.7029

-0.0908

-0.1788

-

59.4182

65.5614

61.8300

63.7892

51.6009

47.9153

51.5403

57.4514

53.6956

67.3485

47.8864

47.9092

Columns 8 through 14 0.0899 0.0273

0.6731

Columns 15 through 21 -0.5447 0.6229

-0.3626

Columns 22 through 28 -0.6286 0.6289

-0.2791

Columns 29 through 35 -0.1879 0.1042

-0.7089

Columns 36 through 42 -0.2750 0.5453

-0.7059

Columns 43 through 49 -0.3498 0.2732

0.2102

Column 50 -0.1613 » a=postmnmx(an,mint,maxt) a = Columns 1 through 7 74.0765 69.2978

74.1247

Columns 8 through 14 63.1597 61.8300

75.5534

Columns 15 through 21 49.6746 48.0131

53.5446

56

Columns 22 through 28 47.8926 47.8864

55.3199

69.1135

72.5873

55.4452

74.1326

47.9092

57.7659

76.6205

51.5672

55.4873

51.9306

57.4993

51.5672

55.4452

46.3129

59.3204

57.4514

Columns 29 through 35 57.2568 63.4652

46.1854

Columns 36 through 42 55.4071 49.6631

46.2490

Columns 43 through 49 53.8175 55.4452

65.7165

Column 50 57.8221 » %input data baru Q akan dites, dengan target TQ » Q=[7.75 6.5 7.5 47.5 7.5 8.5 5.5 4.75 5 6.75; 6.5 6 7.25 8.25 4.5 8.25 4.5 5.75 5 8]; » TQ=[67.5 65 70 77.5 72.5 67.5 75 47.5 72.5 70]; » %normalisasi input baru » Qn=tramnmx(Q,minp,maxp); » bn=sim(net,Qn) bn = Columns 1 through 7 0.5316 0.2812

0.1015

0.4578

1.7957

0.4273

0.7270

99.4084

70.3305

76.6981

Columns 8 through 10 -0.5453

-0.4584

0.2092

» b=postmnmx(bn,mint,maxt) b = Columns 1 through 7 72.5467 55.2754

63.4070

70.9779

Columns 8 through 10 49.6631 51.5082 65.6963 » %menggambar grafik

57

-

» pause; » subplot (211) » plot(p(1,:),t,'bo',p(1,:),a,'g*'); » title('data training:perbandingan antara target (o) dan output jaringan (*)'); » xlabel('input pertama'); » ylabel('target atau output'); » grid; » subplot(212) » plot(p(2,:),t,'mo',p(2,:),a,'r+'); » title('data training: perbandingan antara target (o) dan output jaringan (+)'); » xlabel('input kedua'); » ylabel('target atau output'); » grid; pause; » subplot (211) » plot(Q(1,:),TQ,'bo',Q(1,:),b,'r*'); » title('data testing:perbandingan antara target (o) dan output jaringan (*)'); » xlabel('input pertama'); » ylabel('input kedua'); » grid; » subplot (212) » plot (Q(2,:),TQ,'bo',Q(2,:),b,'rs'); » title ('data testing:perbandingan antara target (o) dan output jaringan (s)'); » xlabel('input kedua'); » ylabel('target atau output'); » grid;

58

Lampiran 5. Grafik Output Jaringan Performance is 0.125937, Goal is 0.001

0

Training-Blue Goal-Black

10

-1

10

-2

10

-3

10

0

100

200

300

400 500 600 1000 Epochs

700

800

900

1000

Gambar.5. Pembelajaran dengan trainingdm. data training:perbandingan antara target (o) dan output jaringan (*)

target atau output

90 80 70 60 50 40

4

target atau output

90

4.5

5

5.5

6 6.5 7 7.5 8 input pertama data training: perbandingan antara target (o) dan output jaringan (+)

8.5

80 70 60 50 40

5

5.5

6

6.5 7 input kedua

7.5

8

8.5

Gambar.6. Perbandingan antara Data Training dan Target atau Output dari input pertama dan input kedua

59

data testing:perbandingan antara target (o) dan output jaringan (*)

input kedua

100 80 60 40

0

target atau output

100

5

10

15

20 25 30 35 40 45 input pertama data testing:perbandingan antara target (o) dan output jaringan (s)

50

80 60 40 4.5

5

5.5

6

6.5 input kedua

7

7.5

8

8.5

Gambar.7. Perbandingan antara Data Testing dan Target atau Output

60