Pages

Sabtu, 10 November 2012

Uji Normalitas


MAKALAH
UJI NORMALITAS


Disusun guna memenuhi tugas semester 3
Mata Kuliah                :           Pemrograman Komputer
Dosen  Pengampu      :           Ahmad Aunur Rohman, S.Pd. I.








Disusun Oleh :
Heri Sucipto                                  113511120



FAKULTAS TARBIYAH
INSTITUT AGAMA ISLAM NEGERI WALISONGO
SEMARANG
2012

BAB I
PENDAHULUAN
A.    Latar Belakang
Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, uji Chi Square, Skewness dan Kurtosis atau uji Kolmogorov Smirnov. Tidak ada metode yang paling baik atau paling tepat.Tipsnya adalah bahwa pengujian dengan metode grafik sering menimbulkan perbedaan persepsi di antara beberapa pengamat, sehingga penggunaan uji normalitas dengan uji statistik bebas dari keragu-raguan, meskipun tidak ada jaminan bahwa pengujian dengan uji statistik lebih baik dari pada pengujian dengan metode grafik.
Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya signifikansi Kolmogorov Smirnov sebesar 0,049) maka dapat dicoba dengan metode lain yang mungkin memberikan justifikasi normal. Tetapi jika jauh dari nilai normal, maka dapat dilakukan beberapa langkah yaitu: melakukan transformasi data, melakukan trimming data outliers atau menambah data observasi. Transformasi dapat dilakukan ke dalam bentuk Logaritma natural, akar kuadrat, inverse, atau bentuk yang lain tergantung dari bentuk kurva normalnya, apakah condong ke kiri, ke kanan, mengumpul di tengah atau menyebar ke samping kanan dan kiri.

B.     Tujuan
Dalam uji normalitas tujuannya adalah ingin mengetahui apakah distribusi sebuah data mengikuti atau mendekati distribusi normal, yakni distribusi data dengan bentuk lonceng ( bell sheped ). Data yang baik adalah data yang mempunyai pola seperti distribusi normal, yaitu distribusi data tersebut tidak menceng kekiri atau kekanan.







BAB II
PEMBAHASAN

A.    Pengertian Uji Normalitas
Normalitas dalam statistik parametric seperti regresi dan Anova merupakan syarat pertama.Uji normalitas bertujuan untuk menguji apakah dalam model regresi, variabel penggangu atau residual memiliki distribusi normal.  Jika asumsi ini dilanggar, maka uji statistik menjadi tidak valid atau bias terutama untuk sampel kecil.
Ada beberapa cara melakukan uji asumsi normalitas ini yaitu menggunakan analisis Chi Square dan Kolmogorov-Smirnov. Bagaimana analisisnya untuk sementara kita serahkan pada program analisis statistik seperti SPSS dulu ya. Tapi pada dasarnya kedua analisis ini dapat diibaratkan seperti ini :
a.       pertama komputer memeriksa data kita, kemudian membuat sebuah data virtual yang sudah dibuat normal.
b.      kemudian komputer seolah-olah melakukan uji beda antara data yang kita miliki dengan data virtual yang dibuat normal tadi.
c.       dari hasil uji beda tersebut, dapat disimpulkan dua hal :
Jika p lebih kecil daripada 0,05 maka dapat disimpulkan bahwa data yang kita miliki berbeda secara signifikan dengan data virtual yang normal tadi. Ini berarti data yang kita miliki sebaran datanya tidak normal.
Jika p lebih besar daripada 0,05 maka dapat disimpulkan bahwa data yang kita miliki tidak berbeda secara signifikan dengan data virtual yang normal. Ini berarti data yang kita miliki sebaran datanya normal juga.

Ukuran inilah yang digunakan untuk menentukan apakah data kita berasal dari populasi yang normal atau tidak.
B.     Bagaimana mengatasi masalah normalitas ?
Ada tiga pilihan yang dapat dilakukan jika diketahui bahwa data tidak normal; yaitu :
1.      Jika jumlah sampel besar, maka dapat menghilangkan nilai outliner dari data (bahasan outliner akan dibahas kemudian).
2.      Melakukan transformasi data.
3.      Menggunakan alat analisis nonparametric
Data yang tidak normal tidak selalu berasal dari penelitian yang buruk.Data ini mungkin saja terjadi karena ada kejadian yang di luar kebiasaan.Atau memang kondisi datanya memang nggak normal. Misal data inteligensi di sekolah anak-anak berbakat (gifted) jelas tidak akan normal, besar kemungkinannya akan juling positif.
Lalu apa yang bisa kita lakukan?
a.       Kita perlu ngecek apakah ketidaknormalannya parah nggak. Tidak ada patokan pasti tentang keparahan ini. Tapi kita bisa mengira-ira jika misalnya nilai p yang didapatkan sebesar 0,049 maka ketidaknormalannya tidak terlalu parah (nilai tersebut hanya sedikit di bawah 0,05). Ada beberapa analisis statistik yang agak kebal dengan kondisi ketidaknormalan yang tidak terlalu parah (disebut memiliki sifat robust), misalnya F-test dan t-test. Jadi kita bisa tetap menggunakan analisis ini jika ketidaknormalannya tidak parah.
b.      Kita bisa membuang nilai-nilai yang ekstrem, baik atas atau bawah. Nilai ekstrem ini disebut outliers. Pertama kita perlu membuat grafik, dengan sumbu x sebagai frekuensi dan y sebagai semua nilai yang ada dalam data kita (ini tentunya bisa dikerjakan oleh komputer). Dari sini kita akan bisa melihat nilai mana yang sangat jauh dari kelompoknya. Nilai inilah yang kemudian perlu dibuang dari data kita, dengan asumsi nilai ini muncul akibat situasi yang tidak biasanya. Misal responden yang mengisi skala kita dengan sembarang yang membuat nilainya jadi sangat tinggi atau sangat rendah.
c.       Tindakan ketiga yang bisa kita lakukan adalah dengan mentransform data kita. Ada banyak cara untuk mentransform data kita, misalnya dengan mencari akar kuadrat dari data kita, dll.
d.      Bagaimana jika semua usaha di atas tidak membuahkan hasil. Maka langkah terakhir yang bisa kita lakukan adalah dengan menggunakan analisis non-parametrik. Analisis ini disebut juga sebagai analisis yang distribution free. Sayangnya analisis ini seringkali mengubah data kita menjadi data yang lebih rendah tingkatannya. Misal kalau sebelumnya data kita termasuk data interval dengan analisis ini akan diubah menjadi data ordinal.
C.    Teknik Uji Normalitas
Banyak sekali teknik pengujian normalitas suatu distribusi data yang telah dikembangkan oleh para ahli. Kita sebenarnya sangat beruntung karena tidak perlu mencari-cari cara untuk menguji normalitas, dan bahkan saat ini sudah tersedia banyak sekali alat bantu berupa program statistik yang tinggal pakai. Berikut adalah salah satu pengujian normalitas dengan menggunakan teknik Kolmogorov Smirnov.
Uji Kolmogorov Smirnov merupakan pengujian normalitas yang banyak dipakai, terutama setelah adanya banyak program statistik yang beredar. Kelebihan dari uji ini adalah sederhana dan tidak menimbulkan perbedaan persepsi di antara satu pengamat dengan pengamat yang lain, yang sering terjadi pada uji normalitas dengan menggunakan grafik.
Konsep dasar dari uji normalitas Kolmogorov Smirnov adalah dengan membandingkan distribusi data (yang akan diuji normalitasnya) dengan distribusi normal baku. Distribusi normal baku adalah data yang telah ditransformasikan ke dalam bentuk Z-Score dan diasumsikan normal. Jadi sebenarnya uji Kolmogorov Smirnov adalah uji beda antara data yang diuji normalitasnya dengan data normal baku. Seperti pada uji beda biasa, jika signifikansi di bawah 0,05 berarti terdapat perbedaan yang signifikan, dan jika signifikansi di atas 0,05 maka tidak terjadi perbedaan yang signifikan. Penerapan pada uji Kolmogorov Smirnov adalah bahwa jika signifikansi di bawah 0,05 berarti data yang akan diuji mempunyai perbedaan yang signifikan dengan data normal baku, berarti data tersebut tidak normal.
Lebih lanjut, jika signifikansi di atas 0,05 maka berarti tidak terdapat perbedaan yang signifikan antara data yang akan diuji dengan data normal baku, artinya data yang kita uji normal.
Kelemahan dari Uji Kolmogorov Smirnovyaitu bahwa jika kesimpulan kita memberikan hasil yang tidak normal, maka kita tidak bisa menentukan transformasi seperti apa yang harus kita gunakan untuk normalisasi. Jadi kalau tidak normal, gunakan plot grafik untuk melihat menceng ke kanan atau ke kiri, atau menggunakan Skewness dan Kurtosis sehingga dapat ditentukan transformasi seperti apa yang paling tepat dipergunakan.

Uji Normalitas dengan Kolmogorov Smirnov dengan Program SPSS
Pengujian normalitas dengan menggunakan Program SPSS dilakukan dengan menu Analyze, kemudian klik pada Nonparametric Test, lalu klik pada 1-Sample K-S.K-S itu singkatan dari Kolmogorov-Smirnov. Maka akan muncul kotak One-Sample Kolmogorov-Smirnov Test. Data yang akan diuji terletak di kiri dan pindahkan ke kanan dengan tanda panah. Lalu tekan OK. Pada output, lihat pada baris paling bawah dan paling kanan yang berisi Asymp.Sig.(2-tailed). Lalu intepretasinya adalah bahwa jika nilainya di atas 0,05 maka distribusi data dinyatakan memenuhi asumsi normalitas, dan jika nilainya di bawah 0,05 maka diinterpretasikan sebagai tidak normal.
Normalitas dalam statistik parametric seperti regresi dan Anova merupakan syarat pertama.Uji normalitas bertujuan untuk menguji apakah dalam model regresi, variabel pengganggu atau residual memiliki distribusi normal.  Jika asumsi ini dilanggar, maka uji statistik menjadi tidak valid atau bias terutama untuk sampel kecil. Uji normalitas dapat dilakukan melalui dua pendekatan yaitu melalui pendekatan grafik (histogram dan P-P Plot) atau uji kolmogorov-smirnov, chi-square, Liliefors maupun Shapiro-Wilk
(bahasan mengatasi masalah normalitas akan dibahas terpisah)
Contoh Kasus :
Akan diuji pengaruh pengaruh kinerja keuangan terhadap return saham. Variabel independen  yang digunakan adalah variabel kinerja keuangan yang diwakili oleh rasio EPS, PER, DER, ROA, ROE, sedangkan variabel dependen/variabel yang dijelaskan yang diteliti adalah return saham perusahaan
Data diperoleh dari kinerja keuangan diperoleh dari ICMD, sementara data saham diperoleh dari yahoo finance .
Rangkuman data adalah sbb :
EPS
PER
DER
ROA
ROE
RET
0.001
0.481
0.295
5.667
0.007
-0.481
0.333
0.154
0.362
0.838
0.317
0.190
0.205
0.078
1.282
8.755
0.063
0.597
0.014
0.121
1.163
6.587
0.081
0.680
0.067
0.181
0.806
5.152
0.087
-0.300
0.284
0.098
3.125
10.409
0.073
0.379
0.077
0.014
0.429
0.838
0.353
0.363
0.242
0.083
0.658
-4.470
0.026
0.178
0.017
0.073
1.639
2.949
0.195
4.689
0.012
1.031
0.433
4.155
0.007
5.685
0.083
3.030
0.269
9.388
0.002
12.716
0.125
0.054
2.222
2.306
0.299
4.921
0.500
0.005
1.852
0.399
1.628
4.066
2.890
0.039
1.563
2.786
0.223
7.944
9.820
0.084
1.449
0.852
0.694
3.079
5.440
0.061
0.645
1.997
0.019
2.722
0.063
0.119
1.538
0.917
0.103
0.888
0.008
0.170
2.439
1.523
0.054
1.531
0.333
0.027
1.042
1.927
0.265
2.260
0.100
0.066
2.564
4.499
0.159
4.599
0.016
0.065
1.316
1.381
0.037
1.397
0.500
0.055
4.762
1.299
0.630
1.799
-2.400
0.022
0.014
-0.135
-0.010
0.100
0.388
0.106
4.762
2.661
0.031
0.079
0.050
0.074
7.143
3.093
0.284
-0.061
0.002
0.145
5.263
17.033
0.049
-0.011
0.005
0.044
1.316
37.480
0.012
0.318
-0.014
-0.377
0.917
-6.211
-0.077
-0.523
0.040
0.308
0.260
1.818
0.113
-0.077
0.008
0.833
2.857
25.743
0.029
3.800

Penyelesaian
Pertama. Lakukan pengujian regresi ganda seperti biasa, dengan mengklik Analyze – Regression – Linier
Kedua, Masukkan variabel EPS, PER, DER, ROA, ROE ke kotak Independent dan RET ke kotak dependent
Ketiga. Klik Plot, lalu beri tanda pada “HISTOGRAM” dan “NORMAL PROBABILITY PLOT” seperti gambar di bawah
http://teorionline.files.wordpress.com/2011/04/norm1.jpg?w=300&h=184

Klik Continue, lalu OK
Akan tampil output, Perhatikan Grafik Histogram dan P-P Plot
Berdasarkan grafik Histogram, diketahui bahwa sebaran data yang menyebar ke semua daerah kurva normal.Dapat disimpulkan bahwa data mempunyai distribusi normal.Demikian juga dengan Normal P-Plot.Data menyebar di sekitar garis diagonal dan mengikuti garis diagonal yang menandakan normalitas data.
Meski dua grafik di atas menunjukkan bahwa model telah memenuhi asumsi normalitas, namun untuk meyakinkan dilakukan uji statistik dengan melihat nilai kurtonis dan Skewness dari residual.
langkah-langkah ujinya :
Lakukan pengujian ulang seperti langkah-langkah satu dan dua di atas.
Klik Tombol “SAVE”, lalu beri tanda pada pilihan “UNSTANDARDIZED” seperti gambar di bawah
http://teorionline.files.wordpress.com/2011/04/norm2.jpg?w=184&h=234
Sekarang kita memperoleh variabel baru yaitu RES_1.Variabel ini adalah data residual.
http://teorionline.files.wordpress.com/2011/04/norm3.jpg?w=214&h=214
Kemudian dari Menu Utama SPSS, pilih Analyze – Descriptive Statistics, dan pilih sub menu Descriptive
Pada kotak variabel, masukkan data Residual (RES_1)
http://teorionline.files.wordpress.com/2011/04/norm4.jpg?w=180&h=98
Aktifkan Kurtonis dan Skewness pada pilihan Option, lalu tekan continue
Interprestasi Nilai Skewness dan Kurtosis
Diperoleh nilai Skewness = 1.382 dan Kurtosis 2.458. Dari nilai ini kemudian dapat dihitung nilai ZKurtosis dan ZSkewness dengan formulasi sbb :
ZKurtosis = Kurtosis / sqrt (24/N)
ZSkewness = Skewness / sqrt (6/N)
Maka hasil perhitungannya adalah
ZKurtnosis = 2.748, dan ZSkewness = 3.090
Nilai Z kritis untuk alpha 0.01 adalah 2.58. Berdasarkan nilai ZKurtosis hasil uji menunjukkan bahwa residual adalah normal (ZKurtosis < 2.58), sementara berdasarkan ZSkewness nilai ZSkewness > 2.58 (tidak normal), karena dua pengujian ini berbeda, maka dilakukan uji lanjutan dengan menggunakan teknik Kolmogorov Smirnov
Masih menggunakan data yang sama,..
Pilih Analyze – nonparametric, lalu pilih 1-Sample-K-S
Masukkan variabel RES_1 ke kotak “TEST VARIABLE LIST”
Kemudian klik OK
http://teorionline.files.wordpress.com/2011/04/norm6.jpg?w=300&h=197

Hasil uji KOLMOGOROV-SMIRNOV menunjukkan bahwa nilai Asymp.Sig adalah sebesar 0.186.Nilai ini jauh lebih besar diatas 0.05 sehingga dapat disimpulkan residual berdistribusi Normal.Lihat Output
Dengan demikian dapat disimpulkan bahwa berdasarkan hasil uji diketahui bahwa model tidak terkena masalah normalitas
D.    Rumus Uji Normalitas
Metode Shapiro Wilk menggunakan data dasar yang belum diolah dalam tabel distribusi frekuensi.Data diurut, kemudian dibagi dalam dua kelompok untuk dikonversi dalam Shapiro Wilk.Dapat juga dilanjutkan transformasi dalam nilai Z untuk dapat dihitung luasan kurva normal.
RUMUS
http://exponensial.files.wordpress.com/2010/04/dd2.jpg?w=500
Persyaratan
a. Data berskala interval atau ratio (kuantitatif)
b. Data tunggal / belum dikelompokkan pada tabel distribusi frekuensi
c. Data dari sampel random

Signifikansi
Signifikansi dibandingkan dengan tabel Shapiro Wilk.Signifikansi uji nilai T3 dibandingkan dengan nilai tabel Shapiro Wilk, untuk dilihat posisi nilai probabilitasnya (p). Jika nilai p lebih dari 5%, maka Ho diterima ; H1 ditolak. Jika nilai p kurang dari 5%, maka Ho ditolak ; H1 diterima. Jika digunakan rumus G, maka digunakan tabel distribusi normal.
Metode Kolmogorov-Smirnov tidak jauh beda dengan metode Lilliefors. Langkah-langkah penyelesaian dan penggunaan rumus sama, namun pada signifikansi yang berbeda. Signifikansi metode Kolmogorov-Smirnov menggunakan tabel pembanding Kolmogorov-Smirnov, sedangkan metode Lilliefors menggunakan tabel pembanding metode Lilliefors.
Rumus
http://exponensial.files.wordpress.com/2010/04/dd1.jpg?w=500
Keterangan :
Xi = Angka pada data
Z = Transformasi dari angka ke notasi pada distribusi normal
FT = Probabilitas komulatif normal
FS = Probabilitas komulatif empiris
FT = komulatif proporsi luasan kurva normal berdasarkan notasi Zi, dihitung dari luasan kurva mulai dari ujung kiri kurva sampai dengan titik Z.
http://exponensial.files.wordpress.com/2010/04/dddddd2.jpg?w=500

Persyaratan
a. Data berskala interval atau ratio (kuantitatif)
b. Data tunggal / belum dikelompokkan pada tabel distribusi frekuensi
c. Dapat untuk n besar maupun n kecil.
Siginifikansi
Signifikansi uji, nilai | FT – FS | terbesar dibandingkan dengan nilai tabel Kolmogorov Smirnov. Jika nilai | FT – FS | terbesar kurang dari nilai tabel Kolmogorov Smirnov, maka Ho diterima ; H1 ditolak. Jika nilai | FT – FS | terbesar lebih besar dari nilai tabel Kolmogorov Smirnov, maka Ho ditolak ; H1 diterima. Tabel Nilai Quantil Statistik Kolmogorov Distribusi Normal.
Metode Lilliefors menggunakan data dasar yang belum diolah dalam tabel distribusi frekuensi.Data ditransformasikan dalam nilai Z untuk dapat dihitung luasan kurva normal sebagai probabilitas komulatif normal.Probabilitas tersebut dicari bedanya dengan probabilitas komultaif empiris.Beda terbesar dibanding dengan tabel Lilliefors pada Tabel Nilai Quantil Statistik Lilliefors Distribusi Normal.
Rumus
http://exponensial.files.wordpress.com/2010/04/dd.jpg?w=500
Keterangan :
Xi = Angka pada data
Z = Transformasi dari angka ke notasi pada distribusi normal
F(x) = Probabilitas komulatif normal
S(x) = Probabilitas komulatif empiris
F(x) = komulatif proporsi luasan kurva normal berdasarkan notasi Zi, dihitung dari luasan kurva normal mulai dari ujung kiri kurva sampai dengan titik Zi.
http://exponensial.files.wordpress.com/2010/04/dddddd1.jpg?w=500
Persyaratan
a. Data berskala interval atau ratio (kuantitatif)
b. Data tunggal / belum dikelompokkan pada tabel distribusi frekuensi
c. Dapat untuk n besar maupun n kecil.
Signifikansi
Signifikansi uji, nilai | F (x) – S (x) | terbesar dibandingkan dengan nilai tabel Lilliefors. Jika nilai | F (x) – S (x) | terbesar kurang dari nilai tabel Lilliefors, maka Ho diterima ; Ha ditolak. Jika nilai | F (x) – S (x) | terbesar lebih besar dari nilai tabel Lilliefors, maka Ho ditolak ; H1 diterima. Tabel nilai Quantil Statistik Lilliefors.
















BAB III
PENUTUP

A.    Kesimpulan
Uji normalitas bertujuan untuk menguji apakah dalam model regresi, variabel penggangu atau residual memiliki distribusi normal.
Ada tiga pilihan yang dapat dilakukan jika diketahui bahwa data tidak normal; yaitu :
1.      Jika jumlah sampel besar, maka dapat menghilangkan nilai outliner dari data (bahasan outliner akan dibahas kemudian).
2.      Melakukan transformasi data.
3.      Menggunakan alat analisis nonparametric.

Ada dua Metode dalam Uji Normalitas, yaitu Uji Kolmogorov Smirnov dan Metode Lilliefors.

B.     Saran
Demikianlah makalah yang dapat penulis susun.Seberapa besarpun usaha penulis tetap masih banyak kekurangan dalam penulisan makalah ini.Oleh sebab itu penulis sangat mengharapkan saran dan kritikan yang membangun serta menjadikan makalah ini lebih sempurna.











DAFTAR PUSTAKA

Leslie, P. H. “The calculation of Chi Scuare for an r x c Contingency table”. Biometrics, 7:283-86, 1856.

Yates, F. “Contingency Tables Involving Small numbers and the Chi Square Test”, J. Suppl. J. royal Stat, Soc, 1:217-35, 1934.

0 komentar:

Poskan Komentar