MAKALAH
UJI NORMALITAS
Disusun guna memenuhi tugas semester 3
Mata Kuliah : Pemrograman
Komputer
Disusun Oleh :
Heri Sucipto 113511120
FAKULTAS TARBIYAH
INSTITUT AGAMA ISLAM NEGERI WALISONGO
SEMARANG
2012
BAB I
PENDAHULUAN
A.
Latar
Belakang
Uji
normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, uji Chi
Square, Skewness dan Kurtosis atau uji Kolmogorov Smirnov. Tidak ada metode
yang paling baik atau paling tepat.Tipsnya adalah bahwa pengujian dengan metode
grafik sering menimbulkan perbedaan persepsi di antara beberapa pengamat,
sehingga penggunaan uji normalitas dengan uji statistik bebas dari
keragu-raguan, meskipun tidak ada jaminan bahwa pengujian dengan uji statistik
lebih baik dari pada pengujian dengan metode grafik.
Jika
residual tidak normal tetapi dekat dengan nilai kritis (misalnya signifikansi
Kolmogorov Smirnov sebesar 0,049) maka dapat dicoba dengan metode lain yang
mungkin memberikan justifikasi normal. Tetapi jika jauh dari nilai normal, maka
dapat dilakukan beberapa langkah yaitu: melakukan transformasi data, melakukan
trimming data outliers atau menambah data observasi. Transformasi dapat
dilakukan ke dalam bentuk Logaritma natural, akar kuadrat, inverse, atau bentuk
yang lain tergantung dari bentuk kurva normalnya, apakah condong ke kiri, ke
kanan, mengumpul di tengah atau menyebar ke samping kanan dan kiri.
B. Tujuan
Dalam
uji normalitas tujuannya adalah ingin mengetahui apakah distribusi sebuah data
mengikuti atau mendekati distribusi normal, yakni distribusi data dengan bentuk
lonceng ( bell sheped ). Data yang baik adalah data yang mempunyai pola seperti
distribusi normal, yaitu distribusi data tersebut tidak menceng kekiri atau
kekanan.
BAB II
PEMBAHASAN
A. Pengertian
Uji Normalitas
Normalitas
dalam statistik parametric seperti regresi dan Anova merupakan syarat
pertama.Uji normalitas bertujuan untuk menguji apakah dalam model regresi,
variabel penggangu atau residual memiliki distribusi normal. Jika asumsi
ini dilanggar, maka uji statistik menjadi tidak valid atau bias terutama untuk
sampel kecil.
Ada beberapa cara melakukan uji asumsi normalitas ini yaitu
menggunakan analisis Chi Square dan Kolmogorov-Smirnov. Bagaimana analisisnya
untuk sementara kita serahkan pada program analisis statistik seperti SPSS dulu
ya. Tapi pada dasarnya kedua analisis ini dapat diibaratkan seperti ini :
a.
pertama
komputer memeriksa data kita, kemudian membuat sebuah data virtual yang sudah
dibuat normal.
b.
kemudian
komputer seolah-olah melakukan uji beda antara data yang kita miliki dengan
data virtual yang dibuat normal tadi.
c.
dari
hasil uji beda tersebut, dapat disimpulkan dua hal :
Jika p lebih kecil daripada 0,05
maka dapat disimpulkan bahwa data yang kita miliki berbeda secara signifikan
dengan data virtual yang normal tadi. Ini berarti data yang kita miliki sebaran
datanya tidak normal.
Jika p lebih besar daripada 0,05
maka dapat disimpulkan bahwa data yang kita miliki tidak berbeda secara
signifikan dengan data virtual yang normal. Ini berarti data yang kita miliki
sebaran datanya normal juga.
Ukuran inilah yang digunakan untuk
menentukan apakah data kita berasal dari populasi yang normal atau tidak.
B. Bagaimana mengatasi masalah normalitas ?
Ada tiga pilihan yang
dapat dilakukan jika diketahui bahwa data tidak normal; yaitu :
1.
Jika jumlah
sampel besar, maka dapat menghilangkan nilai outliner dari data (bahasan
outliner akan dibahas kemudian).
2.
Melakukan transformasi data.
3.
Menggunakan alat analisis nonparametric
Data yang tidak normal tidak selalu
berasal dari penelitian yang buruk.Data ini mungkin saja terjadi karena ada
kejadian yang di luar kebiasaan.Atau memang kondisi datanya memang nggak
normal. Misal data inteligensi di sekolah anak-anak berbakat (gifted) jelas
tidak akan normal, besar kemungkinannya akan juling positif.
Lalu apa yang bisa kita lakukan?
a.
Kita
perlu ngecek apakah ketidaknormalannya parah nggak. Tidak ada patokan pasti
tentang keparahan ini. Tapi kita bisa mengira-ira jika misalnya nilai p yang
didapatkan sebesar 0,049 maka ketidaknormalannya tidak terlalu parah (nilai
tersebut hanya sedikit di bawah 0,05). Ada beberapa analisis statistik yang
agak kebal dengan kondisi ketidaknormalan yang tidak terlalu parah (disebut
memiliki sifat robust), misalnya F-test dan t-test. Jadi kita bisa tetap
menggunakan analisis ini jika ketidaknormalannya tidak parah.
b.
Kita
bisa membuang nilai-nilai yang ekstrem, baik atas atau bawah. Nilai ekstrem ini
disebut outliers. Pertama kita perlu membuat grafik, dengan sumbu x sebagai
frekuensi dan y sebagai semua nilai yang ada dalam data kita (ini tentunya bisa
dikerjakan oleh komputer). Dari sini kita akan bisa melihat nilai mana yang
sangat jauh dari kelompoknya. Nilai inilah yang kemudian perlu dibuang dari
data kita, dengan asumsi nilai ini muncul akibat situasi yang tidak biasanya.
Misal responden yang mengisi skala kita dengan sembarang yang membuat nilainya
jadi sangat tinggi atau sangat rendah.
c.
Tindakan
ketiga yang bisa kita lakukan adalah dengan mentransform data kita. Ada banyak
cara untuk mentransform data kita, misalnya dengan mencari akar kuadrat dari
data kita, dll.
d.
Bagaimana
jika semua usaha di atas tidak membuahkan hasil. Maka langkah terakhir yang
bisa kita lakukan adalah dengan menggunakan analisis non-parametrik. Analisis
ini disebut juga sebagai analisis yang distribution free. Sayangnya analisis
ini seringkali mengubah data kita menjadi data yang lebih rendah tingkatannya.
Misal kalau sebelumnya data kita termasuk data interval dengan analisis ini
akan diubah menjadi data ordinal.
C. Teknik Uji Normalitas
Banyak sekali teknik pengujian
normalitas suatu distribusi data yang telah dikembangkan oleh para ahli. Kita
sebenarnya sangat beruntung karena tidak perlu mencari-cari cara untuk menguji
normalitas, dan bahkan saat ini sudah tersedia banyak sekali alat bantu berupa
program statistik yang tinggal pakai. Berikut adalah salah satu pengujian
normalitas dengan menggunakan teknik Kolmogorov Smirnov.
Uji Kolmogorov Smirnov merupakan
pengujian normalitas yang banyak dipakai, terutama setelah adanya banyak
program statistik yang beredar. Kelebihan dari uji ini adalah sederhana dan
tidak menimbulkan perbedaan persepsi di antara satu pengamat dengan pengamat
yang lain, yang sering terjadi pada uji normalitas dengan menggunakan grafik.
Konsep dasar dari uji normalitas
Kolmogorov Smirnov adalah dengan membandingkan distribusi data (yang akan diuji
normalitasnya) dengan distribusi normal baku. Distribusi normal baku adalah
data yang telah ditransformasikan ke dalam bentuk Z-Score dan diasumsikan
normal. Jadi sebenarnya uji Kolmogorov Smirnov adalah uji beda antara data yang
diuji normalitasnya dengan data normal baku. Seperti pada uji beda biasa, jika
signifikansi di bawah 0,05 berarti terdapat perbedaan yang signifikan, dan jika
signifikansi di atas 0,05 maka tidak terjadi perbedaan yang signifikan.
Penerapan pada uji Kolmogorov Smirnov adalah bahwa jika signifikansi di bawah
0,05 berarti data yang akan diuji mempunyai perbedaan yang signifikan dengan
data normal baku, berarti data tersebut tidak normal.
Lebih lanjut, jika signifikansi di
atas 0,05 maka berarti tidak terdapat perbedaan yang signifikan antara data
yang akan diuji dengan data normal baku, artinya data yang kita uji normal.
Kelemahan dari Uji Kolmogorov
Smirnovyaitu bahwa jika kesimpulan kita memberikan hasil yang tidak normal,
maka kita tidak bisa menentukan transformasi seperti apa yang harus kita
gunakan untuk normalisasi. Jadi kalau tidak normal, gunakan plot grafik untuk
melihat menceng ke kanan atau ke kiri, atau menggunakan Skewness dan Kurtosis
sehingga dapat ditentukan transformasi seperti apa yang paling tepat
dipergunakan.
Uji Normalitas dengan Kolmogorov Smirnov dengan Program
SPSS
Pengujian normalitas dengan
menggunakan Program SPSS dilakukan dengan menu Analyze, kemudian klik pada
Nonparametric Test, lalu klik pada 1-Sample K-S.K-S itu singkatan dari
Kolmogorov-Smirnov. Maka akan muncul kotak One-Sample Kolmogorov-Smirnov Test.
Data yang akan diuji terletak di kiri dan pindahkan ke kanan dengan tanda
panah. Lalu tekan OK. Pada output, lihat pada baris paling bawah dan paling
kanan yang berisi Asymp.Sig.(2-tailed). Lalu intepretasinya adalah bahwa jika
nilainya di atas 0,05 maka distribusi data dinyatakan memenuhi asumsi
normalitas, dan jika nilainya di bawah 0,05 maka diinterpretasikan sebagai
tidak normal.
Normalitas
dalam statistik parametric seperti regresi dan Anova merupakan syarat
pertama.Uji normalitas bertujuan untuk menguji apakah dalam model regresi,
variabel pengganggu atau residual memiliki distribusi normal. Jika asumsi
ini dilanggar, maka uji statistik menjadi tidak valid atau bias terutama untuk
sampel kecil. Uji normalitas dapat dilakukan melalui dua pendekatan yaitu
melalui pendekatan grafik (histogram dan P-P Plot) atau uji kolmogorov-smirnov,
chi-square, Liliefors maupun Shapiro-Wilk
(bahasan mengatasi masalah normalitas akan
dibahas terpisah)
Contoh Kasus :
Akan
diuji pengaruh pengaruh kinerja keuangan terhadap return saham. Variabel
independen yang digunakan adalah variabel kinerja keuangan yang diwakili
oleh rasio EPS, PER, DER, ROA, ROE, sedangkan variabel dependen/variabel yang
dijelaskan yang diteliti adalah return saham perusahaan
Data diperoleh dari kinerja
keuangan diperoleh dari ICMD, sementara data saham diperoleh dari yahoo finance
.
Rangkuman data adalah sbb :
EPS
|
PER
|
DER
|
ROA
|
ROE
|
RET
|
0.001
|
0.481
|
0.295
|
5.667
|
0.007
|
-0.481
|
0.333
|
0.154
|
0.362
|
0.838
|
0.317
|
0.190
|
0.205
|
0.078
|
1.282
|
8.755
|
0.063
|
0.597
|
0.014
|
0.121
|
1.163
|
6.587
|
0.081
|
0.680
|
0.067
|
0.181
|
0.806
|
5.152
|
0.087
|
-0.300
|
0.284
|
0.098
|
3.125
|
10.409
|
0.073
|
0.379
|
0.077
|
0.014
|
0.429
|
0.838
|
0.353
|
0.363
|
0.242
|
0.083
|
0.658
|
-4.470
|
0.026
|
0.178
|
0.017
|
0.073
|
1.639
|
2.949
|
0.195
|
4.689
|
0.012
|
1.031
|
0.433
|
4.155
|
0.007
|
5.685
|
0.083
|
3.030
|
0.269
|
9.388
|
0.002
|
12.716
|
0.125
|
0.054
|
2.222
|
2.306
|
0.299
|
4.921
|
0.500
|
0.005
|
1.852
|
0.399
|
1.628
|
4.066
|
2.890
|
0.039
|
1.563
|
2.786
|
0.223
|
7.944
|
9.820
|
0.084
|
1.449
|
0.852
|
0.694
|
3.079
|
5.440
|
0.061
|
0.645
|
1.997
|
0.019
|
2.722
|
0.063
|
0.119
|
1.538
|
0.917
|
0.103
|
0.888
|
0.008
|
0.170
|
2.439
|
1.523
|
0.054
|
1.531
|
0.333
|
0.027
|
1.042
|
1.927
|
0.265
|
2.260
|
0.100
|
0.066
|
2.564
|
4.499
|
0.159
|
4.599
|
0.016
|
0.065
|
1.316
|
1.381
|
0.037
|
1.397
|
0.500
|
0.055
|
4.762
|
1.299
|
0.630
|
1.799
|
-2.400
|
0.022
|
0.014
|
-0.135
|
-0.010
|
0.100
|
0.388
|
0.106
|
4.762
|
2.661
|
0.031
|
0.079
|
0.050
|
0.074
|
7.143
|
3.093
|
0.284
|
-0.061
|
0.002
|
0.145
|
5.263
|
17.033
|
0.049
|
-0.011
|
0.005
|
0.044
|
1.316
|
37.480
|
0.012
|
0.318
|
-0.014
|
-0.377
|
0.917
|
-6.211
|
-0.077
|
-0.523
|
0.040
|
0.308
|
0.260
|
1.818
|
0.113
|
-0.077
|
0.008
|
0.833
|
2.857
|
25.743
|
0.029
|
3.800
|
Penyelesaian
Pertama. Lakukan
pengujian regresi ganda seperti biasa, dengan mengklik Analyze – Regression –
Linier
Kedua, Masukkan variabel
EPS, PER, DER, ROA, ROE ke kotak Independent dan RET ke kotak dependent
Ketiga. Klik Plot, lalu
beri tanda pada “HISTOGRAM” dan “NORMAL PROBABILITY PLOT” seperti gambar di
bawah
Klik Continue, lalu OK
Akan tampil output, Perhatikan Grafik
Histogram dan P-P Plot
Berdasarkan
grafik Histogram, diketahui bahwa sebaran data yang menyebar ke semua daerah
kurva normal.Dapat disimpulkan bahwa data mempunyai distribusi normal.Demikian
juga dengan Normal P-Plot.Data menyebar di sekitar garis diagonal dan mengikuti
garis diagonal yang menandakan normalitas data.
Meski
dua grafik di atas menunjukkan bahwa model telah memenuhi asumsi normalitas,
namun untuk meyakinkan dilakukan uji statistik dengan melihat nilai kurtonis
dan Skewness dari residual.
langkah-langkah ujinya :
Lakukan pengujian ulang seperti
langkah-langkah satu dan dua di atas.
Klik Tombol “SAVE”, lalu beri tanda pada
pilihan “UNSTANDARDIZED” seperti gambar di bawah
Sekarang kita memperoleh variabel baru yaitu
RES_1.Variabel ini adalah data residual.
Kemudian dari Menu Utama SPSS, pilih Analyze
– Descriptive Statistics, dan pilih sub menu Descriptive
Pada kotak variabel, masukkan data Residual
(RES_1)
Aktifkan Kurtonis dan Skewness pada pilihan
Option, lalu tekan continue
Interprestasi Nilai Skewness dan Kurtosis
Diperoleh nilai Skewness =
1.382 dan Kurtosis 2.458. Dari nilai ini kemudian dapat dihitung nilai
ZKurtosis dan ZSkewness dengan formulasi sbb :
ZKurtosis = Kurtosis / sqrt (24/N)
ZSkewness = Skewness / sqrt (6/N)
Maka hasil perhitungannya adalah
ZKurtnosis = 2.748, dan ZSkewness = 3.090
Nilai Z
kritis untuk alpha 0.01 adalah 2.58. Berdasarkan nilai ZKurtosis hasil uji
menunjukkan bahwa residual adalah normal (ZKurtosis < 2.58), sementara
berdasarkan ZSkewness nilai ZSkewness > 2.58 (tidak normal), karena dua
pengujian ini berbeda, maka dilakukan uji lanjutan dengan menggunakan teknik
Kolmogorov Smirnov
Masih menggunakan data yang sama,..
Pilih Analyze – nonparametric, lalu pilih
1-Sample-K-S
Masukkan variabel RES_1 ke kotak “TEST
VARIABLE LIST”
Kemudian klik OK
Hasil
uji KOLMOGOROV-SMIRNOV menunjukkan bahwa nilai Asymp.Sig adalah sebesar
0.186.Nilai ini jauh lebih besar diatas 0.05 sehingga dapat disimpulkan
residual berdistribusi Normal.Lihat Output
Dengan demikian dapat
disimpulkan bahwa berdasarkan hasil uji diketahui bahwa model tidak terkena
masalah normalitas
D. Rumus Uji Normalitas
Metode
Shapiro Wilk menggunakan data dasar yang belum diolah dalam tabel distribusi
frekuensi.Data diurut, kemudian dibagi dalam dua kelompok untuk dikonversi
dalam Shapiro Wilk.Dapat juga dilanjutkan transformasi dalam nilai Z untuk
dapat dihitung luasan kurva normal.
RUMUS
Persyaratan
a.
Data berskala interval atau ratio (kuantitatif)
b.
Data tunggal / belum dikelompokkan pada tabel distribusi frekuensi
c.
Data dari sampel random
Signifikansi
Signifikansi
dibandingkan dengan tabel Shapiro Wilk.Signifikansi uji nilai T3 dibandingkan
dengan nilai tabel Shapiro Wilk, untuk dilihat posisi nilai probabilitasnya
(p). Jika nilai p lebih dari 5%, maka Ho diterima ; H1 ditolak. Jika
nilai p kurang dari 5%, maka Ho ditolak ; H1 diterima. Jika
digunakan rumus G, maka digunakan tabel distribusi normal.
Metode
Kolmogorov-Smirnov tidak jauh beda dengan metode Lilliefors. Langkah-langkah
penyelesaian dan penggunaan rumus sama, namun pada signifikansi yang berbeda.
Signifikansi metode Kolmogorov-Smirnov menggunakan tabel pembanding
Kolmogorov-Smirnov, sedangkan metode Lilliefors menggunakan tabel pembanding
metode Lilliefors.
Rumus
Keterangan :
Xi =
Angka pada data
Z = Transformasi
dari angka ke notasi pada distribusi normal
FT =
Probabilitas komulatif normal
FS =
Probabilitas komulatif empiris
FT =
komulatif proporsi luasan kurva normal berdasarkan notasi Zi, dihitung dari
luasan kurva mulai dari ujung kiri kurva sampai dengan titik Z.
Persyaratan
a. Data berskala
interval atau ratio (kuantitatif)
b. Data tunggal /
belum dikelompokkan pada tabel distribusi frekuensi
c. Dapat untuk n
besar maupun n kecil.
Siginifikansi
Signifikansi
uji, nilai | FT – FS | terbesar dibandingkan dengan nilai tabel Kolmogorov
Smirnov. Jika nilai | FT – FS | terbesar kurang dari nilai tabel Kolmogorov
Smirnov, maka Ho diterima ; H1 ditolak. Jika nilai | FT – FS | terbesar
lebih besar dari nilai tabel Kolmogorov Smirnov, maka Ho ditolak ; H1
diterima. Tabel Nilai Quantil Statistik Kolmogorov Distribusi Normal.
Metode
Lilliefors menggunakan data dasar yang belum diolah dalam tabel distribusi
frekuensi.Data ditransformasikan dalam nilai Z untuk dapat dihitung luasan
kurva normal sebagai probabilitas komulatif normal.Probabilitas tersebut dicari
bedanya dengan probabilitas komultaif empiris.Beda terbesar dibanding dengan
tabel Lilliefors pada Tabel Nilai Quantil Statistik Lilliefors Distribusi
Normal.
Rumus
Keterangan
:
Xi
= Angka pada data
Z
= Transformasi dari angka ke notasi pada distribusi normal
F(x)
= Probabilitas komulatif normal
S(x)
= Probabilitas komulatif empiris
F(x)
= komulatif proporsi luasan kurva normal berdasarkan notasi Zi,
dihitung dari luasan kurva normal mulai dari ujung kiri kurva sampai dengan
titik Zi.
Persyaratan
a.
Data berskala interval atau ratio (kuantitatif)
b.
Data tunggal / belum dikelompokkan pada tabel distribusi frekuensi
c.
Dapat untuk n besar maupun n kecil.
Signifikansi
Signifikansi
uji, nilai | F (x) – S (x) | terbesar dibandingkan dengan nilai tabel
Lilliefors. Jika nilai | F (x) – S (x) | terbesar kurang dari nilai tabel
Lilliefors, maka Ho diterima ; Ha ditolak. Jika nilai | F (x) – S (x) |
terbesar lebih besar dari nilai tabel Lilliefors, maka Ho ditolak ; H1
diterima. Tabel nilai Quantil Statistik Lilliefors.
BAB
III
PENUTUP
A.
Kesimpulan
Uji normalitas
bertujuan untuk menguji apakah dalam model regresi, variabel penggangu atau
residual memiliki distribusi normal.
Ada tiga pilihan yang dapat dilakukan jika diketahui
bahwa data tidak normal; yaitu :
1. Jika
jumlah sampel besar, maka dapat menghilangkan nilai outliner dari data (bahasan
outliner akan dibahas kemudian).
2.
Melakukan transformasi data.
3.
Menggunakan alat analisis nonparametric.
Ada dua Metode dalam Uji Normalitas, yaitu Uji Kolmogorov Smirnov
dan Metode
Lilliefors.
B.
Saran
Demikianlah makalah yang dapat penulis
susun.Seberapa besarpun usaha penulis tetap masih banyak kekurangan dalam
penulisan makalah ini.Oleh sebab itu penulis sangat mengharapkan saran dan
kritikan yang membangun serta menjadikan makalah ini lebih sempurna.
DAFTAR
PUSTAKA
Leslie, P. H.
“The calculation of Chi Scuare for an r x c Contingency table”. Biometrics,
7:283-86, 1856.
Yates, F. “Contingency
Tables Involving Small numbers and the Chi Square Test”, J. Suppl. J. royal
Stat, Soc, 1:217-35, 1934.
0 komentar:
Posting Komentar