Uji normalitas adalah untuk melihat apakah suatu data terdistribusi normal atau tidak. Beberapa uji statistik, terutama statistik parametrik mensyaratkan adanya normalitas pada data yang akan diuji. Artikel ini akan fokus pada uji normalitas pada analisis regresi linier berganda dengan alat bantu berupa program SPSS Versi 26. Apa dan bagaimana uji normalitas pada analisis regresi linier? Mari kita bahas bersama.
Daftar Isi
- Normalitas Data
- Statistik parametrik
- Analisis regresi linier berganda
- Nilai residual pada analisis regresi linier berganda
- Berbagai uji normalitas pada analisis regresi linier berganda
- Histogram
- Normal P Plot
- Uji Lillieffors
- Uji Shapiro Wilks
- Skewness dan Kurtosis
- Jarque Berra
- Kesimpulan
Normalitas Data
Suatu data dinyatakan normal jika diplotkan akan menyerupai bentuk lonceng. Jika normal baku maka akan mempunyai nilai rata-rata mendekati nol dan simpangan baku mendekati 1. Terminologi normal untuk data sudah ada sejak abad 18 dengan banyak para tokoh yang memberikan jasa, di antaranya Abraham de Moivre, Pierre Simon de Laplace, Legendre, Johann Carl Friedrich Gauß, Francis Galton dan masih banyak lagi. Metode yang dipergunakan juga sangat banyak dan bervariasi. Dalam artikel ini kita akan menekankan pada uji normalitas pada analisis regresi linier berganda. Untuk kajian normalitas secara lebih luas, bisa disimak di artikel normalitas.
Statistik Parametrik
Statistik parametrik adalah alat uji statistik yang dikenakan pada data berskala interval atau rasio dan memenuhi syarat-syarat tertentu. Kondisi atau syarat-syarat uji parametrik salah satunya adalah normalitas. Jika suatu data tidak memenuhi asumsi normalitas, maka tidak bisa dikenai statistik parametrik (tentunya asumsi parametrik yang lain juga memenuhi). Untuk analisis regresi linier berganda termasuk statistik parametrik sehingga harus memenuhi asumsi normalitas. Lebih jauh tentang statistik parametrik, silahkan visit di artikel tentang statistik parametrik.
Analisis Regresi Linier Berganda
Analisis regresi linier berganda adalah metode analisis statistik untuk mencari pengaruh dari beberapa variabel bebas terhadap satu buah variabel terikat. Jika hanya ada satu variabel bebas, sering disebut dengan analisis regresi linier sederhana. Metode statistik ini sangat populer dipergunakan untuk mahasiswa yang sedang menempuh tugas akhirnya atau skripsi. Banyak juga alat bantu atau software yang mempermudah melakukan analisis regresi linier. Bahkan di Microsoft Excel pun sudah tersedia menu ini.
Analisis regresi linier berganda merupakan statistik parametrik sehingga memerlukan asumsi normalitas, di samping berbagai asumsi lain yang termasuk dalam uji asumsi klasik. Terpenting dari uji normalitas dalam analisis regresi linier berganda adalah bahwa uji normalitas dilakukan terhadap nilai residualnya, bukan pada masing-masing variabel dalam penelitian. Apakah tidak boleh melakukan uji normalitas pada masing-masing variabel? Tentu saja boleh, tetapi itu bukan uji normalitas yang diperlukan dalam analisis regresi linier berganda. Jadi analisis regresi linier bisa dilakukan meskipun ada salah satu atau lebih variabel yang tidak terdistribusi secara normal. Acuannya adalah nilai residual.
Nilai Residual pada analisis regresi linier berganda
Residual pada regresi linier adalah selisih antara nilai sebenarnya dengan nilai prediksi. Sebagai contoh, nilai variabel terikat pada sampel 01 adalah sebesar 10, tetapi hasil prediksi dari persamaan regresi yang dihasilkan adalah sebesar 9. Maka dapat dinyatakan bahwa nilai residual adalah sebesar 1 atau selisih dari 10 dengan 9. Nilai residual bisa positif dan bisa juga negatif. Karena menggunakan metode kuadrat terkecil maka nilai residual pasti 0. Jika tidak 0 berarti ada yang salah perhitungannya.
Nilai residual inilah yang harus normal. Jika nilai residual tidak terdistribusi secara normal, maka hasil regresi akan terdegradasi dan tidak boleh dipergunakan. Modifikasi atau transformasi tentu bisa dilakukan kepada variabel-variabel yang ada. Bisa ditransformasikan atau dikeluarkan data yang outliers atau menambah data, mengurangi data, menghilangkan variabel dan lain-lain. Diskusi tentang nilai residual lebih lanjut silahkan visit di sini.
Berbagai Uji Normalitas pada Analisis Regresi Linier Berganda
Ada banyak sekali uji normalitas yang sudah tersedia di SPSS Versi 26 untuk menguji normalitas pada analisis regresi linier berganda. Semuanya mempunyai karakteristik masing-masing dan dapat dipilih oleh peneliti. Bisa menggunakan metode grafis, misalnya dengan histogram atau normal P Plot. Ada juga yang menggunakan metode statistik seperti Liliefors, Sharpiro-Wilks, Skewness dan Kurtosis atau pun Jarque Berra. Mari kita pelajari bersama satu persatu.
Untuk data yang dipergunakan silahkan download di Google Drive dengan akun Gmail Anda. Setelah itu pilih Analyze, pilih Regression lalu klik pada Linear seperti pada gambar di bawah:
Maka akan diarahkan ke menu regresi oleh SPSS. Masukkan variabel DAC ke Dependent dan variabel yang lain ke Independents seperti pada gambar di bawah.
![]() |
Memasukkan Variabel |
![]() |
Memberikan Tanda Centang pada Standardized Residual Plots |
Berikan tanda centang pada Histogram dan Normal probability plot seperti pada gambar di atas. Setelah itu klik Continue maka akan kembali ke gambar sebelumnya dan klik Save di kanan atas di bawah Plots sehingga akan masuk ke sub menu yang lain yaitu sebagai berikut:
![]() |
Memberikan Tanda Centang pada Unstandardized |
Nilai Residual ini lah yang akan diuji normalitasnya, bukan masing-masing variabel bebas atau terikat. Berikut penjelasan lebih rinci tentang residual pada regresi linier. Berikutnya akan kita uji normalitasnya dengan berbagai metode yang ada dan lazim dipergunakan.
Histogram
Metode histogram sering dipergunakan dalam uji normalitas. Merupakan metode grafis sehingga lebih mudah dilihat meskipun kadang menimbulkan perdebatan di antara para pengamatnya. Metode ini keluar karena kita memberikan tanda centang pada Histogram pada Sub Menu Plots di atas.
![]() |
Uji Normalitas Histogram |
Normal P Plot
Normal P Plot juga merupakan uji normalitas dengan diagram. Output ini akan muncul ketika kita memberikan tanda centang pada Normal probability plot seperti pada gambar di atas pada sub menu Plot.
![]() |
Uji Normalitas dengan P Plot |
Kedua pengujian di atas adalah dengan metode grafis. Sedangkan beberapa metode di bawah adalah menggunakan metode perhitungan secara statistik.
Uji Lilliefors
Metode Lilliefors menggunakan metode Kolmogorov-Smirnov yang merupakan uji satu sampel untuk statistik non parametrik. Konsep dasarnya adalah membandingkan distribusi data yang akan diuji normalitasnya dengan normalitas baku. Jika ada perbedaan berarti data tersebut dinyatakan tidak normal, demikian sebaliknya, jika tidak terdapat perbedaan maka data dinyatakan normal.
Pilih Analyze, pilih Descriptive Statistics lalu klik pada Explore seperti pada gambar di bawah:
![]() |
Menu Explore pada SPSS Versi 26 |
![]() |
Memasukkan Variabel |
![]() |
Sub Menu Uji Normalitas |
![]() |
Output Uji Normalitas denga Lilliefors |
Metode ini bahkan latah disebut Uji Kolmogorov-Smirnov karena memang dikembangkan oleh Kolmogorov dan Smirnov. Jadi metode ini juga bisa dilakukan dengan menu Non parametric atau selengkapnya silahkan simak di sini.
Uji Shapiro-Wilks
Uji Shapiro-Wilks menggunakan menu yang sama dengan uji Lilliefors, bahkan outputnya juga berdampingan seperti pada gambar di atas. Dengan konsep yang sama maka output signifikansi adalah sebesar 0,00 < 0,05 sehingga dinyatakan bahwa model regresi linier tidak memenuhi asumsi normalitas. Hasil ini konsisten dengan hasil pengujian yang sebelumnya. Artikel selengkapnya tentang uji normalitas dengan Shapiro-Wilks kami tampilkan di sini.
Skewness dan Kurtosis
Metode Skewness dan Kurtosis juga sering disebut dengan kemencengan data. Nilai Skewness (S) dan Kurtosis (K) bisa diperoleh dengan SPSS Versi 26, tetapi nilai Z nya harus dihitung sendiri dengan persamaan sebagai berikut:
![]() |
Rumus Z untuk Skewness dan Kurtosis |
![]() |
Memasukkan Variabel Residual |
![]() |
Menu Skewness dan Kurtosis |
![]() |
Output Kurtosis dan Skewness |
Jarque Berra
Jarque Berra (JB) adalah pengembangan dari Skewness dan Kurtosis karena memang menggunakan kedua nilai tersebut dengan persamaan sebagai berikut:
![]() |
Rumus Jarque Berra |
Kesimpulan
Perlu ditegaskan sekali lagi bahwa asumsi normalitas pada regresi linier adalah pada nilai residualnya, bukan pada masing-masing variabel. Sebenarnya sudah sangat jelas.
Tidak ada komentar:
Posting Komentar
Baca dulu sebelum tulis komentar:
Sebelum menuliskan pertanyaan, mohon disimak tanya jawab yang ada terlebih dahulu. Pertanyaan yang sama atau senada biasanya tidak terjawab. Untuk pengguna Blogger mohon profil diaktifkan agar tidak menjadi dead link. Atau simak dulu di Mengapa Pertanyaan Saya Tidak Dijawab?
Simak juga Channel kami di Statistik TV
Komentar akan kami moderasi dulu sebelum ditampilkan. Aktifkan Akun Google Anda.
Terima kasih.