Tampilkan postingan dengan label Multikolinearitas. Tampilkan semua postingan
Tampilkan postingan dengan label Multikolinearitas. Tampilkan semua postingan

Uji Multikolinearitas SPSS dengan Korelasi Parsial

Kali ini kita akan mencoba melakukan uji multikolinearitas dengan SPSS Versi 23. Data yang akan digunakan dalam simulasi ini bisa Anda download di sini dengan menggunakan akun Gmail Anda karena disimpan di Google Drive. Data yang digunakan hanya simulasi saja, jadi mohon untuk tidak fokus ke variabelnya. Jumlah variabel bebas (X) ada 7 dengan 1 variabel terikat yaitu Piutang. Jumlah data yang dipergunakan adalah 102 jadi dianggap cukup untuk analisis ini.

Lakukan analisis regresi linear berganda dan pada Statistics berilah tanda centang pada Descriptives, Part and partial correlations dan Colinearity diagnostics seperti pada gambar di bawah:

Menu Statistics pada Regresi

Setelah itu klik Continue lalu OK sehingga akan keluar output. Mari kita lihat satu persatu output yang muncul.

Output Statistik Deskriptif

Output pertama adalah statistik deskriptif. Memuat nilai rata-rata, standar deviasi dan jumlah sampel. Bisa dibahas sesuai dengan kajian bidang ilmu masing-masing. Untuk Size, itu merupakan nilai logaritma natural dari Total Assets sehingga nilainya memang tidak besar. Output berikutnya adalah

Output Korelasi

Output di atas adalah output korelasi antara masing-masing variabel dalam penelitian, baik antara variabel bebas maupun dengan variabel terikatnya. Ini muncul karena kita memberikan tanda centang pada Descriptions. Jika kita tidak memberikan tanda centang, maka output ini tidak muncul.

Korelasi antar variabel bebas memang kadang dijadikan deteksi adanya multikolinearitas atau tidak. Tapi sebenarnya deteksi dengan menggunakan korelasi hanya disarankan jika menggunakan 2 variabel bebas saja. Untuk variabel bebas lebih dari 2, deteksi dengan korelasi tidak disarankan.

Output yang berikutnya adalah sebagai berikut:

Output Uji Multikolinearitas

Output F dan R dan yang tidak berhubungan dengan multikolinearitas tidak ditampilkan di sini agar lebih fokus. Untuk Output Correlations di atas, muncul karena kita memberikan tanda centang pada Part and partial correlations. Jika tanda centang kita hilangkan, maka kolom Correlations juga tidak akan muncul sebagai output.

Pada kolom Zero-order, sebenarnya itu sama persis dengan output correlations pada tabel sebelumnya. Hanya yang ditampilkan adalah korelasi antara masing-masing variabel bebas dengan variabel terikatnya. Misalnya Utang akan bernilai 0,311 yang sama persis dengan output Correlations antara Utang dengan variabel terikatnya. Juga dengan variabel bebas yang lain. 

Untuk kolom Partial, ini adalah output korelasi antara variabel bebas dengan variabel terikat jika dikontrol oleh variabel bebas yang lain. Kita juga dapat mendapatkan output ini dengan menu Correlation sebagai berikut:

Menu Correlation Partial

Setelah masuk ke Partial maka akan diarahkan ke Menu sebagai berikut:

Memasukkan Variabel

Masukkan variabel Piutang dan Utang di kotak atas, dan variabel bebas yang lain di kotak bawah sebagai Control. Setelah itu klik OK sehingga akan muncul output sebagai berikut:

Output Korelasi Parsial

Nilai korelasi parsialnya adalah 0,181 yang sama persis dengan output pada regresi di atas. Telah disebutkan di atas bahwa nilai korelasi untuk deteksi multikolinearitas sebaiknya tidak digunakan untuk model dengan lebih dari 2 variabel bebas. Jadi untuk model dengan variabel bebas lebih dari 2, maka deteksi multikolinearitas disarankan menggunakan nilai Korelasi parsial ini. Korelasi parsial lebih disarankan karena nilai koefisien parsial juga memperhitungkan variabel bebas yang lain. Untuk korelasi, maka yang diperhitungkan hanya satu variabel bebas yang bersangkutan dengan variabel terikatnya.

Tampak bahwa nilai korelasi parsial relatif rendah dengan nilai tertinggi adalah sebesar 0,207 untuk variabel profit. Sebagai perbandingan, maka di kolom paling kanan adalah output Collineary diagnostics yang memuat nilai VIF dan Tolerance. Tampak bahwa tidak ada nilai VIF yang di atas 10, tertinggi adalah 2,329 untuk variabel Profit. Hasil ini selaras dengan hasil pengujian dengan korelasi parsial. Silahkan dicoba untuk melihat nilai Tolerance dan juga nilai Condition Index.

Korelasi parsial memang jarang dipergunakan sebagai identifikasi multikolinearitas. Sebenarnya bisa dipergunakan sebagai alternatif pengugjian multikolinearitas. Ingat uji multikolinearitas sebenarnya tidak mengukur ada atau tidaknya suatu multikolinearitas. Multikolinearitas pasti ada. Jadi sebenarnya kita mengukur seberapa tinggi multikolinearitas yang ada sehingga tidak mengganggu model regresi yang kita bangun.

Share:

Uji Multikolinearitas SPSS dengan Metode Farrar dan Glauber

Salah satu uji multikolinearitas adalah dengan metode Farrar dan Glauber. Metode ini memang kurang populer, kami juga tidak tahu kenapa. Memang ada beberapa kritikan terhadap metode ini, tapi sebenarnya ini tetap merupakan salah satu uji multikolinearitas yang boleh kita pelajari. Metode ini dikemukakan dalam Multicollinearity in Regression Analysis: The Problem Revisited, Review of Economics and Statistic vol. 49, 1967 pp 92 - 107.

Metode ini membandingkan antara R square model regresi yang kita miliki, dengan masing-masing R Square antara variabel bebasnya. 

Data Simulasi Uji Multikolinearitas dengan Farrar dan Glauber (1967)

Data yang kita pergunakan sama dengan data simulasi dengan VIF dan CI. Setelah kita regresikan, maka kita peroleh nilai R Square model yaitu sebagai berikut:
R Square Model Regresi

Tampak bahwa nilai R Square adalah sebesar 0,523. Lalu kita regresikan antara variabel bebasnya. Kita mempunyai 4 variabel bebas, Jumlah uang beredar, Inflasi, Suku bunga dan Nilai tukar rupiah. Maka kita mencari 4 nilai R Square, yaitu kita meregresikan:\

  1. Jumlah uang beredar terhadap Inflasi, Suku bunga dan nilai tukar rupiah.
  2. Inflasi terhadap jumlah suku bunga, nilai tukar rupiah dan jumlah uang beredar
  3. Suku bunga terhadap nilai tukar rupiah, jumlah uang beredar dan inflasi
  4. Nilai tukar rupiah terhadap jumlah uang beredar, inflasi dan suku bunga
Mari kita coba satu persatu dengan cara regresi biasa kita memperoleh nilai R Square dari masing-masing model regresi di atas:
Tampak bahwa nilai R Square adalah sebesar 0,162; 0,153; 0,058; dan 0,120. Tidak ada nilai R Square yang melebihi dari pada nilai R Square model utama yaitu sebesar 0,523. Hasil ini menunjukkan bahwa tidak terdapat gangguan multikolinearitas pada model penelitian. Hasil ini sesuai dengan hasil pengujian multikolinearitas dengan VIF atau pun dengan CI sebelumnya.

Meskipun kurang populer, silahkan dicoba. Bisa menjadi alternatif uji multikolinearitas yang lumayan berguna.
Share:

Uji Multikolinearitas dengan VIF dan CI Menggunakan SPSS Versi 23

Daftar isi:

  1. Pendahuluan
  2. Tutorial uji multikolinearitas dengan SPSS Versi 23
  3. Interpretasi VIF
  4. Interpretasi CI
  5. Kesimpulan
  6. Artikel Terkait
Pendahuluan

Uji Multikolinearitas adalah salah satu uji asumsi klasik yang melihat apakah pada model regresi terdapat korelasi yang tinggi antara variabel bebasnya atau tidak. Model regresi yang baik diharapkan tidak mempunyai korelasi yang tinggi antara variabel bebasnya. Dalam hal ini, tentunya uji multikolinearitas tidak dapat dikenakan pada model regresi linear sederhana, karena hanya menggunakan 1 variabel bebas.

Ada banyak metode uji multikolinearitas, bahkan salah satunya adalah deteksi ketika membangun model regresi. Deteksi yang lain adalah menggunakan korelasi biasa di antara variabel-variabel bebasnya, di mana korelasi yang tinggi atau di atas 0,9 sering diidentifikasikan sebagai mengalami gangguan multikolinaritas. Artikel kali ini akan membahas penggunakan metode VIF = Variance Inflation Factor, yang erat kaitannya dengan Tolerance dan juga menggunakan metode CI =  Condition Index yang erat kaitannya dengan eigenvalue.


Tutorial Uji Multikolinearitas dengan SPSS Versi 23

Berikut adalah data yang dipergunakan untuk simulasi, yaitu 96 data sebagai berikut:

Data Simulasi Uji Multikolinearitas pada Regresi Berganda

Pilih Analyze, pilih Regression, lalu klik pada Linear untuk masuk ke menu regresi. Maka akan masuk ke menu regresi sebagai berikut:

Memasukkan Variabel Penelitian dan Masuk ke Menu Statistics
Masukkan variabel terikat ke Box Dependent dan variabel bebas ke Independent(s) seperti pada gambar di atas. Lalu Klik pada Statistics pada pojok kanan atas, sehingga akan masuk ke sub menu lagi yaitu sebagai berikut:

Centang Collinearity diagnostics
Berikan tanda centang pada Collinearity diagnostic seperti pada gambar di atas. Lalu klik Continue dan klik OK sehingga akan keluar output regresi.

Interpertasi VIF

Berikut adalah output yang dipergunakan untuk menguji multikolinearitas dengan metode VIF atau Tolerance:

Output VIF atau Tolerance dengan SPSS Versi 23
Kriteria gangguan multikolinearitas adalah VIF > 10 atau Tolerance < 0,1. Tampak bahwa tidak ada variabel bebas yang mempunyai VIF > 10 atau Tolerance < 0,1. Jadi model regresi yang dibangun tidak mengalami gangguan multikolinearitas. 

Interpretasi CI

Metode lain adalah dengan Condition Index di mana gangguan terjadi jika CI di atas 30 untuk gangguan kuat dan antara 10 sd 30 untuk gangguan sedang. Berikut adalah output eigenvalue pada model regresi ini:

Output untuk CI dengan SPSS Versi 23
Nilai CI dihitung dari akar kuadrat pembagian Maximum eigenvalue dengan Minimum eigenavalue. Tampak bahwa Ci adalah akar kudrat dari 1,720 : 0,497 = 3,4608 (hanya 4 angka saja). Sehingga nilai akar kudratnya adalah CI = 1.8603. Nilai ini di bawah 10 sehingga dinyatakan bahwa tidak terdapat gangguan multikolinearitas pada model regresi. Ini sesuai dengan hasil pengujian dengan VIF.

Kesimpulan

Gangguan multikolinearitas dapat dideteksi di awal, yaitu jika ada variabel bebas yang secara teori mempunyai korelasi mempunyai kemungkinan mengalami gangguan multikolinearitas pada uji asumsi klasik. Untuk uji multikolinearitas dengan VIF dan CI ternyata memberikan hasil yang konsisten sehingga kita bisa menggunakan salah satunya saja, atau menggunakan keduanya jika ingin memperkuat hasil pengujian.

Share:

Uji Multikolinearitas pada Regresi Linear Berganda

Gangguan multikolinearitas pada analisis regresi linear berganda adalah adanya korelasi yang tinggi antara variabel bebas atau independen. Model regresi yang baik diharapkan tidak mempunyai korelasi yang tinggi di antara variabel-variabel bebasnya. Ini sangat mudah diterima, karena kita akan mengukur pengaruh antara variabel bebas terhadap variabel terikat, sehingga jika ada korelasi yang tinggi antara variabel-variabel terikat maka hasil analisis akan terganggu.

Uji multikolinearitas agak unik, berbeda dengan uji normalitas, uji heteroskedastistias atau uji autokorelasi. Tiga yang terakhir, ujinya dikenakan pada nilai residualnya. Sedangkan untuk multikolinearitas, maka ujinya dikenakan pada variabel-variabel bebas yang ada pada model tersebut. Deteksi adanya gangguan multikolinearitas sebenarnya sudah bisa dilakukan di awal, yaitu ketika melakukan telaah teori atau penyusunan model regresi di awal.

Sebagai ilustrasi, ketika menggunakan variabel rasio keuangan profitabilitas, maka variabel ROE, ROI atau pun NPM cenderung berkorelasi karena semuanya merupakan rasio profitabilitas. Jadi jika digunakan sebagai variabel bebas secara bersamaan maka cenderung mengalami gangguan multikolinearitas. Juga misalnya pada variabel ukuran perusahaan, di mana terdapat total assets, market share atau nilai kapitalisasi pasar. Ketiganya bisa dipergunakan sebagai proksi untuk mengukur kecil besarnya sebuah perusahaan. Tetapi jika ketiganya digunakan secara serempak, cenderung mengalami gangguan multikolinearitas.

Secara statistik, ada beberapa uji yang sering dipergunakan untuk menentukan apakah terdapat gangguan multikolinearitas atau tidak. 

  1. Melihat apakah ada korelasi yang tinggi (korelasi Pearson) di antara variabel-variabel bebasnya. Biasanya jika ada korelasi di atas 0,9 akan dianggap sebagai mengalami gangguan multikolinearitas.
  2. Model mempunyai R square yang tinggi, tetapi tidak ada satupun variabel bebas yang signifikan terhadap variabel terikatnya. Ini juga bisa dijadikan petunjuk awal adanya gangguan multikolinearitas pada model regresi yang dibangun.
  3. Menggunakan parameter VIF atau Tolerance. Ini metode yang sering sekali dipergunakan jika peneliti menggunakan software SPSS karena sudah tersedia menunya di program itu.
  4. Membandingkan R square dari model dengan R square dari regresi secara parsial. Jika R square model parsial ada yang lebih tinggi dari pada R square model utama, maka bisa dideteksi adanya gangguan multikolinearitas.
  5. Dengan metode Farrar dan Glauber (1967) yang berdasarkan pada nilai F hitung
  6. Menggunakan parameter Eigenvalues atau CI. Ini bisa dilakukan dengan SPSS tetapi lebih sering dipergunakan dengan software SAS.
Tidak ada metode yang dianggap paling tepat, tetapi untuk aplikasi dengan SPSS maka yang paling sering dipergunakan adalah dengan VIF atau Tolerance di mana VIF = 1/Tolerance. Adapun nilai yang sering dipergunakan adalah VIF di bawah 10 atau Tolerance di atas 0,1 yang dinyatakan sebagai model yang tidak mengalami gangguan multikolinearitas.

Grafik Penentuan nilai VIF batas

Ketika nilai r23 sekitar 0,5 maka nilai VIF atau Variance Inflation Factor hanya meningkat sekitar 1,33 kali dibandingkan jika r23 bernilai 0. Tetapi ketika nilai r23 sebesar 0,95 maka akan meningkat 10 kali. Lebih lagi ketika r23 meningkat dari 0,95 ke 0,995 maka VIF meningkat hampir 100 x. Oleh karena itu, dianggap batasnya adalah r23 0,9 atau Tolerance sebesar 0,1.

Untuk CI sering dipergunakan nilai CI > 30 yang dinyatakan sebagai gangguan multikolinearitas yang sangat kuat sedangkan antara 10 sd 30 dinyatakan moderat. Artikel mendatang, akan kita bahas secara detail tentang uji multikolinearitas.

Share:

Simulasi Multikolinearitas pada Regresi Logistik

Uji asumsi klasik yang sering dipergunakan dalam analisis regresi linear berganda adalah uji normalitas, uji heteroskedastisitas, uji autokorelasi dan uji multikolinearitas. Dari keempat uji tersebut, jika kita simak maka uji normalitas, uji heteroskedastisitas dan uji autokorelasi berkaitan dengan nilai residualnya, sedangkan uji multikolinearitas berkaitan dengan variabel bebasnya. Regresi logistik adalah regresi di mana variabel terikatnya adalah dummy, yaitu 1 dan 0. Dengan demikian, residualnya yang merupakan selisih antara nilai prediksi dengan nilai sebenarnya tidak perlu dilakukan ketiga uji tersebut. Akan tetapi untuk uji multikolinearitas, karena hanya melibatkan variabel bebas, maka masih diperlukan uji tersebut. Mannual book SPSS menuliskan ‘Preferably, your predictors should not be highly correlated’. Sedangkan untuk autokorelasi pada time series akan dibahas belakangan.

1.    Objek penelitian

Penelitian menggunakan populasi seluruh perusahaan consumer goods, food and beverages dan tobacco pada Bursa Efek Indonesia pada periode tahun 2006 sampai dengan tahun 2008, di mana berdasarkan ICMD terdapat 25 perusahaan. Penelitian ini menggunakan 7 buah variabel bebas dan 1 buah variabel terikat yaitu financial distress. Adapun variabel bebasnya adalah NPM, CR, TATO, ROE, DTA, Posisi Kas dan Pertumbuhan.


2.    Menilai kelayakan model regresi (goodness of fit)

Penelitian menggunakan analisis regresi logistik karena variabel terikat (financial distress) menggunakan variabel dummy yaitu 0 (tidak mengalami financial distress) dan 1 (mengalami financial distress). Jumlah data yang dipergunakan adalah sebanyak 25 x 3 tahun = 75 data dengan mengeluarkan 1 buah data karena tidak memenuhi kriteria. Dengan demikian data yang dipergunakan adalah sebanyak 74 buah.

Nilai -2 Log Likelihood pada Beginning Block adalah sebesar 102,369 pada iterasi ke-2. Nilai tersebut merupakan nilai Chi Square yang dibandingkan dengan nilai Chi Square pada tabel dengan df sebesar N – 1 = 74 – 1 = 73 pada taraf signifikansi 0,05 yaitu sebesar 93,945. Tampak bahwa -2 Log Likelihood > Chi Square tabel (102,369 > 93,945) yang menunjukkan bahwa terdapat perbedaan yang signifikan antara model dengan konstanta saja dengan data.

Tabel 1
Iteration History Tanpa Variabel Bebas
Iteration History Tanpa Variabel Bebas

Hal ini menunjukkan bahwa model dengan konstanta saja belum fit. Sehingga diperlukan pengujian lain yaitu dengan memasukkan variabel bebas sebanyak 7 buah sehingga mempunyai df sebesar 74 – 7 - 1 = 66 dan mempunyai nilai chi square tabel sebesar 85,965 pada signifikansi 0,05. Sedangkan nilai -2 Log Likelihood dengan memasukkan variabel bebas adalah sebagai berikut:

Tabel 2
Iteration History dengan Variabel Bebas
Iteration History dengan Variabel Bebas

Tampak bahwa nilai -2 Log Likelihood < Chi Square tabel (46,443 < 85,965) yang menunjukkan bahwa model dengan memasukkan variabel bebas adalah fit dengan data. Hal ini menunjukkan bahwa model layak untuk dipergunakan. Jika ingin melihat selisih dari kedua nilai di atas yaitu antara Blok 0 dengan Blok 1, maka dilakukan dengan mengurangkan nilainya yaitu 102,369 – 46,443 = 55,926 dan Program SPSS juga menampilkan selisih tersebut yaitu sebagai berikut:

Tabel 3
Omnibus Test
Omnibus Test
Tampak bahwa selisihnya adalah sebesar 55,926 dengan signifikansi sebesar 0,000 (< 0,05) yang menunjukkan bahwa penambahan variabel bebas memberikan pengaruh nyata terhadap model, atau dengan kata lain model dinyatakan fit. Lebih lanjut, untuk melihat apakah data empiris cocok dengan model (tidak ada perbedaan antara model dengan data) dilakukan dengan melihat nilai Hosmer and Lemeshow Test yaitu sebagai berikut:

Tabel 4
Hosmer and Lemeshow Test
Hosmer and Lemeshow Test
Nilai Chi Square tabel untuk df 8 pada taraf signifikansi 0,05 adalah sebesar 15,507 sehingga Chi Square hitung < Chi Square tabel (2,692 < 15,507). Tampak juga bahwa nilai signifikansi adalah sebesar 0,952 (> 0,05) yang menunjukkan bahwa model dapat diterima dan pengujian hipotesis dapat dilakukan.

Untuk melihat kemampuan variabel bebas dalam menjelaskan varians financial distress, digunakan nilai Cox dan Snell R Square dan Nagelkerke R Square. Nilai Nagelkerke R Square sebesar 0,708 yang lebih besar dari pada Cox dan Snell R Square, yang menunjukkan bahwa kemampuan ketujuh variabel bebas dalam menjelaskan varians financial distress adalah sebesar 70,8% dan terdapat 29,2% faktor lain yang menjelaskan varians financial distress.

Tabel 5
Model Summary
Model Summary

Untuk melihat ketepatan model yang dibentuk dilihat dengan Klasifikasi tabel sebagai berikut:

Tabel 6
Classification Table
Classification Table

Sampel yang tidak mengalami financial distress (0) adalah sebanyak 35 perusahaan. Hasil prediksi model pada Tabel di atas adalah 30 perusahaan tidak mengalami financial distress (0) dan 5 mengalami financial distress (1). Berarti terdapat 5 prediksi yang salah sehingga prediksi yang benar adalah sebanyak 30/35 = 85,7%. Sedangkan untuk perusahaan yang melakukan mengalami financial distress, dari 39 sampel hanya 3 perusahaan yang diprediksi tidak sesuai oleh model penelitian sehingga kebenaran model untuk perusahaan yang mengalami financial distress adalah sebesar 36/39 = 92,3%. Dengan demikian tabel di atas memberikan nilai overall percentage sebesar (30+36)/74 = 89,2% yang berarti ketepatan model penelitian ini adalah sebesar 89,2%.

3.    Pengujian Hipotesis

Setelah diperoleh model yang fit terhadap data, maka langkah selanjutnya adalah dilakukan uji hipotesis. Pengujian hipotesis dilakukan untuk menjawab pertanyaan penelitian ini.
Tabel 7
Pengujian Hipotesis
Pengujian Hipotesis

Dengan menggunakan tingkat kepercayaan 90% maka yang dinyatakan signifikan adalah NPM (Sig. 0,001) dan ROA (Sig. 0,000) terhadap financial distress. Jika dilihat dari koefisiennya (B) maka tampak bahwa koefisien NPM adalah positif yang berarti bahwa semakin tinggi NPM berarti semakin tinggi pula kemungkinan mengalami distress. Sedangkan ROA mempunyai koefisien negatif yang menunjukkan bahwa semakin tinggi ROA maka semakin rendah kemungkinan perusahaan mengalami distress.

Sampai di sini, kita punya pertanyaan penting, Apakah benar semakin tinggi NPM berarti semakin tinggi perusahaan mengalami financial distress. Silahkan Anda rujuk kepada teori yang ada. Jika Anda tidak yakin akan hal itu, silahkan lihat tabel di bawah:

Tabel 8
Korelasi antar Variabel Bebas dengan ROA
Korelasi antar Variabel Bebas dengan ROA

Tampak jelas bahwa korelasi antara ROA dengan NPM adalah 0,970 (tanda minus kita abaikan) yang berarti bahwa terdapat korelasi yang tinggi antara kedua variabel tersebut sehingga mengganggu model penelitian. Anda dapat melakukan modifikasi terhadap model, tentunya dengan justifikasi teori atau rujukan yang kuat. Karena ini hanya simulasi, maka modifikasi dilakukan dengan mengganti variabel ROA dengan ROE yang keduanya mengukur profitabilitas. Sehingga tabulasi korelasinya adalah sebagai berikut:

Tabel 9
Korelasi antar Variabel Bebas dengan ROE
Korelasi antar Variabel Bebas dengan ROE

Tampak bahwa tidak ada variabel bebas yang saling mempunyai korelasi yang tinggi sehingga tidak ada gangguan multikolinearitas pada model penelitian. Secara singkat, hasil estimasi model adalah sebagai berikut:

Tabel 10





Output tanpa Korelasi Tinggi antar Variabel Bebas
Output tanpa Korelasi Tinggi antar Variabel Bebas
   
Tampak bahwa semua asumsi yang diperlukan tetap terpenuhi pada model dengan ROE yang menggantikan ROA. Selain itu, NPM dan TATO mempunyai pengaruh negatif terhadap financial distress.

Penting untuk dicatat, bahwa simulasi ini hanya bertujuan untuk menunjukkan bahwa asumsi multikolinearitas masih diperlukan pada regresi logistik.
Share:

Simulasi Uji Multikolinearitas

Gangguan multikolinearitas terjadi jika dalam sebuah model terdapat korelasi yang tinggi antara dua atau lebih variabel bebas. Logikanya sederhana, jika anda ingin mencari pengaruh antara A, B dan C terhadap D, maka seharusnya tidak ada korelasi (yang tinggi) baik antara A dengan B, A dengan C atau pun antara B dengan C. Jika terdapat korelasi yang tinggi antara variabel bebas, maka terjadi gangguan multikolinearitas.

Ada beberapa cara pengujian gangguan multikolinearitas, di antaranya dengan mencari korelasi secara langsung antara masing-masing variabel bebas, bisa juga menggunakan Variance Inflation Factor yang biasanya juga dengan Tolerance, dengan Condition Index dan Eigenvalue atau dengan metode yang lain seperti Farrar dan Glauber atau dengan korelasi parsial.

Berikut adalah video simulasi uji multikolinearitas beserta dengan data contohnya:
Share:

Penanggulangan Multikolinearitas dengan First Difference Delta

Penanggulanan gangguan multikolinearitas secara lengkap (tetapi singkat) telah dibahas pada naskah sebelumnya. Dari enam langkah tersebut (sebenarnya ada lebih dari 6 langkah) mungkin hanya ada satu langkah yang akan paling enak digunakan. Mengapa? Karena langkah yang lain berkaitan dengan penambahan sampel, atau pengubahan model penelitian. Hal tersebut akan terbatas sekali dilakukan karena berarti juga akan mengubah tinjauan teoretis yang telah dilakukan sebelumnya. Langkah yang mungkin tidak perlu mengganti model penelitian atau teori adalah langkah transformasi. Langkah menghilangkan salah satu variabel yang terkena gangguan multikolinearitas juga sering dilakukan, tetapi tidak akan dibahas di sini karena langkahnya cukup jelas. Yaitu cari VIF tertinggi, lalu keluarkan dari model penelitian.
model first difference delta merupakan salah satu metode penanggulangan gangguan multikolinearitas
Simulasi Gambar Multikolinearitas

Pelaksanaan transformasi variabel dilakukan dengan, misalnya ada model persamaan regresi seperti ini:

Y = Bi + B2 X1 + B3 X2 + e

Setelah dianalisis ternyata ada gangguan multikolinearitas serius antara X1 dan X2 maka dianalisis ulang dengan data transformasi sebagai berikut:

Y* = Yi – Yi – 1
X1* = X1 – X1(i-1)
X2* = X2 – X2(i-1)

Itu sederhana kok. Begini. Dalam satu variabel, kan ada urutan data dari 1 sampai katakanlah 100. Lalu begini, data kedua dikurangi data pertama. Bisa kan? Kurangi saja, mau pake kalkulator, atau Excel, atau pake manual juga boleh. Hasil pengurangan tersebut merupakan data pertama pada variabel transformasi. Kemudian data ketiga dikurangi data kedua, dan menjadi data kedua pada variabel transformasi. Demikian seterusnya sampai selesai. Berarti jika terdapat 100 data pada variabel awal, maka variabel transformasi akan menjadi 99 (berkurang 1). Yup???

Lakukan pada semua variabel sehingga model regresi seperti ini:

Y* = Bi + B2 X1* + B3 X2* + e

Lalu lakukan uji multikolinearitas lagi. Transformasi data tadi sering disebut dengan istilah gaul dengan First difference delta. Kalau dengan transformasi tadi masih terdapat gangguan multikolinearitas, maka kurangkanlah sekali lagi, sehingga data menjadi 98 yang sering disebut second difference delta. Dan jika masih terdapat gangguan multikolinearitas lagi, ya keluarkan saja variabel yang mempunyai nilai VIF tertinggi.

O ya, sebenarnya gangguan multikolinearitas harus dideteksi dari awal ketika menyusun model regresi. Misalnya pada penelitian Bursa Efek Indonesia (BEI) variabel yang akan terkena gangguan multikolinearitas misalnya ROA dan ROE karena sama-sama menggunakan earning after tax sebagai penyebut rasio. Tapi itu juga tidak mesti lho….hanya kecenderungan saja.

Kadang-kadang juga ada transformasi variabel menjadi variabel dummy. Dummy itu variabel yang datanya hanya berisi 0 dan 1. Caranya gampang, cari nilai tengahnya, lalu yang lebih kecil dari nilai tengah diganti dengan 0, yang lebih besar dari pada nilai tengah diganti dengan 1. Lalu coba cek nilai VIF lagi dengan regresi. Atau misalnya jika variabel tersebut berisi data positif dan negatif, misalnya laba, bisa juga dilakukan 0 untuk perusahaan yang rugi dan 1 untuk perusahaan yang untung. Juga masih ada cara penanggulangan multikolinearitas lain tanpa menghilangkan salah satu variabel yaitu dengan Generalized Least Square (GLS).
Share:

Penanggulangan Gangguan Uji Multikolinearitas SPSS pada Analisis Regresi Linear Berganda

Secara umum, tindakan perbaikan terhadap multikolinearitas dapat dilakukan sebagai berikut.
penanggulangan multikolineritas dapat dilakukan dengan transformasi, trimming data outliers, memodifikasi persamaan, atau menambah data atau variabel
Simulasi Gambar Multikolinearitas

1. Adanya informasi sebelumnya. Misal kita mempunyai model sebagai berikut.

Yi = B1 + B2 X2i + B3 X3i + Îi
Y = konsumsi
X2 = pendapatan
X3 = kekayaan

Telah disebutkan bahwa pendapatan dan kekayaan mempunyai kolineritas yang tinggi, tetapi misalnya kita memperoleh informasi sebelumnya sehingga kita mempunyai kepercayaan bahwa B3 = 0,1B2 dengan tingkat perubahan konsumsi terhadap perubahan kekayaan sepersepuluh dari tingkat perubahan terhadap pendapatan. Sehingga modelnya menjadi :

Yi = B1 + B2 X2i + B3 X3i + Îi
Yi = B1 + B2 Xi + Îi
Di mana:
Xi = X2i + 0,1X3i

Begitu kita menghitung b2 sebagai perkiraan B2 maka b3 sebagai perkiraan B3 secara otomatis dapat diketahui berdasarkan informasi bahwa B3 = 0,1 B2. Ini sering disebut sebagai Apriori, atau kita telah mempunyai informasi yang benar-benar bisa dipercaya dan dipertanggung jawabkan.

2. Menghubungkan data cross sectional dan data urutan waktu, yang dikenal sebagai penggabungan data (pooling the data). Misalkan kita ingin mempelajari permintaan mobil di suatu negara dan kita mempunyai data tentang banyaknya mobil yang dijual, rata-rata harga mobil, dan pendapatan konsumen.

InYt = B1 + B2 In X2t + B3 In X3t + Îi

Dimana:
Yt = banyaknya mobil yang dijual
X2 = rata-rata harga mobil
X3 = pendapatan konsumen

Tujuan kita adalah menduga elastisitas harga B2 dan elastisitas pendapatan B3. Dalam data runtut waktu variabel harga dan pendapatan cenderung untuk berkolinearitas. Oleh karena itu, kalau kita melakukan regresi maka dihadapkan pada masalah multikolinearitas. Jalan keluar mengenai masalah ini adalah dengan mendapatkan dugaan yang dapat dipercaya dari elastisitas pendapatan B3, karena dalam data seperti itu, pada suatu titik waktu, harga tidak banyak berubah. Misalkan elastisitas pendapatan yang diduga menggunakan data seksi silang adalah B3*. Dengan menggunakan dugaan, regresi runtut waktu tadi dapat ditulis sebagai berikut.

Yt* = B1 + B2 In X2t + mt

Dimana Yt* = In Yt – B3* In X3t dan menyatakan nilai Y setelah menghilangkan pengaruh pendapatan darinya. Sekarang kita dapat memperoleh suatu dugaan dari elastisitas harga B2 dari regresi tadi.

Teknik ini bisa menciptakan masalah dalam interpretasi, karena secara implisit kita mengasumsikan bahwa elastisitas pendapatan yang diduga dengan cara seksi silang adalah elastisitas yang sama akan diperoleh dari analisis runtut waktu. Meskipun demikian, teknik tadi layak dipertimbangkan dalam situasi di mana dugaan seksi silang tidak berbeda banyak dari satu seksi silang ke seksi silang lainnya.

3. Mengeluarkan satu variabel atau lebih. Jika dipandang telah terjadi gangguan multikolinearitas yang serius pada fungsi regresi yang dianalisis maka cara untuk menanggulanginya adalah dengan mengeluarkan salah satu dari dua variabel bebas yang mempunyai nilai korelasi relatif tinggi dengan variabel bebas yang lain (misalnya > 0,8).

4. Transformasi variabel. Menganalisis ulang model regresi yang sama, tetapi dengan nilai variabel-variabel yang telah ditransformasikan, sehingga diharapkan gangguan multikolinearitas dapat diatasi. Misalnya, model yang dianggap benar secara teoritis adalah
Yi = Bi + B2 X2i + B3 X3i + Îi
Setelah dianalisis ternyata ada gangguan multikolinearitas serius antara X2 dan X3 maka dianalisis ulang dengan data transformasi sebagai berikut.
Y* = Yi – Yi – 1
X2* = X2i – X2(i-1)
X3* = X3i – X3(i-1)

5. Penambahan data baru. Cara preventif yang sederhana dilakukan adalah dengan mempersiapkan sampel data yang cukup besar sehingga dapat mengurangi kemungkinan terjadinya gangguan multikolinearitas yang serius di antara variabel bebas. Hal ini sangat penting dilakukan, mengingat semakin sedikit sampel yang diambil dalam penelitian akan cenderung meningkatkan adanya gangguan.

6. Cara lain dengan backward combination analysis. Caranya adalah dengan meregresikan secara berulang-ulang variabel tak bebas dengan pasangan-pasangan variabel bebas yang kombinasinya berbeda-beda. Signifikan (bi) yang paling banyak dijumpai pada salah satu analisis tersebut dapat dijadikan model untuk pengambilan keputusan, dengan asumsi gangguan-gangguan lainnya tidak diperoleh. Cara ini mudah dilakukan dengan bantuan paket komputer, tetapi rumit jika harus dilakukan secara manual.

Share:

Uji Asumsi Klasik

Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis regresi linear yang berbasis ordinary least square (OLS). Jadi analisis regresi yang tidak berdasarkan OLS tidak memerlukan persyaratan asumsi klasik, misalnya regresi logistik atau regresi ordinal. Demikian juga tidak semua uji asumsi klasik harus dilakukan pada analisis regresi linear, misalnya uji multikolinearitas tidak dilakukan pada analisis regresi linear sederhana dan uji autokorelasi tidak perlu diterapkan pada data cross sectional.
uji normalitas dengan histogram dengan SPSS Versi 26
Histogram Uji Normalitas

Uji asumsi klasik juga tidak perlu dilakukan untuk analisis regresi linear yang bertujuan untuk menghitung nilai pada variabel tertentu. Misalnya nilai return saham yang dihitung dengan market model, atau market adjusted model. Perhitungan nilai return yang diharapkan dapat dilakukan dengan persamaan regresi, tetapi tidak perlu diuji asumsi klasik.

Simak juga Playlist Uji Asumsi Klasik untuk pengalaman lebih intens 

Uji asumsi klasik yang sering digunakan yaitu uji multikolinearitas, uji heteroskedastisitas, uji autokorelasi dan uji linearitas. Uji normalitas sebenarnya tidak termasuk dalam uji asumsi klasik karena dibahas tersendiri. Tidak ada ketentuan yang pasti tentang urutan uji mana dulu yang harus dipenuhi. Analisis dapat dilakukan tergantung pada data yang ada. Sebagai contoh, dilakukan analisis terhadap semua uji asumsi klasik, lalu dilihat mana yang tidak memenuhi persyaratan. Kemudian dilakukan perbaikan pada uji tersebut, dan setelah memenuhi persyaratan, dilakukan pengujian pada uji yang lain.

Daftar Isi:


1. Uji Normalitas

Uji normalitas adalah untuk melihat apakah nilai residual terdistribusi normal atau tidak. Model regresi yang baik adalah memiliki nilai residual yang terdistribusi normal. Jadi uji normalitas bukan dilakukan pada masing-masing variabel tetapi pada nilai residualnya. Sering terjadi kesalahan yang jamak yaitu bahwa uji normalitas dilakukan pada masing-masing variabel. Hal ini tidak dilarang tetapi model regresi memerlukan normalitas pada nilai residualnya bukan pada masing-masing variabel penelitian.

Pengertian normal secara sederhana dapat dianalogikan dengan sebuah kelas. Dalam kelas siswa yang bodoh sekali dan pandai sekali jumlahnya hanya sedikit dan sebagian besar berada pada kategori sedang atau rata-rata. Jika kelas tersebut bodoh semua maka tidak normal, atau sekolah luar biasa. Dan sebaliknya jika suatu kelas banyak yang pandai maka kelas tersebut tidak normal atau merupakan kelas unggulan. Pengamatan data yang normal akan memberikan nilai ekstrim rendah dan ekstrim tinggi yang sedikit dan kebanyakan mengumpul di tengah. Demikian juga nilai rata-rata, modus dan median relatif dekat.

Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, Skewness dan Kurtosis, Uji Jarque Berra, uji Liliefors yang berdasarkan pada uji Kolmogorov Smirnov, uji Shapiro-Wilk atau yang lain. Tidak ada metode yang paling baik atau paling tepat. Tipsnya adalah bahwa pengujian dengan metode grafik sering menimbulkan perbedaan persepsi di antara beberapa pengamat, sehingga penggunaan uji normalitas dengan uji statistik bebas dari keragu-raguan, meskipun tidak ada jaminan bahwa pengujian dengan uji statistik lebih baik dari pada pengujian dengan metode grafik.

Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya signifikansi pada uji Liliefors yang berdasarkan pada Kolmogorov Smirnov sebesar 0,049) maka dapat dicoba dengan metode lain yang mungkin memberikan justifikasi normal. Tetapi jika jauh dari nilai normal, maka dapat dilakukan beberapa langkah yaitu: melakukan transformasi data, melakukan trimming data outliers atau menambah data observasi. Transformasi dapat dilakukan ke dalam bentuk Logaritma natural, akar kuadrat, inverse, atau bentuk yang lain tergantung dari bentuk kurva normalnya, apakah condong ke kiri, ke kanan, mengumpul di tengah atau menyebar ke samping kanan dan kiri.

Sebenarnya uji normalitas bukan termasuk dalam uji asumsi klasik, tetapi diperlukan dalam satistik parametrik dan juga regresi linear.


2. Uji Multikolinearitas

Uji multikolinearitas adalah untuk melihat ada atau tidaknya korelasi yang tinggi antara variabel-variabel bebas dalam suatu model regresi linear berganda. Jika ada korelasi yang tinggi di antara variabel-variabel bebasnya, maka hubungan antara variabel bebas terhadap variabel terikatnya menjadi terganggu. Sebagai ilustrasi, adalah model regresi dengan variabel bebasnya motivasi, kepemimpinan dan kepuasan kerja dengan variabel terikatnya adalah kinerja. Logika sederhananya adalah bahwa model tersebut untuk mencari pengaruh antara motivasi, kepemimpinan dan kepuasan kerja terhadap kinerja. Jadi tidak boleh ada korelasi yang tinggi antara motivasi dengan kepemimpinan, motivasi dengan kepuasan kerja atau antara kepemimpinan dengan kepuasan kerja.

Alat statistik yang sering dipergunakan untuk menguji gangguan multikolinearitas adalah dengan variance inflation factor (VIF), korelasi pearson antara variabel-variabel bebas, Farrar dan Glauber atau dengan melihat eigenvalues dan condition index (CI).

Beberapa alternatif cara untuk mengatasi masalah multikolinearitas adalah sebagai berikut:
1. Mengganti atau mengeluarkan variabel yang mempunyai korelasi yang tinggi.
2. Menambah jumlah observasi.
3. Mentransformasikan data ke dalam bentuk lain, misalnya logaritma natural, akar kuadrat atau bentuk first difference delta.



3. Uji Heteroskedastisitas

Uji heteroskedastisitas adalah untuk melihat apakah terdapat ketidaksamaan varians dari residual satu ke pengamatan ke pengamatan yang lain. Model regresi yang memenuhi persyaratan adalah di mana terdapat kesamaan varians dari residual satu pengamatan ke pengamatan yang lain tetap atau disebut homoskedastisitas.

Deteksi heteroskedastisitas dapat dilakukan dengan metode scatter plot dengan memplotkan nilai ZPRED (nilai prediksi) dengan SRESID (nilai residualnya). Model yang baik didapatkan jika tidak terdapat pola tertentu pada grafik, seperti mengumpul di tengah, menyempit kemudian melebar atau sebaliknya melebar kemudian menyempit. Uji statistik yang dapat digunakan adalah uji Glejser, uji Park, rank Spearman atau uji White.

Beberapa alternatif solusi jika model menyalahi asumsi heteroskedastisitas adalah dengan mentransformasikan ke dalam bentuk logaritma, yang hanya dapat dilakukan jika semua data bernilai positif. Atau dapat juga dilakukan dengan membagi semua variabel dengan variabel yang mengalami gangguan heteroskedastisitas.


4. Uji Autokorelasi

Uji autokorelasi adalah untuk melihat apakah terjadi korelasi antara suatu periode t dengan periode sebelumnya (t - 1). Secara sederhana adalah bahwa analisis regresi adalah untuk melihat pengaruh antara variabel bebas terhadap variabel terikat, jadi tidak boleh ada korelasi antara observasi dengan data observasi sebelumnya. Sebagai contoh adalah pengaruh antara tingkat inflasi bulanan terhadap nilai tukar rupiah terhadap dollar. Data tingkat inflasi pada bulan tertentu, katakanlah bulan Februari, akan dipengaruhi oleh tingkat inflasi bulan Januari. Berarti terdapat gangguan autokorelasi pada model tersebut. Contoh lain, pengeluaran rutin dalam suatu rumah tangga. Ketika pada bulan Januari suatu keluarga mengeluarkan belanja bulanan yang relatif tinggi, maka tanpa ada pengaruh dari apapun, pengeluaran pada bulan Februari akan rendah.

Uji autokorelasi hanya dilakukan pada data time series (runtut waktu) dan tidak perlu dilakukan pada data cross section seperti pada kuesioner di mana pengukuran semua variabel dilakukan secara serempak pada saat yang bersamaan. Model regresi pada penelitian di Bursa Efek Indonesia di mana periodenya lebih dari satu tahun biasanya memerlukan uji autokorelasi.

Beberapa uji statistik yang sering dipergunakan adalah uji Durbin-Watson, uji dengan Run Test dan jika data observasi di atas 100 data sebaiknya menggunakan uji Lagrange Multiplier atau dengan Box Pierce dan Ljung Box. Beberapa cara untuk menanggulangi masalah autokorelasi adalah dengan mentransformasikan data atau bisa juga dengan mengubah model regresi ke dalam bentuk persamaan beda umum (generalized difference equation). Selain itu juga dapat dilakukan dengan memasukkan variabel lag dari variabel terikatnya menjadi salah satu variabel bebas, sehingga data observasi menjadi berkurang 1.


5. Uji Linearitas


Uji linearitas dipergunakan untuk melihat apakah model yang dibangun mempunyai hubungan linear atau tidak. Model yang dibentuk dalam regresi linear harus berdasarkan telaah teoretis bahwa hubungan antara variabel bebas dengan variabel terikatnya adalah linear. Hubungan antar variabel yang secara teori bukan merupakan hubungan linear sebenarnya sudah tidak dapat dianalisis dengan regresi linear, misalnya masalah elastisitas.

Jika ada hubungan antara dua variabel yang belum diketahui apakah linear atau tidak, uji linearitas tidak dapat digunakan untuk memberikan adjustment bahwa hubungan tersebut bersifat linear atau tidak. Uji linearitas digunakan untuk mengkonfirmasikan apakah sifat linear antara dua variabel yang diidentifikasikan secara teori sesuai atau tidak dengan hasil observasi yang ada. Uji linearitas dapat menggunakan uji Durbin-Watson, Ramsey Test atau uji Lagrange Multiplier.

Share:

Artikel Terbaru

Translate

Instagram

Instagram
Gabung Instagram Kami

Artikel Terbaru

Jual Data Laporan Keuangan Perusahaan yang Listing di BEI Tahun 2020

Setiap perusahaan yang telah go public wajib untuk menyerahkan laporan keuangan ke badan otoritas, sebagai salah satu bentuk pertanggungjawa...

Artikel Populer Seminggu Terakhir

Komentar Terbaru

`

Ingin menghubungi kami untuk kerja sama?

Nama

Email *

Pesan *