Mengapa Menggunakan Statistik Non Parametris

Statistik non parametrik dikenakan pada data yang berbentuk nominal atau ordinal, atau bisa juga kepada data berbentuk interval atau rasio, di mana asumsi pada statistik parametrik tidak terpenuhi. Selain itu, statistik non parametrik juga dapat digunakan untuk jumlah sampel yang kecil, di mana tidak dimungkinkan untuk menambah jumlah sampel. Tidak ada ukuran yang jelas tentang besar kecilnya jumlah sampel, tapi banyak para ahli yang menyatakan bahwa di bawah 30 sebagai sampel kecil.
Kurva Tidak Normal
Kurva Tidak Normal
Beberapa alasan menggunakan statistik non parametrik adalah sebagai berikut: (Castellan, 1998)
  1. Ukuran sampel relatif kecil. Banyak kasus dalam penelitian di mana tidak mungkin lagi menambahkan jumlah sampel dengan berbagai pertimbangan. Salah satu contohnya adalah kasus-kasus dalam dunia medis.
  2. Statistik non parametrik memiliki asumsi yang relatif sedikit berkaitan dengan data dibandingkan statistik parametrik.
  3. Statistik non parametrik dapat digunakan untuk menganalisis data dalam bentuk ranking atau ordinal. Banyak kasus dalam penelitian, di mana peneliti harus menyatakan bahwa variabel A lebih tinggi (atau lebih rendah) dari pada variabel B, tanpa mengetahui seberapa besar ukuran A dibandingkan ukuran B. Contoh lain, juara 1 suatu lomba tidak diketahui seberapa perbandingannya dengan juara 2 atau juara 3, demikian seterusnya.
  4. Statistik non parametrik cocok digunakan untuk menganalisis data yang bersifat klasifikasi atau kategorikal, di mana dalam praktek banyak ketersediaan data dalam bentuk klasifikasi.
  5. Statistik non parametrik menyediakan analisis yang cocok untuk menguji sampel yang berasal dari observasi yang diambil dari populasi yang berbeda.
  6. Statistik non parametrik secara umum lebih bersifat sederhana dan menggunakan teknik perhitungan yang lebih sederhana dari pada statistik parametrik.
Akan tetapi tidak dapat dikatakan bahwa statistik non parametrik lebih atau kurang dibandingkan statistik parametrik. Keduanya saling melengkapi dan masing-masing dapat dipergunakan sesuai dengan kondisi atau ketersediaan data yang ada.
Share:

Olah Data dengan Lisrel

LISREL merupakan salah satu program yang dirancang untuk menyelesaikan Structural Equation Modelling (SEM) Berbasis Covariance. Bahkan mungkin (?) salah satu yang paling canggih di antara program sejenis. LISREL juga lah yang mengembangkan notasi yang dipergunakan dalam SEM dan beberapa program sejenis menggunakan notasi tersebut, di antaranya Program AMOS (Analysis of Moment Structure).
Gambar Lisrel
Gambar Lisrel

LISREL mempunyai kemampuan untuk menyelesaikan persamaan struktural yang relatif rumit, karena pengguna tidak perlu menggambarkan path diagramnya, tetapi hanya menuliskan notasinya, dan Program akan secara otomotis menggambarkan model yang kita bentuk. Hal ini akan memudahkan kita dalam melakukan estimasi, mengingat keterbatasan layar monitor yang tersedia, sehingga kita sering kesulitan untuk menggambarkan model penelitian kita. Akan tetapi, LISREL juga dirancang untuk melakukan penggambaran path diagram.

Dengan menggunakan cara script, memang akan memberikan kesulitan bagi pengguna, karena harus menghapalkan notasi-notasi yang dipergunakan. Selain itu, script yang dipergunakan bersifat sensitif, sehingga salah ketik membuat program menjadi error. Bahkan penggunaan huruf besar dan huruf kecil merupakan hal yang penting dalam penulisan sricpt.

LISREL telah menyediakan menu untuk analisis data yang tidak normal, misalnya data ordinal. Program LISREL akhir-akhir ini mempunyai menu untuk analisis faktor dengan menggunakan data ordinal.
Share:

Tipe Data

Sumber data dalam berbagai analisis ekonometrika tergantung kepada ketersediaan data yang layak. Tipe data bukanlah skala pengukuran statistik. Berikut adalah beberapa tipe data dalam analisis empiris (Gujarati, 2004:25-28)

Data time series

Sering disebut juga dengan data runtut waktu yaitu merupakan rangkaian observasi pada suatu nilai yang diambil pada waktu yang berbeda. Data tersebut dapat dikumpulkan secara berkala pada interval waktu tertentu, misalnya harian, mingguan, bulanan, atau tahunan. Meskipun data time series sering digunakan dalam penelitian ekonomi, sebenarnya data time series sering menimbulkan masalah dalam analisisnya, terutama masalah stationary. Secara singkat data yang tidak stasioner adalah data di mana nilai rata-rata dan variansnya tidak sistematis dalam kurun waktu tertentu.
Simulasi Data Panel, Time Series atau Cross Section
Simulasi Data Panel, Time Series atau Cross Section

Data Cross Section

Data cross section adalah data dari satu atau lebih variabel yang dikumpulkan dalam waktu yang sama, misalnya sensus penduduk. Data tipe ini juga mempunyai permasalahan lain yaitu masalah heterogenitas. Misalnya pengukuran data gaji karyawan dari berbagai kota, ada di antaranya yang terlalu tinggi nilainya dan ada di antaranya yang terlalu rendah nilainya.

Pooled Data

Secara sederhana, pooled data adalah kombinasi antara data time series dan data cross section. Contohnya adalah data beberapa rasio keuangan dari beberapa perusahaan dalam rentang beberapa tahun atau periode tertentu.

Data Panel

Data panel adalah bentuk khusus dari pooled data. Data panel juga sering disebut dengan longitudinal atau micropanel data. Tipe data panel adalah pooled data dengan unit cross sectional yang sama, misalnya unit keluarga atau perusahaan.
Share:

Olah Data dengan SPSS

Program SPSS memang merupakan salah satu program statistik yang banyak digunakan dalam berbagai penelitian, terutama di Indonesia. Pada awalnya, SPSS merupakan singkatan dari Statistical Program for Social Science. Dalam perkembangannya, ternyata banyak sekali bidang ilmu di luar sosial yang juga menggunakan program SPSS. Sehingga SPSS berubah singkatan menjadi Statistical Package for Service Solutions. Sebenarnya sama, hanya menghilangkan ilmu sosial, karena memang banyak sekali bidang ilmu di luar sosial yang juga menggunakan program SPSS.
Gambar Olah Data dengan SPSS Versi 26
Gambar Olah Data dengan SPSS Versi 26

Dalam perkembangannya, SPSS telah mengakuisisi program AMOS (Analysis of Moment Structure) yang merupakan program yang dirancang untuk menyelesaikan analisis Structural Equation Modelling (SEM) berbasis covariance. Program sejenis yang juga terkenal di antaranya adalah LISREL atau Linear Structural Relation. Dengan demikian AMOS yang tadinya berdiri sendiri menjadi menggunakan bendera SPSS. Sebaliknya, dengan mengakuisisi AMOS, maka SPSS menjadi lebih lengkap karena mempunyai program untuk menyelesaikan SEM.

Akhir-akhir ini, akhirnya SPSS ganti diakuisisi oleh IBM dan juga berganti nama menjadi PASW atau Predictive Analysis Soft Ware. Meskipun di bawah bendera IBM, akan tetapi sebenarnya SPSS tidak berubah, kecuali ada perbaikan dalam versi-versi yang terbaru. Dalam versi terbaru memang ada beberapa pengembangan, misalnya penggunaan bootstrapping yang sebelumnya belum tersedia menu secara user friendly.

Bagi Anda yang akan melakukan analisis data atau olah data dengan menggunakan program SPSS, penggunaan versi terbaru memang boleh-boleh saja. Menggunakan program versi lama juga tidak terlalu menimbulkan masalah, karena kebanyakan perubahan hanya pada tampilan saja. Akan tetapi, jika Anda ingin menggunakan versi terbaru juga tidak ada masalah.

Salah satu kelebihan utama dari SPSS adalah kemudahan penggunaan atau user friendly, tidak lebih tidak kurang. Hampir semua metode yang jamak digunakan, misalnya analisis regresi, uji beda, atau statistik deskriptif telah disediakan menu sehingga pengguna tinggal memberikan tanda centang (tick mark) saja. Hal ini berbeda dengan program lain misalnya LISREL atau STATA yang belum se-interactive seperti SPSS. Aplikasi LISREL atau STATA memerlukan script sehingga pengguna sering sulit menghapalkannya. Akan tetapi jika diperlukan, SPSS juga masih menyediakan syntax sehingga pengguna tingkat lanjut masih tetap dapat mengaplikasikannya.
Share:

Regresi dan Korelasi

Regresi dan Sebab Akibat


Meskipun analisis regresi berkaitan dengan ketergantungan dari suatu variabel kepada variabel lain, tidak berarti bahwa hal itu merupakan hubungan sebab akibat (causation). Kendal dan Stuart (M. G. Kendall and A. Stuart, The Advanced Theory of Statistics, Charles Griffin Publishers, New York, 1961, vol. 2, chap. 26, p. 279) mengatakan bahwa ‘Sebuah hubungan statistik, meskipun kuat dan sugestive, akan tetapi tidak pernah dapat membentuk suatu hubungan sebab akibat, karena hubungan sebab akibat berasal dari teori atau sumber lain.
Simulasi Korelasi Positif dan Negatif
Simulasi Korelasi Positif dan Negatif
Dalam contoh hasil panen, tidak ada alasan statistik yang mengatakan bahwa hujan tidak tergantung pada hasil panen. Faktanya adalah bahwa hasil panen merupakan variabel yang tergantung pada curah hujan yang bukan merupakan hasil dari analisis statistik. Kita tidak dapat mengontrol curah hujan dengan memberikan variasi pada hasil panen.

Jadi sebuah hubungan statistik tidak dapat dilogika sebagai hubungan sebab akibat. Untuk menggambarkan hubungan sebab akibat (kausalitas), kita harus menggunakan teori terlebih dahulu. Atau contoh lain yaitu bahwa kita mengatakan pengeluaran tergantung dari pendapatan adalah berdasarkan teori ekonomi (bukan pertimbangan statistik). Akan tetapi, analisis regresi juga berdasarkan asumsi bahwa model yang digunakan dalam analisis adalah sebuah model yang benar. Oleh karena itu, arah hubungan sebab akibat tersirat secara implisit dalam bentuk model yang dipostulatkan (postulat: pernyataan yang dianggap benar, sampai ada bukti yang menyatakan bahwa pernyataan itu salah atau aksioma).

Regresi dan Korelasi

Pernyataan yang sering kita dengan adalah bahwa regresi dimengerti dengan kata kunci pengaruh, dan korelasi dimengerti dengan kata kunci hubungan. Pengertian sederhana itu tidaklah salah, akan tetapi, tidak ada salahnya juga kita memahami secara lebih lanjut tentang regresi dan korelasi.

Analisis korelasi berkaitan erat dengan regresi, tetapi secara konsep berbeda dengan analisis regresi. Analisis korelasi adalah mengukur suatu tingkat atau kekuatan hubungan linear antara dua variabel. Koefisien korelasi adalah mengukur kekuatan hubungan linear. Sebagai contoh, kita tertarik untuk menemukan korelasi antara merokok dengan penyakit kanker, berdasarkan penjelasan statistik dan matematika, pada anak sekolah dan mahasiswa (dan seterusnya). Dalam analisis regresi, kita tidak menggunakan pengukuran tersebut. Analisis regresi mencoba untuk mengestimasi atau memprediksikan nilai rata-rata suatu variabel yang sudah diketahui nilainya, berdasarkan suatu variabel lain yang juga sudah diketahui nilainya. Misalnya, kita ingin mengetahui apakah kita dapat memprediksikan nilai rata-rata ujian statistik berdasarkan nilai hasil ujian matematika.

Regresi dan korelasi mempunyai perbedaan mendasar. Dalam analisis regresi terdapat asimetri pada variabel tergantung dan terkait yang akan dianalisis. Variabel terikat diasumsikan random atau stokastik, sehingga mempunyai distribusi probabilitas. Variabel penjelas (variabel bebas) diasumsikan mempunyai nilai yang tertentu (dalam sampel tertentu). Sebenarnya sangat dimungkinkan bahwa variabel bebas juga stokastik secara intrinsik, akan tetapi untuk kegunaan analisis regresi, maka kita asumsikan bahwa nilai variabel bebas adalah tertentu (fixed). Nilai-nilai pada variabel bebas adalah sama pada berbagai sampel sehingga tidak random atau tidak stokastik.

Dalam analisis korelasi, kita menggunakan dua variabel yang simetris, sehingga tidak ada perbedaan antara variabel terikat dengan variabel penjelas. Korelasi antara nilai ujian matematika dan ujian statistik (dalam contoh di atas) adalah sama dengan korelasi antara ujian statistik dan ujian matematika. Lebih lanjut, dua variabel tersebut diasumsikan random. Seperti yang telah kita ketahui, bahwa kebanyakan teori korelasi berdasarkan pada asumsi variabel random, di mana kebanyakan teori regresi berdasarkan pada asumsi variabel tergantung stokastik dan variabel bebas adalah tertentu atau non stokastik. Meskipun demikian, dalam analisis yang lebih mendalam, kita dapat mempertimbangkan kembali asumsi bahwa variabel penjelas merupakan non stokastik.

(Gujarati, 2004:22-24)
Share:

Statistik dan Hubungan Deterministik

Analisis Regresi berkenaan dengan apa yang kita sebut statistik, bukan sebagai hubungan fungsional atau deterministik, saling ketergantungan antara variabel seperti dalam ilmu fisika. Hubungan statisik antara variabel adalah bersifat random atau stokastik, sehingga hanya merupakan distribusi probabilitas. Pada sisi lain, hubungan deterministik tidak bersifat random atau stokastik.
Statistik dan Hubungan Deterministik
Statistik dan Hubungan Deterministik
Temperatur, curah hujan, cahaya matahari dan pemupukan secara statistik adalah penting dan merupakan variabel penting yang dapat menjelaskan hasil panen. Akan tetapi, hal tersebut tidak dapat menentukan secara eksak hasil panen karena terkait dengan error pengukuran pada variabel-variabel tersebut yang secara keseluruhan akan berpengaruh, meskipun akan sulit untuk mengidentifikasikan secara individual. Oleh karena itu, terdapat variabel intrinsik atau random pada hasil panen yang tidak dapat dijelaskan secara penuh, tidak tergantung dari berapa jumlah variabel yang akan digunakan untuk memprediksikan. Ini yang sering kita sebut dengan istilah koefisien determinasi pada regresi linear.

Dalam fenomena deterministik, kita dapat menentukan secara pasti hubungan antara variabel. Sebagai contoh, Hukum gravitasi Newton menyatakan bahwa ‘Setiap partikel dalam semesta menarik setiap partikel lain dengan gaya yang sebanding dengan masanya dan berbanding terbalik dengan kuadrat jarak antara kedua partikel tersebut'. Sering ditulis dengan:
Persamaan Gravitas Newton
Persamaan Gravitas Newton
di mana F adalah gaya, m1 dan m2 adalah masa dari dua partikel, r adalah jarak dan G  adalah konstanta.
(Gujarati, 2004:22-23)
Share:

Sejarah Singkat Regresi

Sebenarnya tidak terlalu penting untuk mengenal istilah regresi secara mendalam. Akan tetapi, artikel ini semata-mata untuk pengetahuan umum, sekaligus sebagai penghargaan kepada para ahli yang telah merumuskan regresi sehingga menjadi salah satu alat statistik yang sering digunakan dalam penelitian.
regresi secara harafiah berarti mundur
Ilustrasi Tinggi Badan
Gujarati dalam bukunya, menyatakan bahwa istilah regresi (regression) diperkenalkan oleh Francis Galton. Dalam sebuah makalahnya (paper), Galton menemukan bahwa terdapat kecenderungan bahwa orang tua yang tinggi mempunyai anak yang tinggi dan orang tua yang pendek mempunyai anak yang pendek, rata-rata tinggi anak-anak yang lahir mempunyai kecenderungan untuk bergerak mundur (regress) kepada rata-rata tinggi populasi secara keseluruhan (Francis Galton, “Family Likeness in Stature,” Proceedings of Royal Society, London, vol. 40, 1886, pp. 42–72). Atau dengan kata lain, tinggi anak-anak, baik tinggi maupun pendek, cenderung bergerak mundur kepada rata-rata tinggi populasi.

Hukum universal dari Galton ini kemudian dikonfirmasikan oleh temannya, yaitu Karl Pearson, yang mengumpulkan lebih dari seribu data tentang tinggi keluarga (K. Pearson and A. Lee, “On the Laws of Inheritance,’’ Biometrika, vol. 2, Nov. 1903, pp. 357–462). Pearson menemukan bahwa rata-rata tinggi anak dalam kelompok yang ayahnya tinggi, lebih rendah dari pada tinggi ayahnya, dan rata-rata tinggi anak dalam kelompok yang ayahnya pendek, lebih tinggi dibandingkan tinggi ayahnya. Oleh karena itu, regressing tinggi dan rendah anak menyerupai rata-rata tinggi keseluruhan. Dengan kata lain, Galton menyebutnya regression to mediocrity.

Interpretasi regresi secara modern relatif berbeda. Gujarati (2004:18) menyatakan bahwa:

Regression analysis is concerned with the study of the dependence of one variable, the dependent variable, on one or more other variables, the explanatory variables, with a view to estimating and/or predicting the (population) mean or average value of the former in terms of the known or fixed (in repeated sampling) values of the latter.


Jadi tampak bahwa sebenarnya regresi tidak semata-mata merujuk kepada regresi linear saja. Kita mengenal regresi linear sederhana jika terdapat satu variabel explanatory saja dan regresi linear berganda jika terdapat dua atau lebih variabel explanatory. Masih banyak lagi istilah regresi, misalnya regresi logistik, regresi ordinal, regresi multinomial dan masih banyak lagi.
Share:

Koefisien Determinasi pada Regresi Linear

Koefisien determinasi pada regresi linear sering diartikan sebagai seberapa besar kemampuan semua variabel bebas dalam menjelaskan varians dari variabel terikatnya. Secara sederhana koefisien determinasi dihitung dengan mengkuadratkan Koefisien Korelasi (R). Sebagai contoh, jika nilai R adalah sebesar 0,80 maka koefisien determinasi (R Square) adalah sebesar 0,80 x 0,80 = 0,64. Berarti kemampuan variabel bebas dalam menjelaskan varians dari variabel terikatnya adalah sebesar 64,0%. Berarti terdapat 36% (100%-64%) varians variabel terikat yang dijelaskan oleh faktor lain. Berdasarkan interpretasi tersebut, maka tampak bahwa nilai R Square adalah antara 0 sampai dengan 1.


Contoh Output Koefisien Determinasi
Contoh Output Koefisien Determinasi

Penggunaan R Square (R Kuadrat) sering menimbulkan permasalahan, yaitu bahwa nilainya akan selalu meningkat dengan adanya penambahan variabel bebas dalam suatu model. Hal ini akan menimbulkan bias, karena jika ingin memperoleh model dengan R tinggi, seorang penelitian dapat dengan sembarangan menambahkan variabel bebas dan nilai R akan meningkat, tidak tergantung apakah variabel bebas tambahan itu berhubungan dengan variabel terikat atau tidak.

Oleh karena itu, banyak peneliti yang menyarankan untuk menggunakan Adjusted R Square. Interpretasinya sama dengan R Square, akan tetapi nilai Adjusted R Square dapat naik atau turun dengan adanya penambahan variabel baru, tergantung dari korelasi antara variabel bebas tambahan tersebut dengan variabel terikatnya. Nilai Adjusted R Square dapat bernilai negatif, sehingga jika nilainya negatif, maka nilai tersebut dianggap 0, atau variabel bebas sama sekali tidak mampu menjelaskan varians dari variabel terikatnya.
Share:

Simulasi Multikolinearitas pada Regresi Logistik

Uji asumsi klasik yang sering dipergunakan dalam analisis regresi linear berganda adalah uji normalitas, uji heteroskedastisitas, uji autokorelasi dan uji multikolinearitas. Dari keempat uji tersebut, jika kita simak maka uji normalitas, uji heteroskedastisitas dan uji autokorelasi berkaitan dengan nilai residualnya, sedangkan uji multikolinearitas berkaitan dengan variabel bebasnya. Regresi logistik adalah regresi di mana variabel terikatnya adalah dummy, yaitu 1 dan 0. Dengan demikian, residualnya yang merupakan selisih antara nilai prediksi dengan nilai sebenarnya tidak perlu dilakukan ketiga uji tersebut. Akan tetapi untuk uji multikolinearitas, karena hanya melibatkan variabel bebas, maka masih diperlukan uji tersebut. Mannual book SPSS menuliskan ‘Preferably, your predictors should not be highly correlated’. Sedangkan untuk autokorelasi pada time series akan dibahas belakangan.

1.    Objek penelitian

Penelitian menggunakan populasi seluruh perusahaan consumer goods, food and beverages dan tobacco pada Bursa Efek Indonesia pada periode tahun 2006 sampai dengan tahun 2008, di mana berdasarkan ICMD terdapat 25 perusahaan. Penelitian ini menggunakan 7 buah variabel bebas dan 1 buah variabel terikat yaitu financial distress. Adapun variabel bebasnya adalah NPM, CR, TATO, ROE, DTA, Posisi Kas dan Pertumbuhan.


2.    Menilai kelayakan model regresi (goodness of fit)

Penelitian menggunakan analisis regresi logistik karena variabel terikat (financial distress) menggunakan variabel dummy yaitu 0 (tidak mengalami financial distress) dan 1 (mengalami financial distress). Jumlah data yang dipergunakan adalah sebanyak 25 x 3 tahun = 75 data dengan mengeluarkan 1 buah data karena tidak memenuhi kriteria. Dengan demikian data yang dipergunakan adalah sebanyak 74 buah.

Nilai -2 Log Likelihood pada Beginning Block adalah sebesar 102,369 pada iterasi ke-2. Nilai tersebut merupakan nilai Chi Square yang dibandingkan dengan nilai Chi Square pada tabel dengan df sebesar N – 1 = 74 – 1 = 73 pada taraf signifikansi 0,05 yaitu sebesar 93,945. Tampak bahwa -2 Log Likelihood > Chi Square tabel (102,369 > 93,945) yang menunjukkan bahwa terdapat perbedaan yang signifikan antara model dengan konstanta saja dengan data.

Tabel 1
Iteration History Tanpa Variabel Bebas
Iteration History Tanpa Variabel Bebas

Hal ini menunjukkan bahwa model dengan konstanta saja belum fit. Sehingga diperlukan pengujian lain yaitu dengan memasukkan variabel bebas sebanyak 7 buah sehingga mempunyai df sebesar 74 – 7 - 1 = 66 dan mempunyai nilai chi square tabel sebesar 85,965 pada signifikansi 0,05. Sedangkan nilai -2 Log Likelihood dengan memasukkan variabel bebas adalah sebagai berikut:

Tabel 2
Iteration History dengan Variabel Bebas
Iteration History dengan Variabel Bebas

Tampak bahwa nilai -2 Log Likelihood < Chi Square tabel (46,443 < 85,965) yang menunjukkan bahwa model dengan memasukkan variabel bebas adalah fit dengan data. Hal ini menunjukkan bahwa model layak untuk dipergunakan. Jika ingin melihat selisih dari kedua nilai di atas yaitu antara Blok 0 dengan Blok 1, maka dilakukan dengan mengurangkan nilainya yaitu 102,369 – 46,443 = 55,926 dan Program SPSS juga menampilkan selisih tersebut yaitu sebagai berikut:

Tabel 3
Omnibus Test
Omnibus Test
Tampak bahwa selisihnya adalah sebesar 55,926 dengan signifikansi sebesar 0,000 (< 0,05) yang menunjukkan bahwa penambahan variabel bebas memberikan pengaruh nyata terhadap model, atau dengan kata lain model dinyatakan fit. Lebih lanjut, untuk melihat apakah data empiris cocok dengan model (tidak ada perbedaan antara model dengan data) dilakukan dengan melihat nilai Hosmer and Lemeshow Test yaitu sebagai berikut:

Tabel 4
Hosmer and Lemeshow Test
Hosmer and Lemeshow Test
Nilai Chi Square tabel untuk df 8 pada taraf signifikansi 0,05 adalah sebesar 15,507 sehingga Chi Square hitung < Chi Square tabel (2,692 < 15,507). Tampak juga bahwa nilai signifikansi adalah sebesar 0,952 (> 0,05) yang menunjukkan bahwa model dapat diterima dan pengujian hipotesis dapat dilakukan.

Untuk melihat kemampuan variabel bebas dalam menjelaskan varians financial distress, digunakan nilai Cox dan Snell R Square dan Nagelkerke R Square. Nilai Nagelkerke R Square sebesar 0,708 yang lebih besar dari pada Cox dan Snell R Square, yang menunjukkan bahwa kemampuan ketujuh variabel bebas dalam menjelaskan varians financial distress adalah sebesar 70,8% dan terdapat 29,2% faktor lain yang menjelaskan varians financial distress.

Tabel 5
Model Summary
Model Summary

Untuk melihat ketepatan model yang dibentuk dilihat dengan Klasifikasi tabel sebagai berikut:

Tabel 6
Classification Table
Classification Table

Sampel yang tidak mengalami financial distress (0) adalah sebanyak 35 perusahaan. Hasil prediksi model pada Tabel di atas adalah 30 perusahaan tidak mengalami financial distress (0) dan 5 mengalami financial distress (1). Berarti terdapat 5 prediksi yang salah sehingga prediksi yang benar adalah sebanyak 30/35 = 85,7%. Sedangkan untuk perusahaan yang melakukan mengalami financial distress, dari 39 sampel hanya 3 perusahaan yang diprediksi tidak sesuai oleh model penelitian sehingga kebenaran model untuk perusahaan yang mengalami financial distress adalah sebesar 36/39 = 92,3%. Dengan demikian tabel di atas memberikan nilai overall percentage sebesar (30+36)/74 = 89,2% yang berarti ketepatan model penelitian ini adalah sebesar 89,2%.

3.    Pengujian Hipotesis

Setelah diperoleh model yang fit terhadap data, maka langkah selanjutnya adalah dilakukan uji hipotesis. Pengujian hipotesis dilakukan untuk menjawab pertanyaan penelitian ini.
Tabel 7
Pengujian Hipotesis
Pengujian Hipotesis

Dengan menggunakan tingkat kepercayaan 90% maka yang dinyatakan signifikan adalah NPM (Sig. 0,001) dan ROA (Sig. 0,000) terhadap financial distress. Jika dilihat dari koefisiennya (B) maka tampak bahwa koefisien NPM adalah positif yang berarti bahwa semakin tinggi NPM berarti semakin tinggi pula kemungkinan mengalami distress. Sedangkan ROA mempunyai koefisien negatif yang menunjukkan bahwa semakin tinggi ROA maka semakin rendah kemungkinan perusahaan mengalami distress.

Sampai di sini, kita punya pertanyaan penting, Apakah benar semakin tinggi NPM berarti semakin tinggi perusahaan mengalami financial distress. Silahkan Anda rujuk kepada teori yang ada. Jika Anda tidak yakin akan hal itu, silahkan lihat tabel di bawah:

Tabel 8
Korelasi antar Variabel Bebas dengan ROA
Korelasi antar Variabel Bebas dengan ROA

Tampak jelas bahwa korelasi antara ROA dengan NPM adalah 0,970 (tanda minus kita abaikan) yang berarti bahwa terdapat korelasi yang tinggi antara kedua variabel tersebut sehingga mengganggu model penelitian. Anda dapat melakukan modifikasi terhadap model, tentunya dengan justifikasi teori atau rujukan yang kuat. Karena ini hanya simulasi, maka modifikasi dilakukan dengan mengganti variabel ROA dengan ROE yang keduanya mengukur profitabilitas. Sehingga tabulasi korelasinya adalah sebagai berikut:

Tabel 9
Korelasi antar Variabel Bebas dengan ROE
Korelasi antar Variabel Bebas dengan ROE

Tampak bahwa tidak ada variabel bebas yang saling mempunyai korelasi yang tinggi sehingga tidak ada gangguan multikolinearitas pada model penelitian. Secara singkat, hasil estimasi model adalah sebagai berikut:

Tabel 10





Output tanpa Korelasi Tinggi antar Variabel Bebas
Output tanpa Korelasi Tinggi antar Variabel Bebas
   
Tampak bahwa semua asumsi yang diperlukan tetap terpenuhi pada model dengan ROE yang menggantikan ROA. Selain itu, NPM dan TATO mempunyai pengaruh negatif terhadap financial distress.

Penting untuk dicatat, bahwa simulasi ini hanya bertujuan untuk menunjukkan bahwa asumsi multikolinearitas masih diperlukan pada regresi logistik.
Share:

Artikel Terbaru

Translate

Instagram

Instagram
Gabung Instagram Kami

Artikel Terbaru

Jual Data Laporan Keuangan Perusahaan yang Listing di BEI Tahun 2020

Setiap perusahaan yang telah go public wajib untuk menyerahkan laporan keuangan ke badan otoritas, sebagai salah satu bentuk pertanggungjawa...

Artikel Populer Seminggu Terakhir

Komentar Terbaru

`

Ingin menghubungi kami untuk kerja sama?

Nama

Email *

Pesan *