Tampilkan postingan dengan label Linearitas. Tampilkan semua postingan
Tampilkan postingan dengan label Linearitas. Tampilkan semua postingan

Uji Linearitas SPSS dengan Lagrange Multiplier

Uji Lagrange Multiplier merupakan alternatif untuk uji spesifikasi model dengan uji Durbin-Watson atau uji Ramsey (RESET). Uji ini dilakukan dengan meregresikan kuadrat atau pangkat tiga dari variabel bebas terhadap nilai residual dari model yang akan diuji spesifikasi modelnya. Uji dengan Lagrange Multiplier dikembankan oleh R. F. Engle pada tahun 1982 dan sebenarnya digunakan untuk sampel yang besar. Jadi artikel ini hanya simulasi saja karena menggunakan 75 data saja. Data yang dipergunakan dapat di download di sini.

Langkah pertama adalah dengan meregresikan variabel bebas terhadap variabel terikat, dengan menyimpan nilai residualnya. Silahkan simak cara menyimpan nilai residual di sini. Setelah itu kuadratkan variabel bebas, dan juga pangkat tiga. Setelah itu tinggal kita regresikan, variabel bebas, pangkat dua dan pangkat tiga terhadap variabel residualnya.

Output Uji Lagrange Multiplier
Nilai yang kita pergunakan adalah R Square yaitu sebesar 0,003. Kita kalikan dengan N jumlah data yaitu sebesar 75 sehingga hasilnya adalah 75 x 0,003 = 0,225. Nilai ini kita bandingkan dengan nilai Chi Square pada df 2 dengan tingkat signifikansi misalnya 5% yaitu sebesar 5,99. Tampak bahwa 0,225 < 5,99 yang menunjukkan bahwa model telah memenuhi spesifikasi. Akan tetapi penting dicatat, bahwa ini hanya simulasi saja dan memerlukan sampel yang besar, sehingga jika dengan sampel kecil hasilnya kurang sesuai.

Dalam beberapa contoh di buku, disebutkan dengan regresi kuadrat variabel bebas saja, tanpa adanya variabel awal dan juga variabel pangkat tiga. Artikel ini dirujuk dari Gujarati dan Porter, Fifth Edition, 2009 halaman 481 sd 482.

Share:

Uji Linearitas SPSS dengan Ramsey

Uji linearitas dengan metode Ramsey adalah dengan membandingkan antara nilai F hitung modifikasi dengan F hitung pada tabel. Jika F hitung > F tabel maka terdapat kesalahan spesifikasi model demikian sebaliknya jika F hitung < F tabel berarti model telah dispesifikasi dengan benar. Metode ini juga sering disebut dengan RESET (Regressionn Specification Error Test) yang dikembangkan oleh J. B. Ramsey (1969). Adapun nilai F dihitung dengan persamaan sebagai berikut:

Persamaan F hitung Ramsey
Old adalah model awal yang diuji, sedangkan New adalah model baru untuk keperluan pengujian. Sedangkan nilai m adalah jumlah variabel yang ditambahkan untuk pengujian, n adalah jumlah data penelitian dan k adalah banyaknya parameter dalam persamaan New.

Sebagai ilustrasi, kita menggunakan data yang sama dengan data untuk pengujian linearitas dengan metode Durbin-Watson. Sedangkan datanya bisa Anda download di sini. Langkah pertama adalah meregresikan variabel Page_views terhadap Ranking Alexa, tetapi kita harus menyimpang DFit sebagai variabel baru.

Menu Save
Klik Save di bagian kanan untuk mendapatkan nilai DFit.

Menu DFit
Setelah itu klik Continue lalu klik OK sehingga akan keluar output dan juga ada tambahan variabel baru yaitu DFit di layar SPSS.

Output R Square Old

Tampak bahwa nilai R Square old atau awal adalah 0,025 dengan jumlah data 75. Setelah itu regresikan ulang model awal menjadi model baru dengan menambahkan variabel DFit. Adapun output yang didapatkan adalah sebagai berikut:

Output R Square New

Tampak bahwa nilai R Square baru adalah sebesar 0,891 dengan m atau jumlah variabel yang baru masuk adalah 1 yaitu DFit, parameter ada 2. Dengan demikian nilai F hitung adalah sebagai berikut:

Nilai F hitung
Sedangkan nilai F tabel untuk parameter 2 pada taraf signifikansi 0,05 dengan n sebanyak 75 adalah sebesar 3,20. Tampak jelas bahwa F hitung > F tabel yang menunjukkan bahwa model tidak dispesifikasi dengan benar. Hasil ini konsisten dengan pengujian linearitas dengan Durbin-Watson. Interpretasinya adalah bahwa peneliti mengabaikan variabel yang relevan. Ini masuk akal karena hanya memasukkan satu variabel saja pada model ini. 

Share:

Uji Linearitas SPSS dengan Durbin-Watson

Uji Linearitas dipergunakan untuk mengetahui apakah terdapat kesalahan spesifikasi atau tidak. Sumber kesalahan dalam spesifikasi model telah dibahas di artikel sebelumnya. Kali ini kita akan membahas tentang salah satu uji linearitas yang cukup terkenal yaitu dengan Metode Durbin-Watson. Nama Durbin-Watson memang lebih dikenal dalam uji autokorelasi, tetapi sebenarnya juga bisa digunakan dalam uji linearitas. Persamaan yang dipergunakan juga sama dan pengambilan keputusan juga menggunakan tabel yang sama juga.

Dalam contoh ini, kita menggunakan data yang kami simpan di Google Drive, silahkan di download jika diperlukan dengan akun Gmail Anda. Prinsip dari metode ini sederhana, yaitu kita melakukan regresi ulang model yang akan kita uji, tetapi dengan menambahkan variabel bebas yang baru yang merupakan kuadrat dari variabel bebas yang ada. (bisa juga menggunakan pangkat tiga dari variabel bebas yang kita pergunakan.

Langkah pertama adalah pilih Transform lalu klik pada Compute Variables seperti pada gambar di bawah:

Menu Compute Variable
Maka kita akan diarahkan ke Menu untuk menghitung variabel baru. Kita akan mengkuadratkan variabel bebas yaitu Page_view dan memberikan nama variabel tersebut Page_2. Target Variable adalah nama variabel baru dan Numeric Expression adalah perhitungannya yaitu Page_view*Page_view. Di mana tanda * adalah simbol perkalian

Mengkuadratkan Variabel Bebas
Setelah klik OK maka akan muncul variabel baru yaitu Page_2 yang merupakan kuadrat dari variabel Page_view. Kita regresikan variabel Page_view dan Page_2 terhadap Alexa_Rank dan jangan lupa klik Statistic Durbin Watson.

Output Durbin-Watson
Tampak bahwa nilai d adalah sebesar 0,064 dan masuk pada Autokorelasi positif. Justifikasi pada area ini adalah bahwa model mengalami kesalahan spesifikasi. Jika tidak ada variabel kuadrat maka nilai d adalah sebesar 0,065 yang juga berada pada daerah autokorelasi positif.

Penting dicatat bahwa meskipun menggunakan metode Durbin-Watson, tetapi metode uji linearitas ini tidak hanya diterapkan pada data time series saja. Ini berbeda dengan uji Durbin-Watson untuk menguji gangguan autokorelasi yang hanya dipergunakan pada data time series.

Selain metode ini, masih ada juga metode Ramsey (RESET) dan Lagrang Multiplier untuk uji spesifikasi model.

Share:

Uji Linearitas pada Analisis Regresi Linear

Uji Linearitas adalah salah satu uji asumsi klasik yang bertujuan untuk melihat apakah spesifikasi model yang dipergunakan sudah benar atau belum. Salah satu asumsi dalam Classical Linear Regression Model (CLRM) adalah bahwa model regresi yang dipergunakan harus dispesifikasi dengan benar. Jika tidak maka akan terjadi masalah error pada spesifikasi model atau bias. Maka akan muncul beberapa pertanyaan, misalnya bagaimana caranya menyusun model yang benar, atau kesalahan spesifikasi model (miss specification model) disebabkan oleh apa saja?

Sebenarnya istilah linearitas tidak muncul dalam kajian ini. Istilahnya adalah specification error test, tapi entah kenapa menjadi uji linearitas. Kalau uji asumsi klasik yang lain memang diterjemahkan lebih jelas, misalnya multicollinearity jadi multikolinearitas, heteroscedasticity menjadi heteroskedastisitas dan autocorrelation menjadi autokorelasi. Tapi sudahlah, yang penting dapat dihapami bahwa spesifikasi error ini berkaitan dengan uji linearitas.

Secara umum, analisis empiris setidaknya memenuhi 6 hal, yaitu (1) logis, (2) sesuai dengan teori, (3) variabel penjelas tidak boleh berkorelasi dengan errornya, (4) memberikan parameter yang konstan, (5) koheren, dan (6) mempunyai cakupan yang luas (Hendry dan Richard, 1983). Dalam konteks ini, maka error spesifikasi atau kesalahan dalam menspesifikasi model dapat muncul dari beberapa hal yaitu (1) menggunakan variabel yang tidak relevan; (2) memasukkan variabel yang tidak diperlukan; (3) Mengadopsi persamaan yang salah; (4) Kesalahan pengukuran; (5) Kesalahan data stokastik; dan (6) Adanya asumsi normalitas.

Jika peneliti melakukan kesalahan dalam melakukan spesifikasi model, maka bisa akan terjadi goodness of fit yang terlalu rendah, jika kita mengabaikan variabel yang relevan atau sebaliknya terlalu tinggi karena kita menggunakan variabel yang tidak relevan. Sebagai ilustrasi yang sederhana, dalam suatu model regresi, Anda coba masukkan saja variabel 'sembarang' ke dalam model regresi tersebut. Setelah itu lihat nilai R nya, pasti akan meningkat tidak peduli variabel yang dimasukkan tadi relevan atau tidak. (Untuk itulah maka banyak yang menggunakan Adjusted R karena nilainya bisa turun atau bisa naik tergantung dari variabel yang dimasukkan relevan atau tidak).

Untuk melakukan apakah terjadi error spesifikasi atau tidak kita bisa melakukan dengan beberapa cara.

1. Uji Durbin-Watson

Uji Durbin-Watson sangat dikenal dalam uji autokorelasi. Uji ini juga dapat dipergunakan untuk melihat apakah model mengabaikan variabel yang relevan atau menggunakan fungsi yang tidak benar sehingga terjadi miss specification error. Langkahnya juga sederhana yaitu membandingkan nilai Durbin-Watson model awal dengan nilai Durbin-Watson di mana variabel bebas diberikan fungsi kuadrat (atau bahkan pangkat tiga). Jika hasil Durbin-Watson pada model modifikasi mengalami gangguan autokorelasi positif, berarti model mengalami kesalahan spesifikasi, yaitu mengabaikan variabel yang relevan dalam model.

Residual (a) Linear, (b) Kudratik, (c) Kubik
Residual (a) Linear, (b) Kudratik, (c) Kubik

Gambar di atas adalah nilai residual untuk 3 model, yaitu (a) linear, (b) kuadratik atau variabel bebas pangkat dua; dan (c) kubik atau variabel bebas pangkat tiga. Nilai residual cenderung mendekati sumbu X atau titik nol atau semakin tidak bervariasi. Berikut artikel tentang uji linearitas dengan Durbin-Watson.

2. Uji Ramsey

Uji linearitas dengan metode Ramsey juga sering disebut dengan Regression Specification Error Test atau disingkat RESET. Ide dasarnya adalah memasukkan variabel Y estimated yang dihasilkan dari regresi awal menjadi salah satu variabel bebas dalam model uji. Jadi variabel bebasnya bertambah 1, lalu dapatkan nilai R Squarenya. Setelah itu hitung F dengan menggunakan R square awal dan R Square model baru dengan adanya tambahan 1 variabel tersebut. Bandingkan F hitung dengan F tabel di mana jika F Hitung > F Tabel maka terjadi kesalahan spesifikasi.

Artikel tentang uji linearitas dengan Ramsey ditampilkan di sini.


3. Uji Lagrange Multiplier (LM)

Metode ini juga bisa digunakan sebagai alternatif uji linearitas. Pertama adalah dapatkan nilai residual dari model awal. Setelah itu nilai residual ini dipergunakan sebagai variabel terikat dengan variabel bebasnya adalah variabel bebas model awal dengan dikuadratkan (atau pangkat 3). Setelah itu hitung nilai Chi Squarenya lalu bandingkan dengan nilai Chi Square tabel dengan df 2. Jika Chi Square hitung > Chi Square Tabel maka terjadi kesalahan spesifikasi.

Artikel tentang uji linearitas dengan Lagrange Multiplier (LM) kami tampilkan di sini.

Share:

Uji Asumsi Klasik

Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis regresi linear yang berbasis ordinary least square (OLS). Jadi analisis regresi yang tidak berdasarkan OLS tidak memerlukan persyaratan asumsi klasik, misalnya regresi logistik atau regresi ordinal. Demikian juga tidak semua uji asumsi klasik harus dilakukan pada analisis regresi linear, misalnya uji multikolinearitas tidak dilakukan pada analisis regresi linear sederhana dan uji autokorelasi tidak perlu diterapkan pada data cross sectional.
uji normalitas dengan histogram dengan SPSS Versi 26
Histogram Uji Normalitas

Uji asumsi klasik juga tidak perlu dilakukan untuk analisis regresi linear yang bertujuan untuk menghitung nilai pada variabel tertentu. Misalnya nilai return saham yang dihitung dengan market model, atau market adjusted model. Perhitungan nilai return yang diharapkan dapat dilakukan dengan persamaan regresi, tetapi tidak perlu diuji asumsi klasik.

Simak juga Playlist Uji Asumsi Klasik untuk pengalaman lebih intens 

Uji asumsi klasik yang sering digunakan yaitu uji multikolinearitas, uji heteroskedastisitas, uji autokorelasi dan uji linearitas. Uji normalitas sebenarnya tidak termasuk dalam uji asumsi klasik karena dibahas tersendiri. Tidak ada ketentuan yang pasti tentang urutan uji mana dulu yang harus dipenuhi. Analisis dapat dilakukan tergantung pada data yang ada. Sebagai contoh, dilakukan analisis terhadap semua uji asumsi klasik, lalu dilihat mana yang tidak memenuhi persyaratan. Kemudian dilakukan perbaikan pada uji tersebut, dan setelah memenuhi persyaratan, dilakukan pengujian pada uji yang lain.

Daftar Isi:


1. Uji Normalitas

Uji normalitas adalah untuk melihat apakah nilai residual terdistribusi normal atau tidak. Model regresi yang baik adalah memiliki nilai residual yang terdistribusi normal. Jadi uji normalitas bukan dilakukan pada masing-masing variabel tetapi pada nilai residualnya. Sering terjadi kesalahan yang jamak yaitu bahwa uji normalitas dilakukan pada masing-masing variabel. Hal ini tidak dilarang tetapi model regresi memerlukan normalitas pada nilai residualnya bukan pada masing-masing variabel penelitian.

Pengertian normal secara sederhana dapat dianalogikan dengan sebuah kelas. Dalam kelas siswa yang bodoh sekali dan pandai sekali jumlahnya hanya sedikit dan sebagian besar berada pada kategori sedang atau rata-rata. Jika kelas tersebut bodoh semua maka tidak normal, atau sekolah luar biasa. Dan sebaliknya jika suatu kelas banyak yang pandai maka kelas tersebut tidak normal atau merupakan kelas unggulan. Pengamatan data yang normal akan memberikan nilai ekstrim rendah dan ekstrim tinggi yang sedikit dan kebanyakan mengumpul di tengah. Demikian juga nilai rata-rata, modus dan median relatif dekat.

Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, Skewness dan Kurtosis, Uji Jarque Berra, uji Liliefors yang berdasarkan pada uji Kolmogorov Smirnov, uji Shapiro-Wilk atau yang lain. Tidak ada metode yang paling baik atau paling tepat. Tipsnya adalah bahwa pengujian dengan metode grafik sering menimbulkan perbedaan persepsi di antara beberapa pengamat, sehingga penggunaan uji normalitas dengan uji statistik bebas dari keragu-raguan, meskipun tidak ada jaminan bahwa pengujian dengan uji statistik lebih baik dari pada pengujian dengan metode grafik.

Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya signifikansi pada uji Liliefors yang berdasarkan pada Kolmogorov Smirnov sebesar 0,049) maka dapat dicoba dengan metode lain yang mungkin memberikan justifikasi normal. Tetapi jika jauh dari nilai normal, maka dapat dilakukan beberapa langkah yaitu: melakukan transformasi data, melakukan trimming data outliers atau menambah data observasi. Transformasi dapat dilakukan ke dalam bentuk Logaritma natural, akar kuadrat, inverse, atau bentuk yang lain tergantung dari bentuk kurva normalnya, apakah condong ke kiri, ke kanan, mengumpul di tengah atau menyebar ke samping kanan dan kiri.

Sebenarnya uji normalitas bukan termasuk dalam uji asumsi klasik, tetapi diperlukan dalam satistik parametrik dan juga regresi linear.


2. Uji Multikolinearitas

Uji multikolinearitas adalah untuk melihat ada atau tidaknya korelasi yang tinggi antara variabel-variabel bebas dalam suatu model regresi linear berganda. Jika ada korelasi yang tinggi di antara variabel-variabel bebasnya, maka hubungan antara variabel bebas terhadap variabel terikatnya menjadi terganggu. Sebagai ilustrasi, adalah model regresi dengan variabel bebasnya motivasi, kepemimpinan dan kepuasan kerja dengan variabel terikatnya adalah kinerja. Logika sederhananya adalah bahwa model tersebut untuk mencari pengaruh antara motivasi, kepemimpinan dan kepuasan kerja terhadap kinerja. Jadi tidak boleh ada korelasi yang tinggi antara motivasi dengan kepemimpinan, motivasi dengan kepuasan kerja atau antara kepemimpinan dengan kepuasan kerja.

Alat statistik yang sering dipergunakan untuk menguji gangguan multikolinearitas adalah dengan variance inflation factor (VIF), korelasi pearson antara variabel-variabel bebas, Farrar dan Glauber atau dengan melihat eigenvalues dan condition index (CI).

Beberapa alternatif cara untuk mengatasi masalah multikolinearitas adalah sebagai berikut:
1. Mengganti atau mengeluarkan variabel yang mempunyai korelasi yang tinggi.
2. Menambah jumlah observasi.
3. Mentransformasikan data ke dalam bentuk lain, misalnya logaritma natural, akar kuadrat atau bentuk first difference delta.



3. Uji Heteroskedastisitas

Uji heteroskedastisitas adalah untuk melihat apakah terdapat ketidaksamaan varians dari residual satu ke pengamatan ke pengamatan yang lain. Model regresi yang memenuhi persyaratan adalah di mana terdapat kesamaan varians dari residual satu pengamatan ke pengamatan yang lain tetap atau disebut homoskedastisitas.

Deteksi heteroskedastisitas dapat dilakukan dengan metode scatter plot dengan memplotkan nilai ZPRED (nilai prediksi) dengan SRESID (nilai residualnya). Model yang baik didapatkan jika tidak terdapat pola tertentu pada grafik, seperti mengumpul di tengah, menyempit kemudian melebar atau sebaliknya melebar kemudian menyempit. Uji statistik yang dapat digunakan adalah uji Glejser, uji Park, rank Spearman atau uji White.

Beberapa alternatif solusi jika model menyalahi asumsi heteroskedastisitas adalah dengan mentransformasikan ke dalam bentuk logaritma, yang hanya dapat dilakukan jika semua data bernilai positif. Atau dapat juga dilakukan dengan membagi semua variabel dengan variabel yang mengalami gangguan heteroskedastisitas.


4. Uji Autokorelasi

Uji autokorelasi adalah untuk melihat apakah terjadi korelasi antara suatu periode t dengan periode sebelumnya (t - 1). Secara sederhana adalah bahwa analisis regresi adalah untuk melihat pengaruh antara variabel bebas terhadap variabel terikat, jadi tidak boleh ada korelasi antara observasi dengan data observasi sebelumnya. Sebagai contoh adalah pengaruh antara tingkat inflasi bulanan terhadap nilai tukar rupiah terhadap dollar. Data tingkat inflasi pada bulan tertentu, katakanlah bulan Februari, akan dipengaruhi oleh tingkat inflasi bulan Januari. Berarti terdapat gangguan autokorelasi pada model tersebut. Contoh lain, pengeluaran rutin dalam suatu rumah tangga. Ketika pada bulan Januari suatu keluarga mengeluarkan belanja bulanan yang relatif tinggi, maka tanpa ada pengaruh dari apapun, pengeluaran pada bulan Februari akan rendah.

Uji autokorelasi hanya dilakukan pada data time series (runtut waktu) dan tidak perlu dilakukan pada data cross section seperti pada kuesioner di mana pengukuran semua variabel dilakukan secara serempak pada saat yang bersamaan. Model regresi pada penelitian di Bursa Efek Indonesia di mana periodenya lebih dari satu tahun biasanya memerlukan uji autokorelasi.

Beberapa uji statistik yang sering dipergunakan adalah uji Durbin-Watson, uji dengan Run Test dan jika data observasi di atas 100 data sebaiknya menggunakan uji Lagrange Multiplier atau dengan Box Pierce dan Ljung Box. Beberapa cara untuk menanggulangi masalah autokorelasi adalah dengan mentransformasikan data atau bisa juga dengan mengubah model regresi ke dalam bentuk persamaan beda umum (generalized difference equation). Selain itu juga dapat dilakukan dengan memasukkan variabel lag dari variabel terikatnya menjadi salah satu variabel bebas, sehingga data observasi menjadi berkurang 1.


5. Uji Linearitas


Uji linearitas dipergunakan untuk melihat apakah model yang dibangun mempunyai hubungan linear atau tidak. Model yang dibentuk dalam regresi linear harus berdasarkan telaah teoretis bahwa hubungan antara variabel bebas dengan variabel terikatnya adalah linear. Hubungan antar variabel yang secara teori bukan merupakan hubungan linear sebenarnya sudah tidak dapat dianalisis dengan regresi linear, misalnya masalah elastisitas.

Jika ada hubungan antara dua variabel yang belum diketahui apakah linear atau tidak, uji linearitas tidak dapat digunakan untuk memberikan adjustment bahwa hubungan tersebut bersifat linear atau tidak. Uji linearitas digunakan untuk mengkonfirmasikan apakah sifat linear antara dua variabel yang diidentifikasikan secara teori sesuai atau tidak dengan hasil observasi yang ada. Uji linearitas dapat menggunakan uji Durbin-Watson, Ramsey Test atau uji Lagrange Multiplier.

Share:

Artikel Terbaru

Translate

Artikel Terbaru

Tutorial Cara Download File dari Google Drive

Dalam artikel sebelumnya telah kita sampaikan bahwa jika menginginkan file yang dipergunakan dalam simulasi di blog ini dapat di download di...

Artikel Populer Seminggu Terakhir

Komentar Terbaru

`

Ingin menghubungi kami untuk kerja sama?

Nama

Email *

Pesan *