Daftar Isi Ringkas Basic Econometrics

Berikut ini kami akan memberikan daftar isi ringkas dari Buku Basic Econometrics yang ditulis oleh Damodar N. Gujarati dan Dawn C. Porter. Daftar isi ringkas ini berasal dari edisi yang ke-5.

Cover Basic Econometrics Edisi 5 Damodar N. Gujarati dan Dawn C. Porter

PART ONE: Single-Equation Regression Models

1. The Nature of Regression Analysis
2. Two-Variable Regression Analysis: Some Basic Ideas
3. Two-Variable Regression Model: The Problem Estimation
4. Classical Normal Linear Regression Model (CNLRM)
5. Two-Variable Regression: Interval Estimation and Hypothesis Testing
6. Extention of the Two-Variable Linear Regression Model
7. Multiple Regressin Analysis: The Problem Estimation
8. Multiple Regression Analysis: The Problem Inference
9. Dummy Variable, Regression Model


PART TWO: Relaxing the Assumptions of the Classical Model

10. Multicollinearity: What Happens If the Regressor are Correlated?

11. Heteroscedasticity: What Happens If The Error Variance is Nonconstant?

12. Autocorrelation: What Happens if the Error Terms Are Correlated?

13. Econometric Modeling: Model Specification and Diagnostic Testing


PART THREE: Topless in Econometrics

14. Nonlinear Regression Models

15. Qualitative Response Regression Models

16. Panel Data Regression Models

17. Dynamic Econometrics Models: Autoregressive and Distributed lag Models


PART FOUR:  Simultaneous-Equation Models and Time Series Econometrics

18. Simultaneous-Equation Models

19. The Identification Problem

20. Simultanesous-Equation Methods

21. Time Series Econometrics: Some Basic Concepts

22. Time Series Econometrics: Forecasting


APPENDICES

A. A Revies of Some Statistical Concepts

B. Rudiments of Matrix Algebra

C. The Matrix Approach to Linear Regression Model

D. Statistical Tables

E. Computer Output of Eviews, MINITAB, Excel and STATA

F. Economic Data on World Wide Web


SELECTED BIBLIOGRAPHY

Share:

Analisis Deskriptif dengan Microsoft Excel

Saat ini kita sudah terbiasa menggunakan program statistik yang sudah banyak beredar, misalnya SPSS. Dalam artikel ini kami akan mencoba menunjukkan bahwa sebenarnya Microsoft Excel "tidak kalah" dengan program statistik yang ada. Bahkan ada beberapa kelebihan dari aplikasi Excel yang tidak dapat kita dapatkan di program statistik yang ada. Microsoft Excel tentunya sudah tidak asing lagi bagi kita dan hampir komputer atau laptop yang ada sudah mempunyai program Office ini. Data yang digunakan dalam simulasi dapat Anda download di G Drive dengan akun G mail Anda. Data dalam Excel, Anda dapat mengcopynya sendiri ke SPSS jika diperlukan.

Kali ini kita akan mencoba menggunakan Excel untuk melakukan analisis statistik deskriptif. Data yang digunakan adalah 20 sampel saja dan hasil analisis deskriptif dengan SPSS memberikan hasil sebagai berikut:

Output Statistik Deskriptif dengan SPSS Versi 23
Kita menggunakan 4 variabel dengan 20 sampel. Deskripsi data yang ada di tabel di atas adalah nilai Minimum, Maksimum, Rata-rata, Standard Deviasi, Varians, serta Skewness dan Kurtosis. Nilai tersebut dihasilkan dari perhitungan dengan SPSS dan akan kita coba menghitung ulang dengan Excel.

Data dalam Format Excel
Tuliskan nilai yang akan dihitung, MIN, MAX, Rata-rata, Standard deviasi, Variance, Skewness dan Kurtosis seperti gambar di atas. Itu hanya contoh saja, Anda dapat menulisnya mendatar atau di mana saja sesuai kebutuhan.

Untuk menghitung MIN atau nilain minimal, letakkan kursor di samping MIN atau cell B22 lalu klik pada menu di kanan atas seperti pada gambar di bawah ini:

Menu Statistik pada Microsoft Excel

Di situ sudah ada menu Sum, Average, Count Number, Min, Max dan More function. Untuk mencari Min, tinggal klik Min sehingga di cell B22 akan berubah menjadi sebagai berikut:

Tampilan Cell B22
Cell B22 akan terisi dengan =MIN(B2:B21) yang berarti akan diisi dengan nilai minimal antara kolom B2 sampai dengan B21, yaitu yang berisi data X1 sebanyak 20 sampel. Jika kita tekan Enter maka akan keluar nilainya yaitu sebesar 4. Jadi nilai minimalnya adalah 4. Lalukan hal yang sama dengan nilai MAX atau =MAX(B2:B21) dan juga Rata2 atau =AVERAGE(B2:B21). Perhatikan cell yang dituju adalah B2:B21 yang berarti data antara kolom B2 sampai dengan B21. Jika beda maka akan memberikan hasil yang berbeda pula.

Untuk Standard deviasi dan yang lain memang belum tampak di menu kanan atas, maka klik lah pada More function sehingga akan masuk ke berbagai menu function yang lain yang ada di Microsoft Excel.

Menu Standard Deviasi
Dengan meletakkan kursor pada Cell B25 maka pilihlah menu STDEV atau standard deviasi atau jika diketik menjadi =STDEV(B2:B21). Penting dicatat cell yang dituju masih tetap data yang sama yaitu antara B2 sampai dengan B21. Setelah tekan Enter maka akan keluar nilainya yaitu sebesar 5,100 sama persis dengan perhitungan dengan SPSS.  Penting diketahui bahwa standard deviasi pada Excel juga ada STDEVA yang akan memberikan nilai yang berbeda. Ini karena yang STDEVA adalah berasumsi bahwa data yang dipergunakan  adalah populasi sehingga N tidak dikurangi 1. Tetapi jika STDEV maka dianggap sampel sehingga nilai pembaginya yaitu N dikurangi 1 untuk menghindari bias. Jadi nilainya akan berbeda.

Untuk Variance, maka gunakan =VARA=(B2;B21) jangan gunakan VARP karena akan berbeda nilainya karena N tetap digunakan 20 bukan 19. Lihat hasilnya akan identik dengan perhitungan dengan SPSS. Hal yang sama kita lakukan untuk nilai Skewness dengan =SKEW(B2:B21) dan Kurtosis dengan =KURT(B2:B21). Setelah itu copas saja ke kanan atau ditarik seperti biasa. Hasil selengkapnya adalah sebagai berikut:

Statistik Desktiptif dengan Excel

Nilainya adalah sama dan identik dengan hasil perhitungan dengan SPSS apalagi jika digit di belakang koma dibuat sama. Jika ingin melihat formula dari masing-masing cell adalah sebagai berikut:

Function yang dipergunakan
Tampak pada gambar di atas menu function yang dipergunakan. Penting diingat bahwa sering terjadi kesalahan pada cell yang dituju sehingga hasilnya juga akan salah. Ketelitian sangat diperlukan dalam analisis dengan Excel.

Jika kita bisa menghitung nilai Skewness dan Kurtosis dengan mudah, maka kita akan bisa juga menghitung normalitas dengan Jarque-Berra. Atau mungkin regresi, korelasi? Memang bisa bahkan uji beda juga bisa. Nanti akan kita bahas di artikel selanjutnya.

Share:

Tutorial Cara Download File dari Google Drive

Dalam artikel sebelumnya telah kita sampaikan bahwa jika menginginkan file yang dipergunakan dalam simulasi di blog ini dapat di download di Google Drive secara gratis. Berbeda dengan layanan penyimpanan atau berbagi file yang lain yang biasanya menyertakan iklan, Google Drive sama sekali tidak memuat iklan di sana. Kita dapat melakukan download atau pun upload file secara gratis dan tidak ada iklan sama sekali. Kapasitasnya pun juga lumayan besar yaitu 15 GB per akun. Dan jika ingin lebih dapat menggunakan premium dan meng upgrade menjadi 100 GB dengan biaya tertentu. Akan tetapi sebenarnya 15 GB sudah cukup banyak. Dan jika diperlukan lagi, kita bisa membuat akun baru dan mendapatkan 15 GB lagi.

Untuk mendapatkan media penyimpanan tersebut sangat mudah. Bahkan jika kita punya akun G Mail, maka otomatis layanan Google Drive akan diberikan. Hanya mungkin dipergunakan atau tidak. Layanan ini juga dapat diakses dengan SmartPhone Anda, terutama yang berbasis Android. Anda dapat menyimpan foto atau video Anda di G Drive untuk menghemat kapasitas SmartPhone Anda. Selain itu, Anda juga bisa mempunyai beberapa akun G Drive dalam satu SmartPhone. Jadi sebenarnya kita tidak perlu menggunakan MMC atau media penyimpanan eksternal lain karena media G Drive jauh lebih memudahkan pekerjaan atau penyimpanan file kita.

Bagaimana cara mendownload file dari blog ini? Sangat mudah. Suatu saat bila Anda mendapati artikel dan ingin mendapatkan file yang dipergunakan untuk simulasi, maka bisa melihat keterangan yang ada di artikel, misalnya seperti ini:

Link file yang akan didownload

Anda tinggal meng klik link seperti pada gambar di atas, sehingga Anda akan diarahkan ke halaman utama G Drive yaitu seperti ini:

Halaman Utama Googel Drive

Anda tinggal mengklik untuk melakukan download. Tetapi pastikan bahwa Akun GMail Anda telah aktif dan tidak menggunakan akun orang lain. Untuk memastikan, lihat di tampilan Google Anda lalu klik pada kanan atas seperti gambar di bawah ini:

Melihat Akun Google yang aktif

Maka akan tampak akun google yang aktif. Pastikan bahwa itu akun Anda. Setelah di klik pada file yang akan di download, maka otomatis akan mendownload seperti biasa.

Progress download di kiri bawah

Progress download dapat Anda lihat di kiri bawah layar monitor Anda. Setelah itu tinggal klik seperti biasa untuk membuka file, atau melihatnya di folder untuk Anda copas atau pindah di folder lain. Jika Anda belum berhasil, kemungkinan Akun Anda belum aktif, misalnya Anda menggunakan komputer atau laptop bersamaan dengan orang lain, kadang akun G Mail yang aktif bukan milik Anda tetapi milik orang lain.

Share:

Uji Wald-Wolfowitz dengan SPSS Versi 26

Uji Wald-Wolfowitz adalah uji beda untuk dua sampel yang tidak berkorelasi pada statistik parametrik. Uji yang sejenis misalnya Mann-Whitney U Test, Kolmogorov-Smirnov atau pun Median Test. Uji ini sebenarnya merupakan perluasan dari uji run atau run test pada satu sampel non parametrik. Apa dan bagaimana penggunaannya? Mari kita bahas bersama

Daftar isi

  1. Uji Dua Sampel tidak Berkorelasi
  2. Statistik Non Parametrik
  3. Uji beda dua sampel tidak berkorelasi pada Statistik Non Parametrik
  4. Uji Wald-Wolfowitz
  5. Simulasi Uji Wald-Wolfowitz dengan SPSS Versi 26
  6. Kesimpulan

Uji Dua Sampel Tidak Berkorelasi

Seorang peneliti bisa berhadapan dengan dua buah kelompok atau sampel data atau grup yang tidak berasal dari populasi yang sama bahkan mempunyai jumlah atau anggota sampel yang berbeda. Misalnya kita ingin mengetahui preferensi suatu merek elektronik tertentu antara kelompok mahasiswa dengan pelajar, atau antara profesi A dengan profesi B. Kedua kelompok sampel tersebut tidak berkorelasi, sehingga diperlukan metode-metode khusus.

Metode independent test sudah sering kita jumpai dalam berbagai penelitian. Metode ini dikembangkan untuk melihat perbedaan (atau persamaan) di antara dua sampel yang tidak berkorelasi. Kita bisa menggunakan beberapa acuan, misalnya nilai median, atau ranking atau acuan yang lain. 


Statistik Non Parametrik

Pada statistik parametrik, maka harus ada beberapa asumsi, misalnya normalitas dan juga skala pengukuran juga harus interval atau rasio. Pada kenyataannya banyak data penelitian yang tidak berskala itu, misalnya nominal atau ordinal atau tidak mampu memenuhi asumsi atau prasyarat pada statistik parametrik. Oleh karena itu, statistik non parametrik menjadi sangat penting ketika kita bekerja dengan data berskala nominal atau ordinal.

Sebagai contoh adalah data yang berbentuk biner, atau data yang berkala ordinal. Beberapa metode statistik non parametrik untuk dua sampel yang tidak berhubungan justru lebih banyak dari pada metode statistik parametrik untuk dua sampel yang tidak berhubungan. Beberapa di antaranya kita bahas bersama di artikel ini.


Uji Beda Dua Sampel Tidak Berkorelasi pada Statistik Non Parametrik

Ada beberapa uji beda dua sampel yang tidak berkorelasi pada statistik non parametrik. Uji tersebut misalnya Mann-Whitney U Test, Kolmogorov-Smirnov, Median Test dan yang akan kita bahas pada artikel kali ini adalah Uji Wald-Wolfowitz. Masing-masing uji mempunyai perbedaan dan karakteristik sendiri-sendiri. Untuk selengkapnya silahkan visit di artikel tentang uji beda dua sampel yang tidak berkorelasi pada statistik non parametrik.


Uji Wald-Wolfowitz

Wald-Wolfowitz sebenarnya adalah nama dua orang ahli statistik yaitu Abraham Wald dan Jacob Wolfowitz. Abraham Wald adalah seorang Yahudi berkebangsaan Hongaria yang hidup antara 31 Oktober 1902 sampai dengan 13 Desember 1950. Beliau mempunyai kontribusi besar dalam teori pengambilan keputusan, geometri dan bahkan ekonometrika. Sedangkan Jacob Wolfowitz adalah seorang Yahudi berkebangsaan Polandia yang hidup pada 19 Maret 1910 sampai dengan 16 Juli 1981. Keduanya banyak bekerja sama di bidang matematika dan salah satu warisannya adalah uji Wald-Wolfowitz.

Uji Wald-Wolfowitz sebenarnya adalah perluasan dari Run Test. Run Test (uji run) adalah uji satu sampel pada statistik non parametrik. Konsep dasar dari run test adalah menghitung ada berapa perubahan atau 'runs' pada suatu distribusi data. Run dinyatakan dengan adanya perubahan atau perbedaan pada urutan data. Nilai run tersebut lalu dikonsultasikan pada tabel run, di mana jika lebih besar (atau lebih kecil) dari nilai tabel maka peneliti dapat memberikan justifikasi apakah distribusi data tersebut random atau tidak. Uji run selengkapnya dapat Anda simak di artikel ini.

Untuk uji Wald-Wolfowitz juga menggunakan dasar yang sama. Karena ada dua sampel, maka disusun secara berturutan, misalnya dari nilai rendah ke tinggi. Dua sampel tersebut dijadikan satu secara ranking atau urut dari kecil sehingga menjadi 1 distribusi data saja, dan di kolom sebelahnya diberikan kode kelompok, dari kelompok 1 atau kelompok 2. Setelah itu, setiap ada perubahan kelompok, berarti ada 1 run, demikian seterusnya sampai nilai terbesar.

Misalnya ada data A : 3, 5, 7 dan 2 dan data B: 4, 1, dan 8
Maka kita susun menjadi satu baris secara urut: 1, 2, 3, 4, 5, 7 dan 8. Lalu kita hitung Run. Yang pertama dari 1 pada B diikuti 2 dari A, maka ada 1 run. Setelah itu dari 2 ke 3 tidak ada run karena sama-sama berasal dari A. Setelah itu 3 ke 4 ada lagi 1 run karena dari A ke B demikian seterusnya.

Setelah itu tinggal dihitung jumlah runs lalu dikonsultasikan dengan tabel runs, apakah ada perbedaan atau tidak. Adapun persamaan umumnya adalah sebagai berikut:
Rumus Wald-Wolfowitz
Rumus Wald-Wolfowitz
Dengan N adalah jumlah Runs.

Simulasi Uji Wald-Wolfowitz dengan SPSS Versi 26

Untuk simulasi uji Wald-Wolfowtz kita menggunakan data yang ada di sini. Silahkan didownload dengan akun Gmail Anda. Itu adalah data simulasi saja dari 20 yang terbagi dalam kelompok 1 dan kelompok 2. 
Menu Wald-Wolfowitz dalam SPSS Versi 26
Menu Wald-Wolfowitz dalam SPSS Versi 26

Pilih Analyze, lalu pilih Nonparametric Tests, pilih Legacy Dialogs dan klik pada 2 Independent Samples. Lalu kita akan diarahkan ke Menu Uji dua sampel tidak berkorelasi pada statistik non parametrik sebagai berikut:
Menu 2 Independent Samples
Menu 2 Independent Samples
Masukkan variabel ke Test Variable List dan berikan tanda centang pada Wald-Wolfowitz runs seperti pada gambar di atas. Setelah itu klik pada Define Groups untuk menentukan grup 1 (Tepat) dan 2 (Terlambat) seperti pada gambar di bawah:
Mendefinisikan Grup
Mendefinisikan Grup
Setelah itu klik Continue lalu Klik lagi OK sehingga akan keluar output sebagai berikut:
Output Frekuensi
Output Frekuensi
Tampak bahwa terdapta 9 sampel yang tepat dan 11 sampel yang  terlambat. Ini hanya simulasi data saja di mana total sampel adalah 20. Setelah itu output yang berikutnya adalah: 
Output Wald-Wolfowitz
Output Wald-Wolfowitz
Jumlah run dapat dilihat pada kolom Number of Runs dan nilai Wald pada kolom Z. Tampak bahw nilai Signifikansi pada kedua kemungkinan adalah sebesar 0,255 dan 0,605. Keduanya masih di atas 0,05 yang berarti bahwa tidak terdapat perbedaan antara kedua kelompok 1 dan 2 atau Tepat dan Terlambat.


Kesimpulan

Dari berbagai metode yang ada, semuanya mempunyai karakteristik sendiri. Wald-Wolfowitz menggunakan data ordinal tetapi tidak bisa digunakan untuk data biner. Untuk skala interval juga bisa jika diasumsikan sebagai ordinal karena tidak memenuhi asumsi normalitas. Akan tetapi memang banyak yang beranggapan bahwa metode Kolmogorov-Smirnov lebih efektif dibandingkan metode Wald-Wolfowitz.
Share:

Uji Normalitas pada Analisis Regresi Linier Berganda dengan SPSS Versi 26

Uji normalitas adalah untuk melihat apakah suatu data terdistribusi normal atau tidak. Beberapa uji statistik, terutama statistik parametrik mensyaratkan adanya normalitas pada data yang akan diuji. Artikel ini akan fokus pada uji normalitas pada analisis regresi linier berganda dengan alat bantu berupa program SPSS Versi 26. Apa dan bagaimana uji normalitas pada analisis regresi linier? Mari kita bahas bersama.

Daftar Isi

  1. Normalitas Data
  2. Statistik parametrik
  3. Analisis regresi linier berganda
  4. Nilai residual pada analisis regresi linier berganda
  5. Berbagai uji normalitas pada analisis regresi linier berganda
  6. Histogram
  7. Normal P Plot
  8. Uji Lillieffors
  9. Uji Shapiro Wilks
  10. Skewness dan Kurtosis
  11. Jarque Berra
  12. Kesimpulan

Normalitas Data
Suatu data dinyatakan normal jika diplotkan akan menyerupai bentuk lonceng. Jika normal baku maka akan mempunyai nilai rata-rata mendekati nol dan simpangan baku mendekati 1. Terminologi normal untuk data sudah ada sejak abad 18 dengan banyak para tokoh yang memberikan jasa, di antaranya Abraham de Moivre, Pierre Simon de Laplace, Legendre, Johann Carl Friedrich Gauß, Francis Galton dan masih banyak lagi. Metode yang dipergunakan juga sangat banyak dan bervariasi. Dalam artikel ini kita akan menekankan pada uji normalitas pada analisis regresi linier berganda. Untuk kajian normalitas secara lebih luas, bisa disimak di artikel normalitas.


Statistik Parametrik
Statistik parametrik adalah alat uji statistik yang dikenakan pada data berskala interval atau rasio dan memenuhi syarat-syarat tertentu. Kondisi atau syarat-syarat uji parametrik salah satunya adalah normalitas. Jika suatu data tidak memenuhi asumsi normalitas, maka tidak bisa dikenai statistik parametrik (tentunya asumsi parametrik yang lain juga memenuhi). Untuk analisis regresi linier berganda termasuk statistik parametrik sehingga harus memenuhi asumsi normalitas. Lebih jauh tentang statistik parametrik, silahkan visit di artikel tentang statistik parametrik.


Analisis Regresi Linier Berganda
Analisis regresi linier berganda adalah metode analisis statistik untuk mencari pengaruh dari beberapa variabel bebas terhadap satu buah variabel terikat. Jika hanya ada satu variabel bebas, sering disebut dengan analisis regresi linier sederhana. Metode statistik ini sangat populer dipergunakan untuk mahasiswa yang sedang menempuh tugas akhirnya atau skripsi. Banyak juga alat bantu atau software yang mempermudah melakukan analisis regresi linier. Bahkan di Microsoft Excel pun sudah tersedia menu ini.

Analisis regresi linier berganda merupakan statistik parametrik sehingga memerlukan asumsi normalitas, di samping berbagai asumsi lain yang termasuk dalam uji asumsi klasik. Terpenting dari uji normalitas dalam analisis regresi linier berganda adalah bahwa uji normalitas dilakukan terhadap nilai residualnya, bukan pada masing-masing variabel dalam penelitian. Apakah tidak boleh melakukan uji normalitas pada masing-masing variabel? Tentu saja boleh, tetapi itu bukan uji normalitas yang diperlukan dalam analisis regresi linier berganda. Jadi analisis regresi linier bisa dilakukan meskipun ada salah satu atau lebih variabel yang tidak terdistribusi secara normal. Acuannya adalah nilai residual. 


Nilai Residual pada analisis regresi linier berganda
Residual pada regresi linier adalah selisih antara nilai sebenarnya dengan nilai prediksi. Sebagai contoh, nilai variabel terikat pada sampel 01 adalah sebesar 10, tetapi hasil prediksi dari persamaan regresi yang dihasilkan adalah sebesar 9. Maka dapat dinyatakan bahwa nilai residual adalah sebesar 1 atau selisih dari 10 dengan 9. Nilai residual bisa positif dan bisa juga negatif. Karena menggunakan metode kuadrat terkecil maka nilai residual pasti 0. Jika tidak 0 berarti ada yang salah perhitungannya. 

Nilai residual inilah yang harus normal. Jika nilai residual tidak terdistribusi secara normal, maka hasil regresi akan terdegradasi dan tidak boleh dipergunakan. Modifikasi atau transformasi tentu bisa dilakukan kepada variabel-variabel yang ada. Bisa ditransformasikan atau dikeluarkan data yang outliers atau menambah data, mengurangi data, menghilangkan variabel dan lain-lain. Diskusi tentang nilai residual lebih lanjut silahkan visit di sini.


Berbagai Uji Normalitas pada Analisis Regresi Linier Berganda
Ada banyak sekali uji normalitas yang sudah tersedia di SPSS Versi 26 untuk menguji normalitas pada analisis regresi linier berganda. Semuanya mempunyai karakteristik masing-masing dan dapat dipilih oleh peneliti. Bisa menggunakan metode grafis, misalnya dengan histogram atau normal P Plot. Ada juga yang menggunakan metode statistik seperti Liliefors, Sharpiro-Wilks, Skewness dan Kurtosis atau pun Jarque Berra. Mari kita pelajari bersama satu persatu.

Untuk data yang dipergunakan silahkan download di Google Drive dengan akun Gmail Anda. Setelah itu pilih Analyze, pilih Regression lalu klik pada Linear seperti pada gambar di bawah:
Menu Regresi Linier pada SPSS Versi 26

Maka akan diarahkan ke menu regresi oleh SPSS. Masukkan variabel DAC ke Dependent dan variabel yang lain ke Independents seperti pada gambar di bawah. 
Memasukkan Variabel

Setelah itu klik pada Plots di kanan atas sehingga akan diarahkan ke sub menu sebagai berikut:
Memberikan Tanda Centang pada Standardized Residual Plots

Berikan tanda centang pada Histogram dan Normal probability plot seperti pada gambar di atas. Setelah itu klik Continue maka akan kembali ke gambar sebelumnya dan klik Save di kanan atas di bawah Plots sehingga akan masuk ke sub menu yang lain yaitu sebagai berikut:
Memberikan Tanda Centang pada Unstandardized
Berikan tanda centang pada Unstandardized seperti pada gambar di atas. Lalu klik Continue lalu klik OK sehingga akan keluar output dan juga variabel baru di SPSS.
Variabel Baru yaitu Residual (Res_1)
Nilai Residual ini lah yang akan diuji normalitasnya, bukan masing-masing variabel bebas atau terikat. Berikut penjelasan lebih rinci tentang residual pada regresi linier. Berikutnya akan kita uji normalitasnya dengan berbagai metode yang ada dan lazim dipergunakan.


Histogram
Metode histogram sering dipergunakan dalam uji normalitas. Merupakan metode grafis sehingga lebih mudah dilihat meskipun kadang menimbulkan perdebatan di antara para pengamatnya. Metode ini keluar karena kita memberikan tanda centang pada Histogram pada Sub Menu Plots di atas.
Uji Normalitas Histogram
Model regresi linier dinyataka memenuhi asumsi normalitas jika plot histogram menyerupai bentuk lonceng. Gambar di atas tampak bahwa ada nilai yang terlalu jauh menyimpang di bagian kanan. Ini menunjukkan bahwa model tidak memenuhi asumsi normalitas. Asumsi normalitas terpenuhi jika hasil histogram adalah menyerupai bentuk lonceng dengan sisi kanan dan kiri relatif sama dan kebanyakan nilai mengumpul di tengah.

Normal P Plot
Normal P Plot juga merupakan uji normalitas dengan diagram. Output ini akan muncul ketika kita memberikan tanda centang pada Normal probability plot seperti pada gambar di atas pada sub menu Plot.
Uji Normalitas dengan P Plot
Model dinyatakan memenuhi asumsi normalitas jika P Plot titik pada grafik mendekati sumbu diagonal pada grafis. Gambar di atas tampak bahwa titik-titik cenderung membentuk huruf S pada sumbu diagonalnya. Hasil ini selaras dengan pengujian histogram yang menyatakan bahwa model tidak memenuhi asumsi normalitas.

Kedua pengujian di atas adalah dengan metode grafis. Sedangkan beberapa metode di bawah adalah menggunakan metode perhitungan secara statistik.


Uji Lilliefors
Metode Lilliefors menggunakan metode Kolmogorov-Smirnov yang merupakan uji satu sampel untuk statistik non parametrik. Konsep dasarnya adalah membandingkan distribusi data yang akan diuji normalitasnya dengan normalitas baku. Jika ada perbedaan berarti data tersebut dinyatakan tidak normal, demikian sebaliknya, jika tidak terdapat perbedaan maka data dinyatakan normal.

Pilih Analyze, pilih Descriptive Statistics lalu klik pada Explore seperti pada gambar di bawah:
Menu Explore pada SPSS Versi 26
Maka kita akan masuk ke menu Explore dan masukkan variabel Residual ke box Dependent Lists lalu klik Plots di kanan atas seperti pada gambar di bawah:
Memasukkan Variabel
Kita akan diarahkan ke sub menu lagi dan berikan tanda centang pada Normal plots with tests seperti pada gambar di bawah:
Sub Menu Uji Normalitas
Lalu klik Continue lalu klik OK sehingga akan keluar output sebagai berikut:

Output Uji Normalitas denga Lilliefors
Hasil di atas memberikan nilai Signifikansi sebesar 0,00 < 0,05 yang berarti ada perbedaan yang signifikan dengan distribusi normal baku. Kesimpulannya adalah bahwa nilai residual tidak normal dan asumsi normalitas pada regresi linier tidak terpenuhi. Hasil ini sesuai dengan hasil yang diberikan dengan pengujian grafis sebelumnya.

Metode ini bahkan latah disebut Uji Kolmogorov-Smirnov karena memang dikembangkan oleh Kolmogorov dan Smirnov. Jadi metode ini juga bisa dilakukan dengan menu Non parametric atau selengkapnya silahkan simak di sini.


Uji Shapiro-Wilks
Uji Shapiro-Wilks menggunakan menu yang sama dengan uji Lilliefors, bahkan outputnya juga berdampingan seperti pada gambar di atas. Dengan konsep yang sama maka output signifikansi adalah sebesar 0,00 < 0,05 sehingga dinyatakan bahwa model regresi linier tidak memenuhi asumsi normalitas. Hasil ini konsisten dengan hasil pengujian yang sebelumnya. Artikel selengkapnya tentang uji normalitas dengan Shapiro-Wilks kami tampilkan di sini.


Skewness dan Kurtosis
Metode Skewness dan Kurtosis juga sering disebut dengan kemencengan data. Nilai Skewness (S) dan Kurtosis (K) bisa diperoleh dengan SPSS Versi 26, tetapi nilai Z nya harus dihitung sendiri dengan persamaan sebagai berikut:
Rumus Z untuk Skewness dan Kurtosis
Dengan N adalah jumlah sampel. Untuk mencari nilai S dan K, kita bisa menggunakan Analyze, lalu pilih Descriptive Statistics lalu klik pada Descriptives seperti pada gambar di bawah:
Menu Analisis Deskriptif pada SPSS Versi 26
Maka kita akan diarahkan ke menu analisis deskriptif
Memasukkan Variabel Residual
Masukkan variabel residual ke Box Variable(s) lalu klik pada Options di kanan atas sehingga akan masuk ke sub menu berikut:
Menu Skewness dan Kurtosis
Berikan tanda centang pada Kurtosis dan Skewness seperti pada gambar di atas lalu klik Continue lalu klik OK dan akan keluar output sebagai berikut:
Output Kurtosis dan Skewness
Nilai Skewness adalah sebesar 3,988 dan Kurtosis adalah sebesar 18,346 dan N adalah sebanyak 108. Jika di masukkan ke dalam persamaan di atas maka diperoleh nilai Z Skewness = 16,9197 dan Z Kurtosis = 38,9178. Keduanya jauh di atas 1,96 yang berarti tidak normal. Hasil ini juga sesuai dengan hasil perhitungan sebelumnya. Untuk artikel dan video lebih lengkap kami tampilkan di sini.

Jarque Berra
Jarque Berra (JB) adalah pengembangan dari Skewness dan Kurtosis karena memang menggunakan kedua nilai tersebut dengan persamaan sebagai berikut:
Rumus Jarque Berra
Dengan N adalah jumlah data maka kita dengan mudah menghitung nilai JB dan membandingkannya dengan nilai Chi Square pada df 2 dengan signifikansi 5% yaitu sebesar 5,99. Dengan menggunakan nilai S dan K yang telah diketahui di atas maka diperoleh nilai JB adalah sebesar = 1346,02 yang jelas jauh di atas 5,99. Berarti tidak memenuhi asumsi normalitas dan sesuai dengan hasil pengujian sebelumnya. Sebagai catatan, banyak yang menyarankan JB digunakan untuk sampel yang besar, bukan untuk sampel kecil.


Kesimpulan

Perlu ditegaskan sekali lagi bahwa asumsi normalitas pada regresi linier adalah pada nilai residualnya, bukan pada masing-masing variabel. Sebenarnya sudah sangat jelas.

Share:

Uji Validitas dan Reliabilitas Kuesioner dengan SPSS Versi 26

Uji validitas dan relibilitas sangat diperlukan jika seorang peneliti menggunakan rangkaian kuesioer sebagai alat untuk mengumpulkan data. Uji validitas dan reliabilitas diperlukan untuk menjamin bahwa rangkaian kuesioner yang diperlukan layak dipergunakan sebagai alat untuk mengumpulkan data. Contoh yang sering dipergunakan dalam blog ini adalah bahwa timbangan tidak valid dipergunakan untuk mengukur tinggi badan, demikian sebaliknya meteran tidak valid dipergunakan untuk mengukur berat badan seseorang. Ini contoh sederhana saja agar dapat dipahami dengan mudah dan sederhana. Reliabilitas dilakukan untuk memastikan bahwa suatu rangkaian kuesioner jika dipergunakan di lain waktu akan memberikan hasil yang kurang lebih serupa dengan hasil pengukuran yang telah dilakukan.

Untuk lebih mendalami lagi tentang uji validitas dan reliabilitas serta penggunaannya dengan SPSS Versi 26 mari kita simak bersama artikel berikut.

Daftar Isi

  1. Uji validitas
  2. Uji reliabilitas
  3. Simulasi uji validitas dan reliabilitas dengan SPSS Versi 26
  4. Apa yang terjadi jika kuesioner tidak valid dan tidak reliabel
  5. Kesimpulan
Uji Validitas
Ilmu sosial banyak bekerja dengan variabel yang sifatnya abstrak atau tidak bisa diukur secara langsung. Ketika berkaitan dengan luas, tinggi, panas atau variabel sejenis, maka peneliti akan dengan mudah mengukur secara langsung. Meteran untuk mengukur panjang atau tinggi, timbangan untuk mengukur berat, termometer untuk mengukur suhu dan sebagainya.

Ketika peneliti harus mengukur motivasi seseorang, maka belum ada alat ukur yang dapat mengukur motivasi seseorang secara langsung. Demikian juga dengan variabel seperti kepuasan, minat, kepercayaan, rasa tidak aman dan variabel sejenis. Oleh karena itu, peneliti harus mempunyai suatu rangkaian alat ukur yang mampu mengukur variabel-variabel abstrak seperti itu.

Uji validitas adalah uji untuk menentukan apakah suatu rangkaian kuesioner dapat dipergunakan sebagai alat ukur dari variabel yang ingin diukur. Definisi ini secara umum dan banyak sekali definisi tentang uji validitas. Sebagai contoh, apakah jumlah anak valid dalam mengukur tingkat sosial sebuah keluarga? Atau apakah luasan bangunan berkaitan erat dengan kekayaan seseorang?

Harus ada logika yang masuk akal antara sebuah pertanyaan dengan variabel yang akan diukur. Selain itu, peneliti juga harus menentukan apakah sebuah pertanyaan valid dalam mengukur variabel atau konstruk yang akan diukur. 

Uji Reliabilitas
Di sisi lain, suatu alat ukur haruslah bisa memberikan hasil ukur yang relatif sama ketika dipergunakan di waktu lain atau dipergunakan untuk mengukur objek atau subjek yang lain. Di sinilah diperlukan uji reliabilitas terhadap suatu rangkaian kuesioner. Uji reliabilitas adalah untuk menentukan apakah rangkaian kuesioner tersebut memberikan hasil yang kurang lebih sama jika dipergunakan untuk mengukur suatu objek atau subjek yang sama di lain waktu.

Simulasi uji validitas dan reliabilitas dengan SPSS Versi 26
Untuk melakukan uji validitas dan reliabilitas dengan SPSS Versi 26, kita bisa menggunakan file yang ada di sini. File tersebut dalam SPSS Versi 26 dan berisi file seperti pada gambar di bawah. Pilih analyze, pilih correlate lalu klik pada Bivariate.

Menu Uji Validitas SPSS Versi 26
Jika benar maka kita akan diarahkan masuk ke menu korelasi bivariate yang dapat dipergunakan sebagai alat untuk menguji validitas.
Memasukkan Indikator dan Jumlah Skor Indikator
Masukkan indikator X11 sampai dengan X14 dan juga X1 ke dalam box Variables seperti pada gambar di atas. Pastikan ada tanda centang pada Pearson seperti pada gambar di atas, lalu klik OK. Maka akan keluar output sebagai berikut:
Output Korelasi Pearson
Tabel di atas adalah output korelasi Pearson. Kita hanya melihat apakah suatu indikator mempunyai korelasi yang signifikan dengan skor total item dari semua indikator dalam satu konstruk. Dalam konteks ini, skor total adalah X1. Sehingga jika X11 berkorelasi secara signifikan dengan X1 maka dinyatakan valid. Pada gambar di atas bisa dilihat di kolom paling kanan, atau sebesar 0,847 untuk X11 dengan X1 dengan signifikansi sebesar 0,000. Karena 0,000 < 0,05 maka indikator X11 dinyatakan valid. Tampak juga bahwa hal serupa tampak pada indikator yang lain dari X12 sampai dengan X14.

Ini bukan satu-satunya cara, bisa juga dibandingkan antara nilai Korelasi Pearson dengan nilai R Tabel. Hasilnya akan konsisten karena jika R hitung > R tabel maka Signifikansi juga akan < 0,05. Ini hal yang pasti. Jika Anda menemukan hasil bahwa Signifikansi < 0,05 tetapi R hitung < R tabel, berarti ada yang salah. Biasanya ada kesalahan di menentukan nilai R Tabelnya. Nilai R tabel harus ditentukan secara benar berdasarkan jumlah N dan taraf signifikansi yang dipergunakan

Setelah itu, untuk uji reliabilitas silahkan pilih Analyze, pilih Scale lalu klik pada Reliability Analysis
Menu Uji Reliabilitas dengan SPSS Versi 26
Maka kita akan masuk ke menu uji reliabilitas. Masukkan indikator X11 sampai dengan X14 ke box Items. INGAT skor total X1 tidak usah dimasukkan. Pastikan di kiri bawah adalah Alpha, lalu klik pada Statistics di kanan atas.
Memasukkan Indikator
Setelah klik Statistics maka akan keluar sub menu sebagai berikut:

Sub Menu Statistics
Berikan tanda centang pada Scale if item deleted seperti pada gambar di atas. Setelah itu klik Continue lalu klik OK sehingga akan keluar output sebagai berikut:

Output Reliabilitas
Tampak bahwa nilai Cronbach's Alpha adalah sebesar 0,874 > 0,6 yang berarti rangkaian kuesioner tersebut adalah reliabel. Sedangkan output berikutnya adalah sebagai berikut:
Output Scale if Item Deleted
Sederhana saja, karena ada kata if item deleted, berarti jika dihapus. Baris paling atas adalah 0,838 artinya itulah nilai Alpha jika X11 dihapus atau tidak dipergunakan dalam perhitungan. Ini juga berlalu untuk baris berikutnya. Ini diperlukan jika hasil yang kita dapat tidak reliabel, sehingga kita bisa menentukan indikator mana yang harus kita hapus agar tercapai nilai di atas 0,6 atau reliabel. Artikel selengkapnya ada di sini.

Apa yang terjadi jika kuesioner tidak valid dan tidak reliabel
Jika angket atau kuesioner tidak valid, maka hasil ukur yang dihasilkan juga tidak valid atau tidak tepat, sehingga tidak bisa dipergunakan sebagai sumber data penelitian. Demikian juga tidak tidak reliabel, maka rangkaian kuesioner tersebut juga tidak dapat dipergunakan sebagai sumber data penelitian.

Jadi kuesioner memang harus valid dan reliabel, tidak bisa ditawar lagi. Tidak ada kata, sudah mepet waktunya, atau bahkan ada yang bertanya rujukan mana yang menyatakan kuesioner boleh tidak valid atau tidak reliabel. 

Kesimpulan
Kuesioner harus valid dan reliabel ya. TITIK

Share:

Uji Marginal Homogeneity dengan SPSS Versi 26

Uji Marginal Homogeneity adalah uji beda untuk sampel berpasangan pada statistik non parametrik. Uji ini mungkin kurang populer karena memang tidak semua Program SPSS mempunyai menu ini. Hanya Software SPSS yang diinstall secara lengkap yang memuat menu ini, sedangkan yang custom kadang tidak memuat menu uji ini. Lantas seperti apa uji Marginal homogeneity (MH) ini? Mari kita ulas bersama-sama.

Daftar isi

  1. Uji Beda Sampel Berpasangan
  2. Statistik Non Parametrik
  3. Uji-uji yang lain
  4. Uji Marginal Homogeneity
  5. Kesimpulan
Uji Beda Sampel Berpasangan
Uji beda dua sampel berpasangan (berhubungan/berkorelasi) adalah uji beda untuk melihat perbedaan antara dua sampel yang berhubungan (berkorelasi) atau dari sampel yang sama dengan treatment (perlakuan) yang berbeda. Istilah treatment dapat berupa latihan, pemberian obat atau suntikan, metode pembelajaran, kebijakan perusahaan dan masih banyak lagi. Pada setiap kasus, kelompok yang mendapatkan perlakuan dibandingkan dengan kelompok yang tidak mendapatkan perlakuan atau mendapatkan perlakuan lainnya.

Pada kasus perbandingan antara dua kelompok, kadang-kadang ada bias yang sangat fatal. Peneliti bisa menemukan adanya perbedaan yang signifikan, tetapi sebenarnya perbedaan itu bukan dikarenakan perlakuan. Misalnya kita ingin membandingkan keputusan pembelian I-phone antara dua kelompok, yaitu kelompok masyarakat yang tinggal di perkampungan dengan masyarakat yang tinggal di perumahan. Bisa saja peneliti menemukan perbedaan yang signifikan tetapi bukan karena tempat tinggal, tetapi karena variabel yang lain, misalnya pengaruh pergaulan sosial (ini hanya contoh saja).

Salah satu cara untuk menghindari adanya bias tersebut maka dilakukan dengan menggunakan dua sampel yang berpasangan (match). Kita dapat menghubungkan atau memasangkan kedua sampel yang akan diteliti. Pemasangan tersebut dapat dilakukan dengan pengontrol dirinya sendiri atau memasangkan subjek kemudian memberikan perlakuan yang berbeda. Untuk pengontrol dirinya sendiri, kita dapat mengukur variabel yang akan diukur pada 'sebelum' lalu membandingkannya dengan 'setelah' diberikan perlakuan. Misalnya harga saham diukur sebelum melakukan stock split lalu diukur lagi setelah melakukan stock split, lalu dibandingkan.

Contoh yang memasangkan, adalah dengan memilih suatu kelas lalu membaginya menjadi dua secara acak. Setelah itu dipasangkan dengan kriteria mempunyai nilai yang relatif sama. Setelah itu bagian pertama diberikan metode pembelajaran A, sedangkan bagian yang kedua diberikan metode pembelajaran B. Setelah itu dievaluasi lalu dibandingkan pada kedua pasangan tersebut.



Statistik Non Parametrik
Statistik non parametrik dikenakan pada data yang berbentuk nominal atau ordinal, atau bisa juga kepada data berbentuk interval atau rasio, di mana asumsi pada statistik parametrik tidak terpenuhi. Selain itu, statistik non parametrik juga dapat digunakan untuk jumlah sampel yang kecil, di mana tidak dimungkinkan untuk menambah jumlah sampel. Tidak ada ukuran yang jelas tentang besar kecilnya jumlah sampel, tapi banyak para ahli yang menyatakan bahwa di bawah 30 sebagai sampel kecil.

Akan tetapi tidak dapat dikatakan bahwa statistik non parametrik lebih atau kurang dibandingkan statistik parametrik. Keduanya saling melengkapi dan masing-masing dapat dipergunakan sesuai dengan kondisi atau ketersediaan data yang ada.




Uji-uji yang lain
Ada banyak uji beda dua sampel berpasangan pada statistik non parametrik. Masing-masing uji tersebut didasarkan pada asumsi yang berbeda atau jenis data yang berbeda. Uji tersebut misalnya Uji McNemar, Uji Tanda, Uji Wilcoxon dan Uji Marginal Homogeneity. Di artikel ini kita akan membahas secara khusus pada uji marginal homogeneity. Untuk uji yang lain, kita bahas selengkapnya di sini



Uji Marginal Homogeneity
Uji marginal homogeneity adalah perluasan dari uji McNemar yang dirancang untuk data binner, atau dummy atau 0 dan 1 atau respons dan tidak respons. Untuk uji McNemar maka tabel yang ada adalah 2 x2 tetapi untuk uji marginal homogeneity bisa lebih dari 2 x 2. Uji ini memang menggunakan metode yang cukup rumit sehingga harus menggunakan Matrik Aljabar, sehingga perhitungan secara manual hampir sulit sekali dilakukan. Dalam artikel ini, kita akan menggunakan alat bantu berupa Program SPSS Versi 26 yang telah diinstall menu uji Marginal Homogeneity.

Berikut adalah simulasi uji marginal homogeneity dengan data yang bisa di download di Google Drive dengan akun Gmail Anda

Menu Marginal Homogeneity pada SPSS Versi 26
Pilih Analysze, pilih Nonparametric Tests, pilih Legacy Dialogs lalu klik pada 2 Related Samples seperti pada gambar di atas. Maka kita akan masuk ke menu Marginal homogeneity seperti gambar di bawah:
Memasukkan Sampel dan Memilih Metode yang Dipergunakan
Masukkan sampel Sebelum dan Sesudah ke Box Test Pairs seperti pada gambar di atas. Lalu berikan tanda centang pada Marginal Homogeneity pada Test Type seperti pada gambar di atas. Setelah itu klik OK sehingga akan keluar output sebagai berikut:
Output Marginal Homogeneity
Gambar di atas adalah output dengan SPSS Versi 26. Perhitungannya memang cukup rumit, tetapi kita dapat mengambil justifikasi dengan Signifikansi sebesar 0,276 > 0,05 yang berarti tidak terdapat perbedaan yang signifikan pada kedua sampel penelitian. 


Kesimpulan
Penggunaan uji marginal homogeneity memang relatif sederhana, tetapi sebenarnya perhitungannya sangat rumit. Mungkin ini yang menyebabkan metode ini kurang populer dan di program SPSS juga tidak semuanya memuat metode ini.

Share:

Artikel Terbaru

Translate

Instagram

Instagram
Gabung Instagram Kami

Artikel Terbaru

Jual Data Laporan Keuangan Perusahaan yang Listing di BEI Tahun 2020

Setiap perusahaan yang telah go public wajib untuk menyerahkan laporan keuangan ke badan otoritas, sebagai salah satu bentuk pertanggungjawa...

Artikel Populer Seminggu Terakhir

Komentar Terbaru

`

Ingin menghubungi kami untuk kerja sama?

Nama

Email *

Pesan *