Tampilkan postingan dengan label Uji T. Tampilkan semua postingan
Tampilkan postingan dengan label Uji T. Tampilkan semua postingan

Uji Regresi Linear Sederhana dengan SPSS Versi 23

Artikel ini akan membahas tentang regresi linear sederhana, yamg mencakup satu buah variabel bebas (X) dan satu buah variabel terikat (Y) dengan alat bantu software SPSS Versi 23. Jika ada lebih dari satu variabel bebas, maka dinamakan regresi linear berganda. Sedangkan jika variabel terikat lebih dari satu, maka sebaiknya digunakan metode Structural Equation Modeling (SEM) baik berbasis varians maupun covariance.

Tabulasi Data Regresi Linear Sederhana dengan SPSS Versi 23

Simulasi ini menggunakan 125 data sebagai sampel. Pilih menu Regresi Linear yaitu Analyze, Regression, Linear seperti pada gambar di bawah:
Menu Regresi Linear

Klik pada Linear maka akan diarahkan ke Sub Dialog baru yaitu sebagai berikut:

Memasukkan Variabel

Masukkan variabel X ke dalam Independent(s) dan Y ke dalam Dependent. Lalu klik Statistic pada kiri atas:
Memilih Sub Menu

Berikan tanda centang pada Estimates dan Model fit, seperti pada gambar di atas. Setelah itu klik Continyu lalu klik OK sehingga akan keluar output. Kita bahas satu persatu outputnya.

Output Variable Entered

Output ini hanya menginformasikan variabel yang dipergunakan, yaitu X dan Y. Dependent Variable adalah Y dan variabel bebasnya adalah X. Jika ada lebih dari 1 variabel bebas, maka akan muncul pada kolom Variables Entered. Method adalah metode yang dipergunakan yaitu enter. Metode yang lain, misalnya Stepwise, Remove, Backward dan Forward. Nanti kita bahas lebih lanjut.
Output Model Summary

Output kedua memuat nilai R atau korelasi yaitu sebesar 0,818. Nilai ini berkisar antara 0 sampai dengan 1 dan sama persis dengan Korelasi Pearson baik dengan SPSS maupun dengan Korelasi Pearson yang juga bisa ita hitung dengan Microsoft Excel. Nilai ini juga bisa dibandingkan dengan nilai R yang terdapat pada Tabel R

Nilai R Square adalaha kuadrat dari nilai R jadi 0,818 x 0,818 = 0,669 (dibulatkan 3 angka di belakang koma). Nilai ini mencerminkan seberapa besar kemampuan variabel bebas dalam menjelaskan varians variabel terikat atau sering disebut dengan koefisien determinasi. Nilainya berkisar antara 0 sampai dengan 1 tapi selalu positif karena hasil kuadrat.

Nilai 0,667 adalah nilai  koefisien determinasi yang dikoreksi. Mengapa perlu dikoreksi? Karena nilai koefisien determinasi akan selalu meningkat jika ada variabel bebas baru yang ditambahkan. Ini bisa menyesatkan, karena seorang peneliti yang ingin mencari R yang tinggi tinggal menambahkan variabel bebas sembarang saja baik signifikan atau tidak akan meningkatkan nilai R atau puan R Kuadrat. Adjusted R Square nilainya bisa naik atau turun tergantung variabel bebas yang dimasukkan, apakah berpengaruh atau tidak. Interpretasi Adusted R Square sama dengan R Square, hanya saja nilai Adjusted bisa negatif.

Nilai standard Error adalah nilai kesalahan estimasi. Tidak ada ketentuan yang pasti untuk nilai itu, karena tergantung dari besar atau kecilnya variabel yang dipergunakan. Misalnya variabel rasio keuangan, maka nilainya relatif kecil, tetapi ketika menggunakan variabel gaji, atau jumlah penduduk, maka nilainya juga akan tinggi.

Output ANOVA atau F Hitung

Nilai Regression atau pun Residual sudah kita bahas di sini. Sedangkan untuk justifikasinya adalah dengan melihat signifikansinya, dalam simulasi ini adalah sebesar 0,00 < 0,05. Berarti model ini fit dan layak untuk dianalisis karena nilainya di bawah 0,05. Atau bisa juga dengan membandingkan nilai F hitung yaitu sebesar 249,019 dengan nilai F yang terdapat pada Tabel F. Jika F hitung > F tabel maka model dinyatakan fit. Hasilnya akan sama dengan justifikasi menggunakan signifikansi. Jika hasil ini tidak signifikan, maka model dinyatakan tidak fit. Sebaikya ditelaah lebih dulu secara menyeluruh, apakah datanya sudah benar, penyusunan model sudah tepat atau parameter yang lain.

Output T Hitung

Nilai pada kolom B adalah koefisien unstandardized dan dipergunakan untuk menyusun persamaan prediksi regresi sederhana ini. Ini sudah kita bahas di sini.

Koefisien standardized adalah untuk melihat variabel bebas mana yang mempunyai pengaruh yang dominan dibandingkan variabel yang lain. Karena ini hanya menggunakan 1 buah variabel bebas, maka nilai ini tidak perlu dibahas lebih mendalam.

Nilai t hitung adalah untuk menentukan variabel bebas ini berpengaruh signifikan atau tidak. Atau bisa juga menggunakan nilai signifikansi yang berarti signifikan karena nilainya adalah sebesar 0,000 < 0,05. Tetapi untuk menentukan pengaruhnya positif atau negatif harus kita lihat nilai t hitungnya apakah positif atau negatif.
Output Residual Statistik

Nilai predicted adalah nilai hasil prediksi dari persamaan regresi. Sedangkan nilai residual adalah selisih antara nilai sebenarnya dengan nilai prediksi. Nilai maksimum dan minimum dapat dipergunakan untuk mendapatkan gambaran ringkas tentang model kita.

Simulasi Independent Sample T Test atau Uji T Sampel Tidak Berkorelasi

Dalam suatu penelitian, ada suatu kondisi di mana kita ingin melihat perbedaan rata-rata antara dua sampel yang tidak berkorelasi. Misalnya kita ingin mengetahui perbedaan nilai rata-rata pelajaran tertentu antara siswa pria dan wanita,  Atau kita ingin melihat apakah terdapat perbedaan persepsi Standar Akuntansi Keuangan (SAK) terbaru antara akuntan publik dengan akuntan pendidik atau contoh-contoh lain yang serupa. Kita tidak dapat menggunakan paired test atau Uji T untuk sampel berpasangan, karena kedua sampel memang tidak berkorelasi, bahkan jumlahnya juga berbeda (dalam kasus tertentu, jumlah kedua sampel juga bisa sama). 

Dalam simulasi ini, kita ingin melihat apakah terdapat perbedaan nilai skor nilai pelajaran tertentu antara siswa wanita dengan siswa pria dalam suatu sekolah. 

Sampel 28 Pria dan 22 Wanita dan Rata-rata Skor Nilai Pelajaran
Terdapat 28 siswa pria dengan nilai rata-rata sebesar 28 dan 22 siswa wanita dengan rata-rata skor 25,30. Masing-masing data telah dilengkapi dengan standard deviasianya. Nilai rata-rata pada wanita lebih tinggi akan tetapi, apakah itu signifikan atau tidak secara statistik, mari kita lihat bersama. 

Langkah pertama adalah melihat apakah data tersebut normal atau tidak. Ini penting karena statistik parametrik mensyaratkan adanya normalitas data. 

Uji Normalitas SPSS dengan Kolmogorov-Smirnov
Tampak bahwa nilai Signifikansi adalah sebesar 0,073 > 0,05 yang berarti data pada sampel telah terdistribusi secara normal dan bisa dikenakan statistik parametrik. Pilih Analyze, pilih Compare Means lalu klik pada Independent Sample T Test seperti pada gambar di bawah:

Menu Independent Samples T Test

Maka akan masuk ke menu baru lalu masukkan variabel Skor ke Box Test Variables. Lalu masukkan JK (Jenis Kelamin) ke Grouping Variable, lalu klik pada Define Groups:

Memasukkan Data Sampel
Setelah klik Grouping Variables maka akan masuk lagi ke Sub Menu seperti pada gambar di bawah ini:

Sub Menu Grouping Variables
Berikan angka 1 pada Group 1 dan 2 pada Group 2. Ini merupakan Skala Nominal di mana 1 adalah Pria dan 2 adalah Wanita. Setelah itu klik Continue lalu klik OK sehingga akan keluar output sebagai berikut:

Output Independents Sample T Test


Pertama lihat pada Levene's Test untuk melihat apakah kedua sampel mempunyai varians yang equal atau tidak. Nilai F adalah 0,232 dengan Signifikansi sebesar 0,632 > 0,05 yang menunjukkan bahwa tidak terdapat perbedaan varians di antara kedua sampel atau equal. Jadi kita lihat nilai T hitung pada Equal Variances Assumed yaitu sebesar 0,380 (negatif) dengan Signifikansi sebesar 0,706 > 0,05 yang berarti tidak terdapat perbedaan nilai rata-rata antara dua kelompok tersebut.

Berarti skor nilai rata-rata pelajaran tertentu antara pria dan wanita adalah tidak berbeda. Hipotesis nol diterima dan hipotesis alternatif ditolak. Jika Anda merumuskan 'Terdapat perbedaan nilai rata-rata pelajaran X antara siswa pria dan wanita' maka hipotesis itu ditolak. Masalah? Tentu tidak, jika Anda melaksanakan penelitian dan analisis ini sesuai prosedur yang ada.

Uji Wilcoxon atau Uji T Sampel Berpasangan untuk Data Tidak Normal

Uji Wilcoxon adalah uji yang dipergunakan untuk menguji perbedaan dua sampel yang saling berkorelasi tetapi tidak memenuhi asumsi normalitas.  Jika asumsi normalitas terpenuhi maka dipergunakan Paired Test. Penggunaan Paired Test memerlukan normalitas pada kedua datanya. Jika salah satu (atau keduanya tidak normal, maka menggunakan Uji Wilcoxon. Berikut adalah simulasi Uji Wilcoxon dengan dua pasang data sebagai berikut:

Dua Sampel Data yang Berkorelasi
Gambar di atas menunjukkan 35 buah data dari dua buah sampel yang saling berkorelasi. Hasil uji normalitas dengan Kolmogorov-Smirnov memberikan hasil sebagai berikut:

Hasil Uji Normalitas SPSS dengan Kolmogorov-Smirnov
Tampak bahwa nilai Signifikansi untuk Sebelum dan Sesudah di bawah 0,05 yang menunjukkan bahwa kedua sampel tidak memenuhi asumsi normalitas. Tentu saja, bisa dilakukan transformasi data, trimming data atau pun menambah data agar memenuhi asumsi normalitas. Tetapi ini contoh untuk data tidak normal sehingga menggunakan Uji Wilcoxon.

Output Uji Wilcoxon dengan SPSS Versi 23
Prinsip dasarnya adalah dengan membandingkan mana yang lebih besar. Baris pertama Negative Ranks adalah sebesar 15 (dengan kode superscript a) yang berarti bahwa terdapat 15 buah pasangan data di mana nilai Sesudah < Sebelum. Sehingga dengan prinsip yang sama diperoleh Positive Ranks 12 (superscript b) yang berarti bahwa terdapat 12 pasangan data di mana nilai pada Sesudah > Sebelum. Terakhir ada 8 pasang data yang sama. Ini sangat mudah dimengerti. 

Setelah itu, selisih dari kedua pasang data diranking sehingga diperoleh Mean Rank dan juga Sum of Ranks. Sedangkan untuk melihat signifikansi menggunakan output sebagai berikut:

Uji Hipotesis dengan Wilcoxon
Sama dengan uji yang lain, tampak bahwa nilai signifikansi adalah sebesar 0,672 >0,05 yang berarti tidak terdapat perbedaan yang signifikan antara sampel sebelum dengan sesudah. Nilai Z yang negatif bisa Anda interpretasikan dengan petunjuk ada superscript b, yang intepretasinya sama dengan interpretasi pada tabel sebelumnya.

Simulasi One Sample T Test atau Uji T Sampel Tunggal

Selain pada analisis regresi, Uji T juga sering muncul dalam statistik komparasi. Uji T Sampel Tunggal atau Onel Sample T Test adalah uji untuk melihat apakah suatu distribusi data pada sampel tunggal mempunyai perbedaan atau tidak terhadap suatu nilai tertentu. Sebagai ilustrasi, berikut beberapa kasus atau contoh yang dapat dipergunakan untuk mengaplikasikan one sample t test:

  1. Sebuah perusahaana ingin melihat apakah hasil produksi penggaris sesuai dengan standar 30 atau tidak.
  2. Sebuah peneliti ingin melihat apakah kebijakan stock split memicu reaksi investor atau tidak dengan melihat adanya abnormal return
  3. Apakah lampu yang dihasilkan suatu perusahaan mampu menyala 1000 jam atau tidak.

Contoh-contoh kasus di atas dapat diselesaikan dengan one sample t test. Sebagai contoh, berikut adalah data hasil pengukuran produksi penggaris 30 cm oleh Quality Control:

Gambar 1 Tabulasi Data Ukuran Penggaris


Tabel di atas memuat data 50 ukuran penggaris yang diambil secara acak. Untuk melihat apakah distribusi data tersebut berbeda atau tidak dengan 30, kita lihat dulu normalitasnya. 

Gambar 2 Menu Uji Normalitas dengan Kolmogorov-Smirnov


Klik Analyze lalu pilih Nonparametric Tests, pilih Legacy Dialogs dan klik pada 1_Sample K-S sehingga akan diarahkan ke menu Uji KS sebagai berikut:

Gambar 3 Menu Uji Normalitas dengan KS

Masukkan Variabel Ukuran, lalu klik OK sehingga akan keluar output sebagai berikut:

Gambar 4 Hasil Uji Normalitas

Tampak bahwa nilai Signifikansi adalah sebesar 0,071 > 0,05 yang menunjukkan bahwa distribusi data normal, sehingga dapat dikenakan statistik parametrik one sample t test. Pilih Analyze, Plih Compare Means lalu klik pad One Sample T Test seperti pada gambar di bawah:

Gambar 5 Menu One Sample T Test


Setelah masuk ke menu One Sample T Test, masukkan varibel ukuran ke box, lalu masukkan angka 30 yaitu angka yang diharapkan yaitu sebesar 30 cm. 

Gambar 6 Memasukkan Variabel dan Parameter Test Value


Setelah itu klik OK sehingga akan keluar outputnya yaitu sebagai berikut:

Gambar 7 Output One Sample T Test


Gambar di atas menunjukan bahwa nilai T hitung adalah sebesar 1,248 dengan taraf signifikansi sebesar 0,218 > 0,05 yang menunjukkan bahwa distribusi data pada sampel tidak berbeda dengan nilai 30 cm. Inilah yang diharapkan oleh pelaku uji ini karena jika signifikan berarti hasil produksi tidak dapat dijual karena berbeda dengan ukuran yang diharapkan yaitu sebesar 30 cm. Penelitian atau uji adalah mencari kebenaran, bukan mencari signifikan atau tidak. Pengujian yang memberikan hasil yang tidak signifikan tidak serta merta dikatakan jelek dan harus diulang. Ini sangat tergantung dari tujuan pengujian itu sendiri. 

Ilustrasi lain adalah untuk uji Abnormal return di sekitar peristiwa stock split. Ada teori yang menyatakan bahwa kebijakan stock split berarti kinerja perusahaan bagus sehingga minat membeli investor meningkat dan akan terjadi abnormal return di sekitar terjadinya stock split. Ini akan didukung jika terjadi signifikansi return pada sekitar tanggal stock split dengan 0 sebagai parameter value. Akan tetapi, ada juga teori yang menyatakan bahwa Stock split hanyalah agar saham lebih likuid, jadi tidak terkait langsung dengan return. Abnormal akan terjadi di masa mendatang, bukan di sekitar tanggal stock split. Teori ini akan didukung jika tidak terjadi signifikansi di sekitar tanggal stock split dengan parameter value 0.

Simulasi Uji T Sampel Berpasangan atau Paired Sample T Test

Uji T sampel berpasangan atau Paired Sample T Test adalah  uji yang dipergunakan untuk melihat apakah terdapat perbedaan atau tidak pada dua kelompok atau dua sampel yang saling berhubungan. Pengertian berhubungan itu misalnya, ada satu kelas, diberikan suatu ujian, lalu diberikan metode pembelajaran tertentu, lalu diberikan ujian lagi yang kurang lebih sama, lalu dibandingkan hasil ujian antara sebelum diberikan metode tersebut dengan setelah diberikan metode tersebut. Jika ada perbedaan yang signifikan berarti metode tersebut dianggap efektif.

Contoh lain misalnya, perbedaan kinerja keuangan perusahaan sebelum melakukan stock split dengan kinerja perusahaan yang sama setelah melakukan stock split. Jika terdapat perbedaan berarti kebijakan tersebut mampu mengubah kinerja, tetapi jika tidak terdapat perbedaan berarti kebijakan tersebut tidak merubah kinerja atau mungkin hanya membuat sahamnya lebih likuid saja. Di sini juga dapat dijadikan rujukan bagi para peneliti yang bingung karena hipotesisnya ditolak. Ditolak atau diterima tidak masalah selama memang ada penjelasan yang masuk akal. 

Berikut adalah contoh dua distribusi data dari suatu sampel sebelum dikenai suatu treatment dengan setelah dikenai treatment

Contoh Data Uji Paired T Test atau Uji T Sampel Berpasangan

Ada 50 data yang disusun seperti gambar di atas. Sebelum melakukan Uji hipotesis, maka perlu dilihat apakah kedua data terdistribusi normal atau tidak. Ini syarat untuk statistik parametrik. Pilih 

Menu Uji Normalitas dengan Kolmogorov-Smirnov
Pilih Analyze, Nonparamatrics Tests, Legacy Dialogs klik pada 1-Sample K-S sehingga akan diarahkan ke sub menu sebagai berikut:

Masukkan Kedua Variabel ke dalam Box
Masukkan kedua variabel, Sebelum dan Sesudah ke dalam box di sebelah kanan. Pastikan Test Distribution di kiri bawah dberikan tanda centang pada Normal, lalu klik OK. Maka akan keluar output Uji Normalitas dengan Kolmogorov-Smirnov sebagai berikut:

Output Uji Normalitas dengan Kolmogorov-Smirnov
Tampak pada gambar di atas, bahwa kedua data telah terdistribusi secara normal dengan Signifikansi di atas 0,05. Berarti dapat dikenai statistik Uji T Sampel Berpasangan. Pilih Analyze, Compare Means lalu klik pada Paired-Samples T Test

Menu Uji T Sampel Berpasangan
Maka Anda akan diarahkan ke Sub Menu yaitu sebagai berikut:

Memasukkan Variabel ke Menu Paired T Test
Masukkan variabel Sebelum dan Sesudah seperti pada gambar di atas, Lalu klik pada OK, sehingga akan keluar output sebagai berikut:

Output Rata-rata dan Standar Deviasi
Output yang pertama adalah nilai rata-rata dan standar deviasi. Tampak bahwa nilai rata-rata Sebelum adalah sebesar 24,40 dan Sesudah adalah sebesar 25,10. Lebih tinggi Sesudah. Sedangkan standar deviasinya adalah 1,969 untuk Sebelum dan sebesar 2,082 untuk Sesudah. Keduanya tidak terlalu berbeda. Berikutnya adalah output Korelasi.
Output Nilai Korelasi Kedua Sampel

Kedua sampel mempunyai korelasi sebesar 0,647 dengan Signifikansi sebesar 0,000 yang berarti terdapat korelasi yang signifikan antara Sebelum dengan Sesudah. Korelasi tersebut sebenarnya sama dengan Korelasi Pearson

Untuk menentukan apakah terdapat perbedaan atau tidak, maka dipergunakan output yang ketiga yaitu sebagai berikut:

Output Uji T Sampel Berpasangan

Tampak bahwa selisih rata-rata antara Sebelum dengan Sesudah adalah sebesar 0,700. Nilai negatif menunjukkan bahwa nilai rata-rata Sesudah lebih tinggi dibandingkan sebelum atau ada peningkatan. Nilai T hitung adalah sebesar -2,903. Tanda negatif menunjukkan arah atau bahwa terjadi peningkatan. Jadi tinggal dibandingkan nilai mutlaknya dengan T pada tabel. Atau bisa juga dengan melihat nilai signifikansi yaitu sebesar 0,006 < 0,05 yang berarti signifikan. Terdapat perbedaan yang signifikan antara Sebelum dengan Sesudah. Jika dianalisis lebih lanjut, maka terjadi peningkatan nilainya.

Cara Membuat Tabel T dengan Microsoft Excel

Uji T dilakukan dengan membandingkan nilai T hasil perhitungan dengan nilai T yang terdapat pada Tabel atau juga sering disebut dengan Tabel T.  Uji T bisa digunakan pada statistik komparasi maupun statistik inferensial. Cara membaca T Tabel atau aplikasinya sudah banyak kami ulas di blog ini. Artikel berikut adalah tentang cara mudah membuat Tabel T dengan Microsoft Excel. 

Langkah pertama, adalah membuat Signifikansi yang diinginkan, misalnya 5% atau 0,05 dan df seperti pada gambar di bawah:


Lalu, pada cell B6 seperti pada gambar di atas, masukkan formula =TINV($B$5;A6) di mana tanda = menunjukkan bahwa cell itu diisi dengan formula. TINV adalah menu untuk menghitung nilai T Tabel yang sudah terdapat pada Excel. cell B5 adalah menunjukkan cell yang berisi signifikansi, dalam contoh ini 5% dan A6 adalah derajad kebebasan atau df. Tanda $ yang mengapit kolom B berarti bahwa jika di copy maka cell itu tetap tidak bergerak mengikuti cell yang menjadi tempat pastenya. Jika benar, maka akan memberikan nilai seperti pada gambar di bawah ini:

Nilai T Tabel adalah sebesar 12,706 untuk df 1 pada taraf signifikansi 5% dua arah. Dari cell tersebut tinggal di copy paste kan ke bawah sesuai dengan df yang diinginkan, bisa 20, 50, 100 atau lebih. Jika dapat diganti dengan nilai Signifikansi yang lain, misalnya 1% atau 10% sesuai keperluan. Untuk 5% memberikan hasil sebagai berikut:


Ternyata sederhana kan? Ini hanya untuk pengetahuan umum saja. Dalam praktek, banyak program statistik yang sudah memberikan hasil perhitungan signifikansi sehingga peneliti tidak semata-mata membandingkan dengan T Tabel.

Uji F dan Uji t pada Analisis Regresi Linear Berganda

Uji t dan uji F adalah uji yang diperlukan dalam analisis regresi linear berganda. Analisis regresi linear berganda adalah salah satu metode statistik yang sangat populer di kalangan peneliti, atau pun mahasiswa yang sedang menyusun tugas akhir studi. Secara umum, regresi linear digunakan untuk mencari pengaruh antara satu variabel bebas terhadap satu buah variabel terikat (regresi linear sederhana) atau mencari pengaruh antara beberapa variabel bebas terhadap satu buah variabel terikat (regresi linear berganda).

Lebih lanjut, uji F digunakan untuk melihat apakah model secara keseluruhan layak atau tidak. Juga sering disebut Goodness of Fit. Justifikasinya sederhana, yaitu jika F hitung > F tabel atau Signifikansi < 0,05 (5%) maka dinyatakan bahwa model tersebut dinyatakan layak dan pengujian bisa terus dilanjutkan. Sedangkan jika F hitung < F tabel atau Signifikansi > 0,05 (5%) maka model dinyatakan tidak fit, dan harus dilakukan modifikasi terlebih dahulu, misalnya dengan transformasi data, menambah atau mengurangi data, atau bisa juga dengan mengeluarkan variabel bebas atau bahkan menambahkan variabel bebas.

Uji t adalah untuk menguji apakah satu variabel bebas mempunyai pengaruh yang signifikan terhadap variabel terikat atau tidak. Justifikasinya sebenarnya sama dengan uji F, yaitu jika t hitung > t tabel atau signifikansinya < 0,05 (5%0 maka dinyatakan berpengaruh signifikan, atau sebaliknya jika t hitung < t tabel atau signifikansinya > 0,05 (5%) maka dinyatakan tidak berpengaruh. Dalam hal ini, nilai t bisa positif atau bisa juga negatif dan itu menunjukkan arah pengaruh, jadi untuk perbandingan dengan t tabel, bisa digunakan nilai mutlaknya saja.

Jadi sebenarnya kita harus melakukan F hitung dulu, karena F hitung akan menentukan apakah model tersebut layak atau tidak. Jika Uji F sudah OK, maka baru bisa dilakukan uji t (tentunya setelah model dinyatakan lolos semua uji asumsi klasik yang diperlukan). Untuk uji t juga telah dibahas cukup mendalam di artikel di link ini.


Pertanyaan yang sering muncul

1. Uji F saya tidak masuk, apakah boleh dilanjutkan ke uji yang lain?

Seperti yang telah diuraikan di atas, jika uji F tidak memenuhi syarat, sebaiknya tidak dilanjutkan ke pengujian yang lain. Cobalah lakukan modifikasi dulu. Uji F tidak masuk berarti tidak fit, goodness of fit nya tidak terpenuhi. 


2. Uji F saya masuk, tetapi semua uji t tidak ada yang masuk. Kenapa ini bisa terjadi?

Banyak penyebabnya, dan peneliti sendiri lah yang harus mencari penyebabnya, bukan orang lain. Bisa terjadi karena spefisikasi model yang salah, atau bisa juga karena pengambilan sampel yang kurang tepat, belum memenuhi asumsi klasik atau karena penyebab yang lain. Dalam banyak kasus, peneliti di awal tidak merujuk kepada penelitian secara tepat, jadi asal copas saja atau model lain lalu diganti satu atau dua variabel, atau bahkan model sama tetapi beda periode atau beda sampel (kelompok industri). Dalam hal ini memang kemungkinan-kemungkinan hasil yang kurang sesuai dengan rujukan sangat besar terjadi.

Pernah ada simulasi kasus seperti ini. Ada model yang hasil analisis regresi sangat berbeda dengan teori. Padahal model itu diadopsi dari sebuah jurnal yang sangat terpercaya. Bedanya hanyalah dengan mengganti sampel penelitian, dari perusahaan property diganti menjadi perusahaan consumer good. Nah, di sinilah letak persoalannya. Karakteristik perusahaan property, tentu sangat berbeda dengan perusahaan consumer good. Sehingga pertimbangan investor juga sangat berbeda (perusahaan yang listing di IDX). Bahkan para stake holders pun berbeda melihat sebuah rasio keuangan antara kedua kategori tersebut. Jadi wajarlah jika hasil analisis berbeda dengan jurnal yang dirujuk.


3. Apakah uji F juga bisa dipergunakan untuk menguji hipotesis penelitian?

Sebenarnya ada yang disebut dengan hipotesis statistik, ada juga yang disebut hipotesis penelitian. Nanti akan kami jelaskan dengan lebih rinci perbedaan keduanya. Jadi uji F yang dipergunakan untuk melihat kelayakan model adalah hipotesis statistik. Untuk hipotesis penelitian, harus ada rujukan teoretis yang kuat. Jadi pertanyaannya akan berbalik menjadi ada atau tidak rujukan teorinya. Kalau uji t, pengaruh antara satu variabel terhadap variabel yang lain biasanya akan sangat banyak rujukan teorinya. Di jurnal rujukan biasanya akan ada uraian tentang keterkaitan antara dua variabel yang akan diteliti. Tetapi keterkaitan antara dua atau lebih variabel terhadap satu variabel bebas, mungkin kita harus lebih teliti untuk mencermatinya.

Arti Pengaruh Positif dan Signifikan pada Uji T dalam Uji Regresi Linear

Dalam analisis regresi linear baik sederhana maupun berganda, kita akan mempergunakan uji t untuk menentukan apakah hipotesis diterima atau ditolak.   Untuk interpretasi uji t pada regresi linear, telah kami bahas di artikel ini.  Di sini kita akan bersama membahas tentang arti pada kalimat yang sering muncul yaitu, "Terdapat pengaruh yang positif dan signfikan" variabel X terhadap variabel Y. Kata 'positif' dalam kalimat itu artinya adalah searah, atau jika variabel X meningkat, maka variabel Y juga akan meningkat, sebaliknya, jika variabel X menurun, maka variabel Y juga menurun. Jadi kata positif bukan berarti positif pada uji kehamilan atau uji rapid test atau uji swab di mana jika negatif berarti tidak hamil atau tidak terinfeksi virus atau tidak berpengaruh.

Kata signifikan dapat diartikan sebagai bermakna, atau mempunyai makna atau berarti. Sebagai contoh, seorang karyawan mendapatkan kenaikan gaji bulanan dari Rp. 5.000.000 per bulan menjadi Rp. 5.005.000 atau naik Rp 5 ribu perbulan. Apakah gajinya naik? Tentu iya, tapi apakah kenaikan itu akan memberikan manfaat kepada karyawan tersebut? Tentunya tidak. Dalam hal ini kenaikan tersebut tidak signifikan atau tidak bermakna atau tidak mempunyai arti atau bahasa sehari-harinya, karyawan tersebut tidak akan berubah pola hidupnya karena kenaikan tersebut.

Sebagai ilustrasi berikut adalah output Uji T dengan SPSS Versi 25:

Variabel terikat adalah keputusan pembelian. Kita ambil contoh variabel Inovasi Produk, sehingga dinyatakan bahwa Inovasi produk berpengaruh positif dan signifikan terhadap Keputusan pembelian dengan T hitung sebesar 4,721 dan Sig sebesar 0,00 < 0,05. Artinya jika Inovasi produk ditingkatkan, maka keputusan pembelian juga akan meningkat, sebaliknya jika inovasi produk menurun, maka keputusan pembelian juga akan menurun. (ini hanya contoh, mohon tidak dibahas teorinya secara mendalam) 

Variabel yang lain, Sales promotion ternyata mempunyai t hitung yang negatif dengan sig < 0,05. Berarti Sales promotion berpengaruh negatif dan signifikan terhadap keputusan pembelian. Jika sales promotion ditingkatkan, maka keputusan pembelian justru menurun, sebaliknya jika sales promotion dikurangi, maka keputusan pembelian akan meningkat. Ini hanya contoh, mungkin agak aneh, tetapi mohon tidak dibahas lebih jauh. Mungkin karena adanya banyak promosi, maka calon konsumen justru menunggu adanya promosi, tidak membeli produk jika tidak ada promosi. (Ini terjadi ketika perusahaan pada tahap awal sedang 'bakar uang', misalnya fenomena beberapa waktu yang lalu pada taksi online).

Mudah-mudahan bisa dipahami. Nah, untuk variabel Personal Selling, bagaimana kalimatnya. T hitung negatif dan signifikansi > 0,05. 

Silahkan tulis di komentar jika berkenan.

Menghitung T Hitung Manual Berdasarkan Output SPSS

 Uji T pada analisis regresi linear sudah sangat akrab bagi para pemerhati statistik. Uji ini dipergunakan untuk menentukan apakah suatu variabel bebas berpengaruh signifikan atau tidak terhadap variabel terikatnya. Uji ini juga bisa dipergunakan untuk menentukan arah dari pengaruh tersebut, apakah positif atau negatif. Selengkapnya Anda bisa menyimak lebih lanjut di label pengujian hipotesis di blog ini. 

Di sini, kita akan mencoba membahas, bahwa sebenarnya T hitung pada output SPSS bisa dihitung secara manual berdasarkan output itu sendiri. Coba simak output di bawah ini:

Gambar Contoh Output Analisis Regresi Linear Berganda dengan SPSS Versi 23


Output di atas sedikit berbeda dengan output yang Anda lihat langsung di Program SPSS Anda. Bedanya, bahwa angka di belakang koma ada 5, sementara biasanya secara defaut hanya ada 3. Kita memang bisa mengubah jumlah angka di belakang koma tersebut, tinggal double klik saja pada output di SPSS maka nanti akan keluar menunya. Jika pada suatu ketika Anda mendapati output Anda Sig. adalah sebesar 0,05 coba Anda perbanyak angka di belakang koma, bisa saja sebenarnya adalah 0,046. Jadi Anda tidak perlu repot-repot mencari justifikasi. 

OK, balik ke topik semula. Pada kolom B, Unstandardized, CAR adalah sebesar -0,18271 dengan Standard Error sebesar 0,1486. Angka pada B adalah negatif, tetapi pada Standard error adalah positif. Mengapa? Karena error tidak mungkin negatif, OK?

Jika kedua nilai itu dibagi maka -0,18271 : 0,14186 = -1,28796 dan angkanya sangat dekat dengan nilai T hitungnya yaitu sebesar -1,28799. Nah, sebenarnya memang nilai T hitung dihitung berdasarkan rumus tersebut. Perbedaan nilai tersebut semata-mata karena pembulatan angka di belakang koma saja. Makanya dalam contoh ini kita buat 5 angka di belakang koma, karena kalau hanya 3 kadang selisihnya cukup besar. 

Hasil yang sama jika Anda menghitung pada NPL atau LDR. Silahkan mencoba.

Bagaimana dengan F hitung? Kita coba di lain waktu ya.

Cara Membaca T Tabel pada Uji T

Uji T adalah salah satu uji statistik yang secara umum membandingkan nilai t hitung dengan T Tabel. Uji dapat dipergunakan untuk menguji hipotesis berdasarkan nilai t yang diperoleh dari perhitungan statistik (T Hitung) lalu dibandingkan dengan nilai t yang terdapat pada tabel (T Tabel). Adapun Tabel T dapat diperoleh di buku-buku statistik yang Anda punyai. Biasanya di lampiran ada Tabel T dan juga tabel-tabel lain yang lazim dipakai dalam uji statistik. Salah satu contohnya adalah sebagai berikut:

Contoh Tabel T

Perhatikan tabel di atas, Tabel yang Anda miliki mungkin berbeda, tetapi sebenarnya esensinya adalah sama. Sebagai contoh, di kiri atas ada tulisan dk, itu adalah derajad kebebasan, ada juga yang tertulis df atau degree of freedom. Keduanya adalah sama yang dihitung dengan N - 1 untuk one tail dan N - 2 untuk two tail, di mana N adalah jumlah sampel. 

Sebagai contoh, dalam suatu perhitungan, menggunakan sampel sebanyak 30 dengan uji dua arah dan memberikan nilai t hitung sebesar 2,404. Untuk melihat nilai T tabelnya, pertama dihitung nilai df yaitu sebesar 30 - 2 = 28. Di mana 30 adalah jumlah sampel dan 2 adalah dua arah. Lalu silahkan pada kolok paling kiri dicari nilai dk sebesar 28.

Pada baris paling atas tertulis  untuk uji satu fihak, ini untuk satu arah dan di bawahnya lagi ada yang dua arah. Karena contoh ini menggunakan hipotesis dua arah, maka gunakan yang dua arah pada tingkat signifikansi 5% atau 0,05 sehingga akan diperoleh nilai T Tabel 

Nilai T Tabel untuk dk 28 pada tingkat signifikansi 5% uji dua arah

Tampak bahwa nilai T tabel adalah sebesar 2,048. Jika dibandingkan T hitung > T tabel atau 2,404 > 2,048 yang menunjukkan bahwa Hipotesis nol ditolak dan hipotesis alternatif diterima. Atau ada yang latah menyebutnya bahwa hipotesis diterima.

Silahkan dicoba untuk latihan, misalnya dengan N 40 atau jumlah yang lain.

Jika diperhatikan maka jumlah dk tidak urut. Tetapi di tabel lain mungkin akan urut dari 1 sd 100 atau bahkan lebih. Sebenarnya nilai tersebut bisa diinterpolasikan jika memang diperlukan. Misal untuk dk 100 maka letaknya adalah antara 2,000 sampai dengan 1,980 dengan dk antara 60 sampai dengan 120. Jadi 100 jika ditinjau dari 60 adalah 40 atau (40/60) atau 2/3. Sedangkan antara 2,000 dan 1,98 adalah sebesar 0,020. Dengan persamaan sederhana dapat diperoleh nilainya adalah sebesar (2/3) x 0,020 = 0,0133. Sehingga nilai T Tabelnya adalah sebesar 2,000 - 0,0133 = 1,9877. Banyak yang menuliskan sebesar 1,98 saja untuk memudahkan. 

Baris paling bawah adalah tanda tidak hingga, yang berarti bahwa untuk nilai df yang banyak sekali atau besar maka nilai T Tabel adalah sebesar 1,96. Ini sering dipergunakan pada SmartPLS atau LISREL atau AMOS yang sering muncul pertanyaan dari mana kok nilai T hitung dibandingkan dengan 1,96. Itu adalah nilai T Tabel untuk dk tak hingga atau banyak.

Interpretasi Uji t pada Analisis Regresi Linear

Metode pengujian hipotesis dengan t hitung pada analisis regresi adalah jika T hitung > T tabel maka hipotesis diterima, sebaliknya jika T hitung < T tabel maka hipotesis ditolak. Atau bisa juga menggunakan Signifikansi atau probabilitas atau Alpha. Misalnya untuk tingkat kepercayaan 95% atau tingkat kesalahan 5% maka jika Signifikansi > 0,05 maka hipotesis ditolak dan jika Signifikansi < 0,05 maka hipotesis diterima.

Ketentuan itu sudah sangat jelas dan sebenarnya tidak perlu untuk dibahas lebih lanjut. Atau jika ingin melangkah lebih lanjut, maka hipotesis diterima jika T hitung > T tabel atau Signifikansi < 0,05. Ditolak jika T hitung < T tabel atau Signifikansi > 0,05. Juga sudah sangat jelas. Akan tetapi pertanyaan yang sering masuk ke kami adalah kurang lebih seperti ini:

Bagaimana jika T hitung < T tabel dan Signifikansi < 0,05?

Ini memang luar biasa, tetapi tidak hanya 1 atau 2 pertanyaan seperti itu di kolom komentar blog sederhana ini. Kadang tidak kami jawab, karena memang sudah ada banyak jawaban di pertanyaan yang lain, atau kadang kami sampaikan bahwa hal itu tidak mungkin terjadi. Tapi kadang juga dibantah bahwa hasil yang dilakukan memberikan hasil seperti itu. 

Rupanya ini masalahnya:

Tabel di atas adalah Output SPSS untuk regresi linear dengan T tabel adalah sebesar 2,00  (Sudah kami chek berkali-kali). Kita lihat Variabel bebas Minyak dengan T hitung 2,261 dan Signifikansi sebear 0,028. Berarti memang benar T hitung > T tabel dan signifikansi < 0,05. Abaikan yang variabel Inflasi dan lihat yang variabel Kurs. Di situ tertulis T hitung -3,212 dan Signifikansi sebesar 0,002. Rupanya inilah yang sering dipermasalahkan. Itu kan T hitung < T tabel dan Signifikansi < 0,05. 

Penting untuk dipahami bahwa tanda negatif di depan angka tersebut BUKAN BERARTI NILANYA DI BAWAH 0. Itu adalah arah pengaruh. Jadi nilai T hitung diambil nilai mutlaknya atau nilai absolutnya yaitu sebesar 3,212. Jadi tetap T hitung > T Tabel dan Signifikansi < 0,05.

Tanda negatif berarti pengaruhnya adalah negatif atau berkebalikan sedangkan tanda positif berarti pengaruhnya juga positif. Untuk Variabel Minyak (positif), maka jika Harga minyak Naik maka nilai IHSG juga akan naik, atau jiika harga Minyak turun, maka IHSG juga turun, searah. TETAPI, untuk Kurs, karena tandanya negatif, maka jika Kurs Dollar NAIK, maka IHSG justru TURUN, sebaliknya jika Kurs Dollar TURUN, maka justru IHSG akan NAIK. 

Mudah-mudahan jelas.

Untuk mengeceknya, coba perhatikan variabel yang di tengah, yaitu Inflasi. Karena tandanya negatif maka jika Inflasi NAIK maka IHSG akan? (jawab dulu sebelum melihat artikel selanjutnya).


Jika Anda menjawab TURUN, maka meskipun Anda sudah paham tetapi kurang tepat :) Mengapa? Karena signifikansi > 0,05 dan juga T hitung < T tabel yang berarti tidak signifikan. Perubahan pada Inflasi tidak berpengaruh secara signifikan terhadap Kurs. Tapi syukurlah, Anda sudah paham tentang tanda positif dan negatif di depan T hitung.

Mudah-mudahan tidak ada yang bertanya bagaimana jika Signifikansi hasil hitung nilainya negatif :))

One Sample t test

One sample t test adalah untuk melihat apakah suatu distribusi data (sampel) mempunyai perbedaan atau tidak dengan nilai tertentu. Nilai tertentu ditetapkan oleh peneliti berdasarkan kebutuhan, misalnya ada data daya tahan lampu (dalam jam) dan penelitian ingin menentukan apakah sampel lampu tersebut mempunyai data tahan di atas 100 jam.

Justifikasi Penerimaan Hipotesis


Biasanya pada naskah skripsi atau tesis yang menggunakan analisis linear regresi berganda akan mempunyai hipotesis parsial (diuji dengan uji t) dan hipotesis simultan (diuji dengan uji F). Fenomena tersebut seolah-olah sudah latah dilakukan oleh mahasiswa dan juga disetujui oleh dosen pembimbing, yang sangat mungkin bukan berasal dari ilmu statistik.

Perumusan hipotesis parsial didasari oleh dasar teori yang kuat dan dapat dengan mudah dilakukan oleh mahasiswa dengan bantuan dosen, karena dosen memang sangat menguasai tentang hal itu. Akan tetapi, sebenarnya hipotesis simultan sering kali didasari oleh teori yang seolah-olah dipaksakan. Sebenarnya uji F adalah untuk melihat kelayakan modal saja. Jika uji F tidak signifikan, maka tidak disarankan untuk melakukan uji t atau uji parsial. Jadi hipotesis simultan sebenarnya tidak selalu harus dirumuskan dalam suatu penelitian. Toh dasar teorinya juga sangat lemah.

Penentuan penerimaan hipotesis dengan uji t dapat dilakukan berdasarkan tabel t. Nilai t hitung hasil regresi dibandingkan dengan nilai t pada tabel. Jika t hitung > t tabel maka berarti terdapat pengaruh yang signifikan secara parsial, dan sebaliknya jika t hitung < t tabel maka tidak terdapat pengaruh yang signifikan secara parsial. Hal tersebut juga berlaku untuk F hitung. Cara melihat nilai t tabel dan F tabel sudah banyak dibahas pada berbagai buku statistik. Misalnya untuk jumlah sampel 100 maka nilai t tabel untuk signifikansi 5% adalah dengan melihat nilai t dengan degree of freedom sebesar N – 2 = 100 – 2 = 98 untuk hipotesis dua arah. Nilai t dilihat pada kolom signifikansi : 2 = 5% : 2 = 0,025. Jika pengujian satu arah, maka df adalah 100 – 1 = 99 dan dilihat pada kolom 5%.

Untuk uji F, maka df dihitung dengan N – k – 1 dengan k adalah jumlah variabel bebas. Anda jangan bertanya, bagaimana kalau uji satu arah dan dua arah pada uji F. Uji F tidak mengenal arah, jadi ya pasti satu arah. Logika uji dua arah, adalah terdapat pengaruh antara variabel bebas terhadap variabel terikat, dan uji satu arah adalah terdapat pengaruh negatif/positif antara variabel bebas antara variabel bebas terhadap variabel terikat. Lha kalau uji F kan uji simultan, jadi bagaimana menentukan arah positif atau negatif.

Uji Beda (atau Sering Disebut Uji t)

Sesuai dengan namanya, uji beda, maka uji ini dipergunakan untuk mencari perbedaan, baik antara dua sampel data atau antara beberapa sampel data. Dalam kasus tertentu, juga bisa mencari perbedaan antara suatu sampel dengan nilai tertentu. Perhatikan contoh-contoh berikut:

1. Perusahaan ingin mengetahui apakah lampu yang diproduksi mampu menyala lebih dari 1000 jam sesuai dengan standar yang ditetapkan perusahaan.
2. Seorang guru ingin mengetahui apakah suatu model pengajaran memberikan hasil yang berbeda terhadap hasil prestasi belajar dua kelas siswa.
3. Seorang penelitian ingin mengetahui apakah terdapat perbedaan persepsi tentang advertising KAP antara kelompok akuntan publik, kelompok akuntan pendidik dan kelompok pengguna jasa KAP.

Contoh nomor #1 memerlukan uji beda terhadap suatu sampel data dengan nilai tertentu yaitu 1000 jam. Contoh nomor #2 memerlukan uji beda terhadap dua buah sampel yaitu nilai prestasi belajar antara dua kelas. Contoh nomor #3 memerlukan uji beda terhadap tiga kelompok akuntan dalam hal persepsi terhadap advertising KAP.

Juga terdapat jenis uji beda lain selain berdasarkan jumlah kelompok sampel yang diuji. Misalnya jumlah sampel pada masing-masing kelompok juga menentukan jenis uji beda yang digunakan. Jika dua kelompok mempunyai anggota yang sama dan mempunyai korelasi maka dipergunakan uji sampel berpasangan (paired test), dan jika jumlah anggota kelompok berbeda, tentunya tidak berkorelasi, maka memerlukan uji beda yang lain, misalnya Independent Sample t test atau Mann-Whitney U-Test.

Masing-masing metode memerlukan kajian tersendiri dan akan dibahas satu persatu. O ya, sebagai tambahan informasi, kenapa uji beda juga sering disebut uji t? Ini sebenarnya tidak penting, hanya sebagai pengetahuan saja. Disebut uji t karena merupakan huruf terakhir dari nama pencetus uji ini yaitu, Grosett. Tambahan lagi, kenapa disebut uji F? Karena merupakan huruf depan dari nama seorang pakar statistik di masa lalu, yaitu Fisher. He he jelas khan? Anda bisa menduga bahwa korelasi Pearson adalah diambil dari nama penemunya yaitu Karl Pearson dan berbagai metode juga diambil dari nama pencetusnya.

O ya lagi (O ya melulu ya?) ada yang latah menyebut bahwa uji beda merupakan uji statistik non parametrik. Anggapan ini kurang tepat, meskipun tidak sepenuhnya salah. Uji t dengan distribusi normal maka tetap merupakan statistik parametrik, akan tetapi jika distribusi data tidak normal, barulah merupakan statistik non parametrik. Jadi penentuan parametrik atau bukan, tidak didasarkan pada jenis uji tetapi tergantung dari distribusi data, apakah normal atau tidak.

Silahkan simak beberapa video singkat berikut tentang statistik komparatif atau uji beda:

Cari Materi

Berlangganan Gratis Lewat Email ?