Cari Materi

Analisis Diskriminan

Analisis diskriminan berguna pada siatuasi di mana kita ingin membentuk sebuah model prediktif dari beberapa kelompok (group) berdasarkan pada karakteristik pada masing-masing kasus. Prosedur pembentukan fungsi diskriminan (atau, pada lebih dari dua kelompok, serangkaian set dari fungsi diskriminan) berdasarkan pada kombinasi linear dari variabel-variabel prediktor yang memberikan pembeda terbaik dari kelompok-kelompok tersebut. Fungsi dibentuk dari sebuah sampel pada sebuah kasus di dalam sebuah group yang telah diketahui; fungsi lalu dapat diaplikasikan pada kasus baru dengan pengukuran pada variabel-variabel prediktor yang tidak diketahui masuk pada kelompok mana.

Catatan: Pengelompokan variabel dapat mempunyai lebih dari dua nilai. Kode untuk masing-masing pengelompokan variabel harus integer, akan tetapi, kita dapat menspesifikasikan nilai maksimum dan minimum. Kasus-kasus pada nilai di luar batas tidak termasuk pada analisis.

Sebagai contoh: Berdasarkan rata-rata, orang-orang pada daerah empat musim mengkonsumsi kalori per hari lebih banyak dibandingkan orang yang tinggal di daerah tropis. Peneliti ingin mengkombinasikan informasi ini pada sebuah fungsi untuk membedakan bagaimana seorang individu dapat dibedakan dalam dua daerah. Peneliti beranggapan bahwa informasi tentang ukuran populasi dan ekonomi juga penting. Analisis diskriminan memungkinkan kita mengestimasi koefisien dari fungsi linear diskriminan, yang merupakan bentuk lain dari persamaan regresi. Dengan demikian, dengan menggunakan koefisien a, b, c dan d, persamaannya adalah:
D= a * climate + b * urban + c * populasi + d * pdb
Jika variabel-variabel dapat membedakan dua iklim tersebut, maka nilai D akan berbeda antara daerah empat musim dan daerah tropis. Jika kita menggunakan metode stepwise, maka kita dapat menemukan varabel apa yang tidak masuk ke dalam fungsi. Asumsi pada analisis diskriminan
  1. Prediktor tidak mempunyai korelasi yang tinggi satu dengan yang lain
  2. Rata-rata dan varians pada prediktor tidak berkorelasi
  3. Corelasi antara dua prediktor adalah konstan pada semua group
  4. Nilai masing-masing prediktor harus berdistribusi normal
Untuk lebih jelasnya silahkan download simulasi dan contoh analisis diskriminan di bawah ini. sebagai informasi, materi ini disarikan dari manual book SPSS termasuk contoh data yang dipergunakan pada simulasi di bawah.

Regresi Linear dengan Variabel Kontrol

Sering kali kita mendengar istilah variabel kontrol, yaitu variabel yang dimasukkan penelitian ke dalam penelitian untuk mengendalikan atau menghilangkan pengaruh tertentu pada model penelitian. Sebagai ilustrasi, ketika kita membandingkan laba tahunan sebuah perusahaan, maka interpretasi kita akan menjadi bias, karena perusahaan yang besar (total assetnya) cenderung mempunyai laba yang lebih besar. Oleh karena itu, kita sering memasukkan total assets sebagai salah satu variabel agar hasil penelitian tidak menjadi bias. Atau bisa juga dengan menggunakan rasio keuangan Earning After Tax (EAT) yang merupakan laba dibagi total assets.

Dalam aplikasi regresi linear, sering kali sebuah model akan memberikan hasil yang bias tanpa adanya variabel kontrol. Berikut adalah ilustrasi mengenai pentingnya memasukkan variabel kontrol dalam sebuah model, agar kesimpulan yang ditarik tidak bias atau salah persepsi.

Baca selengkapnya, silahkan download di sini

Simulasi regresi linear dengan variabel kontrol

Simulasi Uji Multikolinearitas

Gangguan multikolinearitas terjadi jika dalam sebuah model terdapat korelasi yang tinggi antara dua atau lebih variabel bebas. Logikanya sederhana, jika anda ingin mencari pengaruh antara A, B dan C terhadap D, maka seharusnya tidak ada korelasi (yang tinggi) baik antara A dengan B, A dengan C atau pun antara B dengan C. Jika terdapat korelasi yang tinggi antara variabel bebas, maka terjadi gangguan multikolinearitas.

Ada beberapa cara pengujian gangguan multikolinearitas, di antaranya dengan mencari korelasi secara langsung antara masing-masing variabel bebas, bisa juga menggunakan Variance Inflation Factor yang biasanya juga dengan Tolerance, atau dengan Condition Index dan Eigenvalue.

Berikut adalah simulasi uji multikolinearitas beserta dengan data contohnya (Silahkan download)

Simulasi Uji Multikolinearitas dengan VIF dan Korelasi
Simulasi Uji Multikolinearitas dengan CI
Contoh data uji multikolinearitas

One Sample t test

One sample t test adalah untuk melihat apakah suatu distribusi data (sampel) mempunyai perbedaan atau tidak dengan nilai tertentu. Nilai tertentu ditetapkan oleh peneliti berdasarkan kebutuhan, misalnya ada data daya tahan lampu (dalam jam) dan penelitian ingin menentukan apakah sampel lampu tersebut mempunyai data tahan di atas 100 jam.

Untuk lebih jelasnya, silahkan download materi ini di sini.

Varians

Varian merupakan jumlah kuadrat semua deviasi nilai-nilai individual terhadap rata-rata kelompok. Varian merupakan konsep yang cukup penting dalam statistik, karena merupakan dasar dari banyak metode statistik inferensial. Sebagai contoh, berikut adalah tampilan data:
10, 12, 15, 16 dan 12

Maka dapat dengan mudah dihitung rata-rata dari lima data di atas adalah (10 + 12 + 15 + 16 + 12)/5 = 65/5 = 13. Varian dihitung berdasarkan kuadrat selisih dari masing-masing data terhadap nilai rata-ratanya, sehingga:

(10-13)^2 + (12-13)^2 + (15-13)^2 + (16-13)^2 + (12-13)^2 = (-3)^2 + (-1)^2 + 2^2 + 3^2 + (-1)^2 = 9 + 1 + 4 + 9 + 1 = 24.

Jadi besarnya varian adalah 24 dibagi 5 (jumlah data jika merupakan populasi) atau dibagi 5-1 = 4 jika merupakan sampel. Sehingga nilainya adalah 24/4 = 6 (dianggap merupakan sampel).
Dan jika akan dihitung standar deviasi maka akar kuadrat dari 6 yaitu sebesar 2,449.

Varian merupakan ukuran variabilitas data, yang berarti semakin besar nilai varian berarti semakin tinggi fluktuasi data antara satu data dengan data yang lain. Untuk jelasnya, perhatikan data gaji pada dua kelompok masyarakat di bawah:

Kelompok kampung: 3 juta, 1 juta, 6 juta, 8 juta, rata-rata 4,5 juta
Kelompok perumahan: 4 juta, 5 juta, 4,2 juta, 4,8 juta, rata-rata 4,5 juta.
Empat orang dari dua kelompok diambil secara acak dan diambil data gaji perbulannya. Kelompok pertama, terdiri dari empat orang warga kampung X, yang pertama mempunyai gaji 3 juta, yang kedua 1 juta, yang ketiga 6 juta dan yang keempat 8 juga, maka rata-ratanya adalah sebesar 4,5 juta.
Empat orang dari kelompok kedua, yaitu warga perumahan, yang pertama mempunyai gaji 4 juta, yang kedua 5 juta, yang ketiga 4,2 juta dan yang keempat 4,8 juta dengan rata-rata 4,5 juta.
Tampak bahwa rata-rata kedua kelompok adalah sama yaitu sebesar 4,5 juta. Tampilan data dengan rata-rata, menimbulkan bias, karena seolah-olah mempunyai rata-rata yang sama, sehingga kebijakan yang diambil dapat salah. Jika kita menghitung varian dari kedua kelompok tersebut akan diperoleh bahwa kelompok pertama mempunyai varian sebesar 29/3 = 9,67 dan untuk kelompok kedua mempunyai varian sebesar 0,68/3 = 0,227. Tampak bahwa varian kelompok satu (warga kampung) lebih tinggi dari pada varian kelompok kedua (warga perumahan). Interpretasinya adalah bahwa pendapatan warga kampung sangat berfluktuatif ada yang kecil ada yang sangat besar. Akan tetapi pendapatan warga perumahan relatif sama dan mempunyai tingkat ekonomi yang relatif sama antara satu warga dengan warga perumahan yang lain. Dengan menyertakan nilai varian pada rata-rata akan memberikan informasi yang lebih akurat. Demikian juga dengan standar deviasi, yang besarnya merupakan akar kuadrat dari varian.

Skala Pengukuran Statistik

Ada 4 macam skala pengukuran yaitu: skala nominal, skala ordinal, skala interval dan skala rasio.
1. Skala nominal
Adalah skala yang semata-mata hanya untuk memberikan indeks, atau nama saja dan tidak mempunyai makna yang lain. Contoh:
Data
Kode (a)
Kode (b)
Yuni
1
4
Desi
2
2
Ika
3
3
Astuti
4
1
Keterangan: Kode 1 sampai dengan 4 (a) semata-mata hanyalah untuk memberi tanda saja, dan tidak dapat dipergunakan sebagai perbandingan antara satu data dengan data yang lain. Kode tersebut dapat saling ditukarkan sesuai dengan keinginan peneliti (menjadi alternatif b) tanpa mempengaruhi apa pun.

2. Skala ordinal
Adalah skala ranking, di mana kode yang diberikan memberikan urutan tertentu pada data, tetapi tidak menunjukkan selisih yang sama dan tidak ada nol mutlak. Contoh:
Data
Skala Kecantikan (a)
Skala Kecantikan (b)
Yuni
4
10
Desi
3
6
Ika
2
5
Astuti
1
1
Skala kecantikan (a) di atas menunjukkan bahwa Yuni paling cantik (dengan skor tertinggi 4), dan Astuti yang paling tidak cantik dengan skor terendah (1). Akan tetapi, tidak dapat dikatakan bahwa Yuni adalah 4 kali lebih cantik dari pada Astuti. Skor yang lebih tinggi hanya menunjukkan skala pengukuran yang lebih tinggi, tetapi tidak dapat menunjukkan kelipatan. Selain itu, selisih kecantikan antara Yuni dan Desi tidak sama dengan selisih kecantikan antara Desi dan Ika meskipun keduanya mempunyai selisih yang sama (1). Skala kecantikan pada (a) dapat diganti dengan skala kecantikan (b) tanpa mempengaruhi hasil penelitian.
Skala nominal dan skala ordinal biasanya mempergunakan analisis statistik non parametrik, contoh: Korelasi Kendall, Korelasi Rank Spearman, Chi Square dan lain-lain.

3. Skala interval
Skala pengukuran yang mempunyai selisih sama antara satu pengukuran dengan pengukuran yang lain, tetapi tidak memiliki nilai nol mutlak. Contoh:
Data
Nilai Mata Kuliah (a)
Skor Nilai Mata Kuliah (b)
Yuni
A
4
Desi
B
3
Ika
C
2
Astuti
D
1
Tabel di atas menunjukkan bahwa nilai A setara dengan 4, B setara dengan 3, C setara dengan 2 dan D setara dengan 1. Selisih antara nilai A dan B adalah sama dengan selisih antara B dan C dan juga sama persis dengan selisih antara nilai C dan D. Akan tetapi, tidak boleh dikatakan bahwa Yuni adalah empat kali lebih pintar dibandingkan Astuti, atau Ika dua kali lebih pintas dari pada Astuti. Meskipun selisihnya sama, tetapi tidak mempunyai nilai nol mutlak.

4. Skala rasio
Adalah skala pengukuran yang paling tinggi di mana selisih tiap pengukuran adalah sama dan mempunyai nilai nol mutlak. Contoh:
Data
Tinggi Badan
Berat badan
Yuni
170
60
Desi
160
50
Ika
150
40
Astuti
140
30
Tabel di atas adalah menggunakan skala rasio, artinya setiap satuan pengukuran mempunyai satuan yang sama dan mampu mencerminkan kelipatan antara satu pengukuran dengan pengukuran yang lain. Sebagai contoh; Yuni mempunyai berat badan dua kali lipat berat Astuti, atau, Desi mempunyai tinggi 14,29% lebih tinggi dari pada Astuti.

Skala pengukuran interval dan rasio biasanya dikenai alat statistik parametrik

Artikel Terkait

Penanggulangan Masalah Autokorelasi

Salah satu alternatif untuk mengatasi model regresi linear yang terkena gangguan autokorelasi adalah dengan memasukkan lag dari variabel terikat menjadi salah satu variabel bebasnya. Misalnya ada urutan data seperti ini:


Ini hanya contoh ya, disarankan untuk tidak menggunakan regresi linear dengan 16 data saja. He he. Mau buat banyak-banyak capek…… nah kalau mau liat datanya, tinggal download saja. Klik menu Analyze, sorot pada Regression, klik pada linear seperti ini:


Jika anda benar, maka akan diarahkan ke box regresi linear seperti ini:


Masukkan variabel Y ke kotak dependen, dan variabel X ke kotak Independen seperti gambar di atas. Untuk memunculkan menu autokorelasi dengan Durbin-Watson, klik menu Statistic di bagian bawah agak ke kiri. Dah ketemu??? Ya benar, di situ, di sebelah kiri menu Plots. Jika anda klik di menu Statistic, maka akan diarahkan ke box menu sebagai berikut:


Berikan tanda centang (tick mark) pada Durbin-Watson seperti pada contoh. Lalu tekan Continue di kanan atas, sehingga akan dikembalikan ke menu regresi, lalu tekan OK dan program akan mengeluarkan Outputnya seperti ini:


Jika anda benar, maka akan didapat nilai Durbin-Watson sebesar 0,287. Perhatikan tabel DW untuk satu buah variabel (k’) sebesar 1 dan jumlah data 16, maka nilai dL adalah 1,10 dan dU adalah 1,34. Tampak bahwa 0 < DL yang menunjukkan terjadi gangguan autokorelasi. Kita coba memasukkan lag variabel dengan menggunakan menu Tranform, lalu pilih Compute


Maka anda akan diarahkan ke Box Compute. Lalu ketikkan Lag_Y pada target variabel. Artinya variabel lag nanti akan disimpan pada kolom dengan nama Lag_Y. lalu pada Function, di bagian kanan, cari menu LAG(Variable). Sorotkan mouse lalu tekan tanda panah ke atas di samping Function. Sehingga Numeric Expression akan keluar Lag(?). Tanda tanya itu anda ganti dengan Y, artinya variabel Y.

Lalu klik aja OK di bagian bawah. Sehingga tabulasi data pada SPSS akan menjadi seperti ini:


Anda dapat melihat, bahwa lag variabel adalah menggeser ke bawah suatu variabel. Atau data nomor 1 menjadi data nomor 2 pada lag, data nomor 2 menjadi data nomor 3 pada lag dan seterusnya. Dan, ya anda benar, maka data nomor 1 pada lag akan kosong, sehingga data total akan berkurang satu. Setelah itu, lakukan penghitungan regresi lagi seperti di atas, dengan menambahkan variabel Lag y sebagai variabel bebas. Maka jika anda benar (mudah-mudahan benar) dan akan keluar output sebagai berikut:


Tampak pada gambar di atas bahwa nilai DW adalah sebesar 1,557. Akan tetapi, motode Durbin-Watson tidak boleh dipergunakan untuk model seperti ini yang sering disebut dengan Autoregressive. Jadi coba gunakan metode deteksi autokorelasi yang lain, misalnya Run Test.

Pada tahap interpretasi model, lag variabel tidak usah diinterpretasikan karena hanya merupakan metode untuk menghilangkan gangguan autokorelasi saja. Juga masih ada metode lain, misalnya dengan persamaan beda umum (first difference delta) yang akan dibahas lebih lanjut.

Bahan bacaan:
Muhammad Firdaus, 2004. Ekonometrika suatu Pendekatan Aplikatif. Jakarta: Bumi Aksara
Durbin, J., dan Watson, G.S., 1951. Testing for Serial Correlation in Least Square Regression. Biometrika, Vol. 38. Hlm. 159 – 177

Pengantar Regresi Ordinal

Ordinal regression (regresi ordinal) adalah analisis regresi di mana variabel terikatnya menggunakan skala ordinal. Apakah itu skala ordinal? (Jawabannya lihat di postingan Skala Pengukuran Statistik). Sedangkan variabel bebasnya bisa merupakan Covariate (jika menggunakan skala interval atau rasio) atau bisa merupakan Factor (jika menggunakan skala nominal atau ordinal).

Penting untuk dimengerti bahwa jika kita mempunyai variabel terikat dalam data ordinal, maka penggunaan regresi linear berganda memberikan hasil yang tidak baik, atau bahasa resmi pada buku panduan SPSS mengatakan “don’t work very well”. Alternatif metode yang digunakan sering juga disebut dengan Generalized linear models yang memprediksikan cummulative probabilities dari kategori yang ada. Misalnya begini, ada kategori perokok, katakanlah perokok ‘berat’, ‘sedang’, ‘ringan’ dan ‘tidak merokok’ (untuk sementara variabel bebasnya tidak dibahas dulu). Jadi kemungkinan kategori sopir, misalnya

Sebagai perokok berat, kemungkinannya 0,4
Sebagai perokok sedang, kemungkinannya 0,3
Sebagai perokok ringan, kemungkinannya 0,2
Sebagai tidak merokok, kemungkinannya 0,1

Maka cummulative probability dapat dihitung sebagai berikut:

Perokok berat, cummulative probabilitinya 0,4
Perokok berat atau sedang, cummulative probabilitinya 0,4 + 0,3 = 0,7
Perokok berat atau sedang atau ringan, cummulative probabilitinya 0,4 + 0,3 + 0,2 = 0,9
Perokok berat atau sedang atau ringan, cummulative probabilitinya 0,4 + 0,3 + 0,2 + 0,1 = 1

Bisa dipahami? Jadi dalam hal ini perhitungan yang terakhir akan memberikan nilai 1 (atau 100%).

Dari simulasi tersebut mudah-mudahan bisa dipahami. Sehingga dengan kata-kata sederhana, regresi ordinal dapat memberikan jawaban, seberapa besar kemungkinan seorang sopir itu menjadi seorang perokok berat? Jawabannya yaitu sebesar 0,4. Lebih lanjut, seberapa besar kemungkinan seorang sopir menjadi seorang perokok berat atau perokok sedang? Jawabannya 0,7. Seberapa besar kemungkinan seorang sopir menjadi perokok berat atau perokok sedang atau perokok ringan (dengan kata lain merokok), jawabannya 0,9. Nah yang terakhir kan tidak perlu dipertanyakan. Karena pertanyaannya akan menjadi seberapa besar kemungkinan seorang sopir merokok atau tidak merokok? Jawabannya ya pastilah 1.

Sudah mendapatkan pecerahan??? Dalam implikasinya, regresi ordinal hanya akan memberikan persamaan untuk memprediksi seberapa besar kemungkinan sopir merokok berat, merokok berat atau sedang, dan merokok berat atau sedang atau ringan. Itu saja. Tidak ada persamaan yang memprediksikan seberapa besar kemungkinan sopir itu menjadi seorang perokok berat, atau sedang atau ringan atau tidak merokok. Karena yang jelas lah jawabannya mesti 1.

Contohnya begini, misalnya ada judul penelitian seperti ini: Pengaruh Quick ratio (QR), Return on Assets (ROA) dan Debt to Equity Ratio (ER) terhadap opini audit.

Dalam hal ini variabel bebasnya merupakan covariate, dan opini audit dilambangkan dengan 4 (wajar tanpa pengecualian), 3 (wajar dengan catatan), 2 (wajar dengan catatan) dan 1 (tidak wajar). Setelah dilakukan perhitungan regresi ordinal, maka akan memberikan 3 persamaan yaitu persamaan yang mencerminkan pengaruh QR, ROA dan DER terhadap kemungkinan perusahaan mendapatkan opini auditor 4, persamaan kedua adalah persamaan yang mencerminkan pengaruh QR, ROA dan DER terhadap kemungkinan perusahaan mendapatkan opini auditor 4 atau 3 dan persamaan ketiga adalah terhadap kemungkinan perusahaan mendapatkan opini audit 4 atau 3 atau 2. Nah jika anda ingin melihat seberapa besar kemungkinan perusahaan mendapatkan opini 3 saja, ya anda tinggal mengurangkan seberapa besar kemungkinan perusahaan mendapatkan opini 4 dan 3 dengan seberapa besar kemungkinan perusahaan mendapatkan opini 4.

O ya, terdapat lima pilihan regresi ordinal atau sering disebut option link. Kelima pilihan tersebut adalah Logit, Complementari log-log, Negative log-log, Probit dan Cauchit. Pilihannya tergantung dari distribusi data yang dianalisis. Panduannya kurang lebih sebagai berikut:

Logit dengan persamaan: f(x) = log(x/(1-x))
Digunakan pada kebanyakan distribusi data, jadi Program SPSS secara default menggunakan option link berupa Logit

Complementary Log-log dengan persamaan f(x) = log(-log(1-x))
Digunakan untuk data yang mempunyai kecenderungan bernilai tinggi.

Negative Log-log dengan persamaan f(x) = -log(-log(x))
Digunakan untuk data yang mempunyai kecenderungan bernilai rendah

Probit dengan persamaan f(x) = O-1 (x) dengan O-1 adalah fungsi inverse distribusi kumulatif standar normal
Digunakan jika variabel latent terdistribusi secara normal

Cauchit (Inverse Cauchy) dengan persamaan f(x) = tan(Phi(x-0,5))
Digunakan jika variabel latent mempunyai nilai yang ekstrem

Kelima option di atas harus ditentukan dengan menelaah distribusi data. Bagi yang berminat dengan regresi ordinal, tolong ini ditelaah dulu sebelum masuk kepada cara menggunakan regresi ordinal dengan Program SPSS. Kalau masih ada yang kurang jelas silahkan berkomentar dan subscribe aja, jadi jawabannya akan otomatis masuk ke email anda

Bagi yang berminat membaca artikel lebih lanjut silahkan download di sini



Structral Equation Modeling (SEM) Berbasis Variance

SEM memiliki fleksibilitas yang lebih tinggi bagi peneliti mengkonfirmasikan teori dengan data, dibandingkan teknik multivariate yang berkembang sebelumnya yaitu principal component analysis, factor analysis, discriminant analysis atau multiple regression. Terdapat dua kelompok SEM akhir-akhir ini yaitu, berbasis covariance dan berbasis variance (component)

SEM berdasarkan pada Covariance
SEM berbasis covariance yang berkembang sekitar tahun 1973 mulai menarik perhatian para peneliti setelah keluarnya LISREL III yang dikembangkan oleh Joreskog dan Sorbom. Ide dasarnya adalah dengan menggunakan fungsi Maximum Likelihood (ML) sehingga covariance based SEM (CBSEM) sebenarnya berusaha meminimumkan perbedaan antara sample covariance dan covariance yang diprediksi oleh model teoritis. Penggunaan CBSEM sangat dipengaruhi oleh asumsi parametrik yang harus dipenuhi seperti variabel yang diobservasi memiliki multivariate normal distribution dan observasi harus independen satu sama lain.

CBSEM sangat dipengaruhi oleh jumlah sampel, karena jumlah sample kecil dapat menghasilkan model yang jelek masih dapat menghasilkan model fit. CBSEM mengharuskan dalam membentuk variabel latent, indikator-indikatornya bersifat refleksif. Dalam model refleksif indikator atau manifest dipandang variabel yang dipengaruhi oleh variabel laten sesuai dengan teori pengukuran classical test theory. Pada model indikator refleksif, indikator-indikator pada satu konstruk (variabel laten) dipengaruhi oleh konsep yang sama. Perubahan dalam satu item atau indikator akan berakibat pada perubahan indikator lainnya dengan arah yang sama.

Pada kenyataannya indikator dapat dibentuk dalam bentuk formatif indikator model yaitu indikator dipandang sebagai variabel yang mempengaruhi variabel laten. Sebagai ilustrasi indikator pendidikan, pekerjaan dan pendapatan mempengaruhi variabel laten status sosial ekonomi. Jika salah satu indikator meningkat maka indikator yang lain tidak harus ikut meningkat pula. Kenaikan pada suatu indikator pendapatan akan meningkatkan variabel laten.

Penggunaan model indikator formatif dalam CBSEM akan menghasilkan model yang unidentified yang berarti terdapat covariance bernilai nol di antara beberapa indikator. Hubungan kausalitas model struktural dibangun atas dasar teori dan CBSEM hanya ingin mengkonfirmasi apakah model berdasarkan teori tadi tidak berbeda dengan model empirisnya.

Dengan beberapa keterbatasan yang ada maka sekarang banyak yang menggunakan SEM berbasis component atau variance yang terkenal dengan Partial Least Square (PLS).

SEM berbasis component atau variance – PLS
Pada dasarnya, tujuan PLS adalah prediksi. Variabel laten didefinisikan sebagai jumlah dari indikatornya. Hasil komponen skore untuk setiap variabel laten didasarkan pada estimated indicator weight yang memaksimumkan variance explained untuk variabel dependent (laten, observe atau keduanya). PLS merupakan metode analisis yang powerfull oleh karena tidak didasarkan banyak asumsi. Data tidak harus berdistribusi normal multivariate (indikator dengan skala kategor sampai ratio dapat digunakan pada model yang sama), sample tidak harus besar dan residual distribution. Walaupun PLS dapat juga digunakan untuk mengkonfirmasi teori, tetapi dapat juga digunakan untuk menjelaskan ada atau tidaknya hubungan antar variabel laten. Oleh karena lebih menitik beratkan pada data dan dengan prosedur estimasi yang terbatas, maka mispesifikasi model tidak begitu berpengaruh terhadap estimasi parameter.

PLS dapat menganalisis sekaligus konstruk yang dibentuk dengan indikator refleksif dan indikator formatif dan hal ini tidak mungkin dijalankan dalam CBSEM karena akan terjadi unidentified model. Oleh karena PLS menggunakan analisis series ordinary least square, maka identifikasi model bukan masalah dalam model rekursive dan juga tidak mengasumsikan bentuk distribusi tertentu dari pengukuran variabel.

Beberapa program yang dirancang khusus untuk menyelesaikan model dengan PLS adalah SmartPLS, PLS Graph, Visual PLS dan PLS Gui. Semua program tersebut dapat di download secara gratis dari internet. Berikut adalah alamat-alamat penyedia software tersebut: (anda juga bisa tanya sama Mbah Google)

http://dmsweb.badm.sc.edu untuk program PLS Gui
http://kuas.edu.tw untuk program VPLS
http://smartpls.de untuk program SmartPLS
http://bauer.uh.edu untuk program PLS Graph

Program-program tersebut sampai sekarang masih merupakan versi Beta (kecuali PLS Graph) sehingga masih bisa di download secara gratis. Tapi gak tahu lho besok-besok. So, bagi yang butuh buruan aja…..

Quick Count dan Signifikansi

Output statistik adalah sederetan angka yang tidak mempunyai makna apapun terhadap realitas, sebelum ada adjustment dari kita, manusia pengguna statistik

Quick Count sebenarnya sudah lama dikenal oleh publik, tetapi baru akhir-akhir ini menjadi bahan pembicaraan masyarakat Indonesia, terkait dengan maraknya pemilihan kepala daerah dan juga pemilihan presiden dan wakil presiden. Berdasarkan katanya, ‘quick count’ dapat diartikan sebagai penghitungan cepat, di mana dilakukan penghitungan hasil pemilihan umum secara cepat, lebih cepat dari pada penghitungan yang resmi dilakukan oleh Komite Pemilihan Umum (KPU). Keabsahan quick count telah diakui secara luas di dunia, dan sampai saat ini merupakan metode yang paling canggih dalam menentukan siapa pemenang dari suatu pemilu, tanpa harus menghitung semua suara yang masuk.

Pelaksana quick count biasanya adalah lembaga independen yang mempunyai kapasitas yang tinggi dalam dunia statistik. Hasil quick count di Indonesia yang dilakukan oleh lembaga independen di Indonesia, baik berafiliasi asing maupun tidak, selama ini selalu memberikan hasil yang akurat. Bahkan salah satu komandan lembaga survey tersebut menyatakan bahwa hasil perhitungannya selalu tepat, bahkan mendekati kenyataan hasil akhir. Akan tetapi, seperti disampaikan oleh Witjaksana (Suara Merdeka, 15 November 2008), quick count tetap merupakan teknik atau metode statistik yang memungkinkan adanya bias/kesalahan dari hasil yang ditunjukkan. Dalam dunia statistik, dikenal istilah signifikansi, yang berasal dari kata significance yang kurang lebih diterjemahkan sebagai tingkat kesalahan, atau seberapa besar tingkat kepercayaan yang dihasilkan. Berarti sebenarnya ketepatan hasil perhitungan statistik adalah dalam batas toleransi tersebut.

Pada penelitian ilmiah, tingkat kesalahan atau signifikansi biasanya ditentukan pada rancangan awal penelitian. Sebagai contoh, untuk penelitian tentang perilaku manusia dan responsnya terhadap suatu fenomena, ditentukan taraf signifikansi sebesar 5%. Secara umum, nilai tersebut diartikan bahwa hasil yang ditunjukkan masih mempunyai tingkat kesalahan sebesar 5% atau tingkat kebenaran sebesar 95%. Pengertian lain adalah bahwa jika dilakukan penelitian serupa, maka kemungkinan memberikan hasil yang sama adalah sebesar 95%. Penelitian terhadap objek yang mempunyai perilaku mendekati acak, dapat ditentukan taraf signifikansi yang lebih besar lagi, misalnya sebesar 10% pada penelitian tentang perilaku investor saham. Sebaliknya, pada rancangan penelitian, di mana peneliti bisa melakukan intervensi penuh terhadap fenomena penelitian, dapat ditetapkan taraf signifikansi yang lebih rendah lagi, misalnya 2% untuk penelitian yang dirancang di laboratorium, atau bahkan 1%.

Quick Count
Pelaksanaan quick count sebenarnya merupakan teknik sampling yang banyak dikenal dalam dunia statistik. Teknik sampling yang dipergunakan dalam metode quick count biasanya adalah proportionate sampling atau sampel yang ditentukan secara proporsional berdasarkan populasi yang ada. Sebagai ilustrasi, kita ambil contoh Propinsi Jawa Tengah yang terdiri dari 6 Karesidenan dengan jumlah pemilih yang bervariasi dan tentunya juga dengan jumlah Tempat Pemungutan Suara (TPS) yang berbeda-beda pula. Jika kita tentukan jumlah sampel adalah sebesar 5% dari populasi keseluruhan, maka sampel yang diambil pada masing-masing daerah juga sebesar 5% dari jumlah TPS pada masing-masing karesidenan, tentunya dengan pembulatan jika angkanya merupakan pecahan.

Langkah selanjutnya adalah menentukan jumlah TPS pada masing-masing Kabupaten dengan cara yang sama, dan akhirnya sampai pada Kecamatan pada masing-masing kabupaten. Setelah jumlah TPS yang akan dijadikan sampel ditentukan, langkah selanjutnya adalah menentukan TPS mana yang akan dijadikan sampel. Pertimbangan lokasi TPS yang dijadikan sampel dilakukan berdasarkan karakteristik pemilih, misalnya daerah tersebut merupakan kantong suara dari salah satu kontestan, dan melibatkan para ahli dan pengamat pemilu.

Pada hari pelaksanaan pemilu, lembaga survey quick count menempatkan suka relawan pada masing-masing TPS yang telah ditunjuk. Suka relawan tersebut bertugas memberikan hasil penghitungan suara ke lembaga penyelenggara quick count secepat mungkin. Pengiriman data tersebut bisa melalui Short Message Service (SMS), atau melalui email, atau melalui program lain yang canggih yang telah dimiliki oleh lembaga yang bersangkutan. Data hasil penghitungan suara pada masing-masing lokasi sampel TPS dianggap mewakili keseluruhan suara yang menjadi representasi dari TPS tersebut berdasarkan adjustment dari lembaga survey penyelenggara quick count.

Masih ada beberapa persyaratan statistik sebelum hasil penghitungan suara tersebut dihitung, misalnya asumsi normalitas. Secara sederhana data yang normal adalah data yang mempunyai distribusi di mana nilai rata-rata dekat dengan nilai median (nilai tengah) atau nilai modus (nilai yang paling sering muncul). Data yang normal diasumsikan dapat diberlakukan secara general terhadap populasi secara keseluruhan. Beberapa teknik statistik telah tersedia untuk menangani data yang tidak normal, sehingga memberikan hasil yang dapat dipercaya.

Tingkat Kesalahan
Berdasarkan uraian singkat di atas, maka dapat kita cermati bahwa masih terdapat kemungkinan adanya kesalahan di masing-masing tahapan pada pelaksanaan quick count. Kemungkinan kesalahan karena sukarelawan salah dalam mengirim data, atau kesalahan teknik statistik yang digunakan bisa kita abaikan, karena kita cukup yakin dengan kapabilitas pelaksana quick count. Kesalahan yang paling mungkin terjadi adalah penentuan lokasi TPS yang dijadikan sampel. Lokasi TPS tersebut bisa mewakili 10 atau bahkan 100 TPS lain yang dianggap mempunyai karakteristik yang sama. Dalam kenyataaanya, kita bisa menjumpai satu TPS yang mayoritas mendukung salah satu pasangan calon, dan TPS di sebelahnya mayoritas mendukung pasangan calon yang lain. Hal ini bisa memberikan bias pada hasil akhir, tetapi dapat dieliminir dengan teknik normalitas data.

Tingkat kesalahan yang biasa dipergunakan dalam quick count adalah sebesar 2%. Artinya, jika selisih antara satu calon dengan calon lain lebih kecil dari 2%, maka sangat mungkin terjadi kesalahan hasil quick count. Akan tetapi, jika selisih antara calon satu dengan calon yang lain lebih dari 2% maka hasilnya boleh dikatakan valid atau benar, sesuai dengan kaidah-kaidah statistik yang berlaku. Pada pemilihan Gubernur Jawa Tengah, pasangan pemenang pemilu mempunyai selisih yang jauh dengan pasangan dengan suara terbanyak kedua (lebih dari 2%). Dan kita bisa melihat, bahwa hasil quick count semua lembaga survey pemilihan gubernur di Jawa Tengah adalah sama dengan hasil akhir yang diumumkan KPU.

Fenomena terbaru yang muncul adalah adanya kesalahan dari berbagai lembaga survey pada pemilihan gubernur tahap kedua di Jawa Timur. Hasil akhir adalah 7.729.944 suara untuk Karsa dan 7.669.721 untuk pasangan Kaji. Atau dengan prosentase, maka suara untuk Karsa adalah sebesar 7.729.944/15.399.665 = 50,196% dan untuk pasangan Kaji adalah sebesar 7.669.721/15.399.665 = 49,804%. Selisih suara dari kedua pasangan tersebut adalah 50,196% - 49,804% = 0,392% atau jauh di bawah toleransi keakuratan quick count yaitu sebesar 2%. Terdapat beberapa lembaga survey pelaksanan quick count yang mengumumkan bahwa pemenangnya adalah Kaji, padahal hasil akhir dari KPUD pemenangnya adalah Karsa.

Hasil perhitungan di atas menunjukkan bahwa untuk pasangan yang mempunyai suara hampir sama, hasil quick count menjadi tidak akurat. Dalam hal ini, sebaiknya Lembaga Swadaya Masyarakat (LSM) penyelenggara quick count tidak mempublikasikan hasil perhitungan mereka dengan pertimbangan teknis. Hal ini dikarenakan masih banyak masyarakat yang (maaf) belum memahami quick count sehingga dianggap sebagai suatu hasil penghitungan yang bisa dijadikan dasar untuk melakukan tindakan hukum. Fenomena yang terkenal yang bisa dirujuk adalah ketika ilmuwan Inggris menguji teori Albert Einstein tentang pergeseran cahaya bintang ketika melewati suatu masa yang cukup masif, yaitu matahari. Pengukuran dilakukan di waktu gerhana matahari pada sekitar tahun 1919. Hasil pengukuran yang dihasilkan sesuai dengan teori yang ada, tetapi mempunyai tingkat kesalahan yang lebih besar dari pada hasil pengukuran tersebut. Ini merupakan cacat fatal yang harus diverifikasi oleh ilmuwan lain pada beberapa tahun berikutnya, meskipun hasil akhir verifikasi menunjukkan bahwa teori itu memang benar, pada taraf signifikansi yang masih diijinkan.

Output statistik, dalam hal ini adalah quick count adalah sederetan angka yang tidak mempunyai makna apapun terhadap realitas, sebelum ada adjustment dari kita, manusia pengguna statistik. Tidak selayaknya hasil quick count menjadi dasar untuk melakukan tindakan hukum karena suara yang resmi adalah penghitungan yang dilakukan oleh KPUD. Statistik adalah sarana yang dapat dipergunakan untuk mengambil keputusan secara tepat dan cepat, jika penggunanya adalah manusia cerdas, jujur dan bertakwa. Sebaliknya, di tangan manusia yang tidak cerdas dan tidak amanah, statistik bisa menjadi alat yang sangat mematikan. Manipulasi terhadap data statistik dapat digunakan untuk melakukan kebohongan publik yang bertujuan demi kepentingan pribadi atau kelompok.