Tampilkan postingan dengan label Uji Asumsi Klasik. Tampilkan semua postingan
Tampilkan postingan dengan label Uji Asumsi Klasik. Tampilkan semua postingan

Uji Autokorelasi SPSS dengan Statistik Q: Box-Pierce dan Ljung Box

Salah satu metode uji autokorelasi yang jarang dipergunakan adalah Box-Pierce dan Ljung Box. Metode ini sebenarnya powerfull untuk menguji gangguan autokorelasi sampai dengan derajad lag yang tinggi. Bandingkan dengan metode Durbin-Watson yang hanya lag derajad 1 saja. Untuk metode Lagrange Multiplier bisa menguji derajad lag yang banyak, tetapi metode Statistik Q ini lebih praktis. 

Langkahnya relatif praktis dan sederhana. Kita menggunakan data yang sama dengan data simulasi uji autokorelasi yang bisa Anda download di sini dengan Google Drive. Langkah pertama adalah mendapatkan nilai residual dari regresi yang ada. Cara mendapatkan nilai residual silahkan disimak di artikel ini. Setelah mendapatkan nilai residual, pilih Analyze, pilih Forecasting lalu klik pada Autocorreation seperti pada gambar di bawah:

Menu Statistik Q pada SPSS Versi 23
Maka kita akan masuk ke menu autokorelasi yaitu sebagai berikut:

Memasukkan Unstandardized Residual
Masukkan nilai Unstardized residual ke dalam box Variables. Untuk Options di kanan atas nilai default adalah 16 atau lag derajad 16. Kita dapat menggantinya dengan nilai yang kita inginkan. Dalam simulasi ini kita menggunakan 16 dan klik OK sehingga akan keluar output sebagai berikut:

Output Box-Ljung Statistic
Tampak pada output kolom paling kanan, bahwa semua lag mempunyai signifikansi di bawah 0,05 atau mengalami gangguan autokorelasi. Sebenarnya jika ada 3 saja, maka justifikasinya adalah ada gangguan autokorelasi. Banyak model yang lolos uji dengan Durbin-Watson tetapi tidak lolos dengan uji Box-Ljung karena menggunakan derajad lag yang lebih banyak.

Share:

Uji Linearitas SPSS dengan Ramsey

Uji linearitas dengan metode Ramsey adalah dengan membandingkan antara nilai F hitung modifikasi dengan F hitung pada tabel. Jika F hitung > F tabel maka terdapat kesalahan spesifikasi model demikian sebaliknya jika F hitung < F tabel berarti model telah dispesifikasi dengan benar. Metode ini juga sering disebut dengan RESET (Regressionn Specification Error Test) yang dikembangkan oleh J. B. Ramsey (1969). Adapun nilai F dihitung dengan persamaan sebagai berikut:

Persamaan F hitung Ramsey
Old adalah model awal yang diuji, sedangkan New adalah model baru untuk keperluan pengujian. Sedangkan nilai m adalah jumlah variabel yang ditambahkan untuk pengujian, n adalah jumlah data penelitian dan k adalah banyaknya parameter dalam persamaan New.

Sebagai ilustrasi, kita menggunakan data yang sama dengan data untuk pengujian linearitas dengan metode Durbin-Watson. Sedangkan datanya bisa Anda download di sini. Langkah pertama adalah meregresikan variabel Page_views terhadap Ranking Alexa, tetapi kita harus menyimpang DFit sebagai variabel baru.

Menu Save
Klik Save di bagian kanan untuk mendapatkan nilai DFit.

Menu DFit
Setelah itu klik Continue lalu klik OK sehingga akan keluar output dan juga ada tambahan variabel baru yaitu DFit di layar SPSS.

Output R Square Old

Tampak bahwa nilai R Square old atau awal adalah 0,025 dengan jumlah data 75. Setelah itu regresikan ulang model awal menjadi model baru dengan menambahkan variabel DFit. Adapun output yang didapatkan adalah sebagai berikut:

Output R Square New

Tampak bahwa nilai R Square baru adalah sebesar 0,891 dengan m atau jumlah variabel yang baru masuk adalah 1 yaitu DFit, parameter ada 2. Dengan demikian nilai F hitung adalah sebagai berikut:

Nilai F hitung
Sedangkan nilai F tabel untuk parameter 2 pada taraf signifikansi 0,05 dengan n sebanyak 75 adalah sebesar 3,20. Tampak jelas bahwa F hitung > F tabel yang menunjukkan bahwa model tidak dispesifikasi dengan benar. Hasil ini konsisten dengan pengujian linearitas dengan Durbin-Watson. Interpretasinya adalah bahwa peneliti mengabaikan variabel yang relevan. Ini masuk akal karena hanya memasukkan satu variabel saja pada model ini. 

Share:

Uji Autokorelasi SPSS dengan Lagrange Multiplier

Uji Lagrange Multiplier (LM) adalah uji autokorelasi dengan Breusch-Godrey yang mampu menguji adanya gangguan autokorelasi baik pada derajad satu atau pun lebih tinggi, misalnya dua, tiga atau yang lain. Meskipun demikian, uji ini disarankan untuk sampel yang banyak, misalnya di atas 100 agar memberikan hasil yang lebih akurat. Akan tetapi, dalam contoh ini, kami menggunakan data yang sama yang digunakan untuk simulasi uji autokorelasi dengan metode yang lain, yaitu Durbin-Watson. Jadi silahkan download simulasi data untuk artikel ini jika diperlukan.

Data terdiri dari satu variabel bebas saja dengan 75 data atau pengamatan. Lakukan regresi sederhana seperti biasa, hanya jangan lupa untuk menyimpang nilai Unstandardized residualnya. Caranya silahkan klik link yang ada. Setelah itu, kita membentuk variabel baru dari unstandardized yaitu nilai lagnya. Kita pilih Transform lalu klik pada Compute Variable seperti pada gambar di bawah ini:

Menu Transform Variabel

Maka kita akan masuk ke menu compute variable seperti gambar di bawah:

Menghitung Variabel Lag

Kita ingin membentuk variabel Lag dari residualanya, kita beri nama pada Target Variable dengan Res_2 yang dibentuk dari Lag(Res_1) seperti pada gambar di atas. Setelah klik OK maka akan muncul variabel baru pada layar SPSS yang merupakan lag derajad 1 dari residualnya. Kita lalu meregresikan model baru yaitu dengan variabel bebas Residualnya atau sebagai berikut:

Res_1 = b0 + b1 Page_views + b2 Res_2 

Setelah itu kita lihat output dari regresi di atas pada bagian T hitung

Output Uji Lagrange Multiplier dengan SPSS Versi 23

Tabel di atas menunjukkan bahwa Res_2 signifikan mempengaruhi Res_1 atau unstandardized residual. Ini menunjukkan bahwa terdapat gangguan autokorelasi pada model penelitian pada derajad 1. Ini konsisten dengan hasil pengujian dengan Durbin Watson. Hal yang penting dari uji Lagrange Multiplier (LM) ini adalah bisa untuk menguji derajad 2 atau lebih tinggi dengan cara menghitung Lag dari residual lalu meregresikan lagi seperti pada contoh di atas.

Metode yang lain, yaitu Metode Box-Pierce atau Uji Statistics Q sebenarnya bisa menguji sampai dengan derajad 16. Menu ini juga sudah tersedia pada SPSS.

Share:

Uji Linearitas SPSS dengan Durbin-Watson

Uji Linearitas dipergunakan untuk mengetahui apakah terdapat kesalahan spesifikasi atau tidak. Sumber kesalahan dalam spesifikasi model telah dibahas di artikel sebelumnya. Kali ini kita akan membahas tentang salah satu uji linearitas yang cukup terkenal yaitu dengan Metode Durbin-Watson. Nama Durbin-Watson memang lebih dikenal dalam uji autokorelasi, tetapi sebenarnya juga bisa digunakan dalam uji linearitas. Persamaan yang dipergunakan juga sama dan pengambilan keputusan juga menggunakan tabel yang sama juga.

Dalam contoh ini, kita menggunakan data yang kami simpan di Google Drive, silahkan di download jika diperlukan dengan akun Gmail Anda. Prinsip dari metode ini sederhana, yaitu kita melakukan regresi ulang model yang akan kita uji, tetapi dengan menambahkan variabel bebas yang baru yang merupakan kuadrat dari variabel bebas yang ada. (bisa juga menggunakan pangkat tiga dari variabel bebas yang kita pergunakan.

Langkah pertama adalah pilih Transform lalu klik pada Compute Variables seperti pada gambar di bawah:

Menu Compute Variable
Maka kita akan diarahkan ke Menu untuk menghitung variabel baru. Kita akan mengkuadratkan variabel bebas yaitu Page_view dan memberikan nama variabel tersebut Page_2. Target Variable adalah nama variabel baru dan Numeric Expression adalah perhitungannya yaitu Page_view*Page_view. Di mana tanda * adalah simbol perkalian

Mengkuadratkan Variabel Bebas
Setelah klik OK maka akan muncul variabel baru yaitu Page_2 yang merupakan kuadrat dari variabel Page_view. Kita regresikan variabel Page_view dan Page_2 terhadap Alexa_Rank dan jangan lupa klik Statistic Durbin Watson.

Output Durbin-Watson
Tampak bahwa nilai d adalah sebesar 0,064 dan masuk pada Autokorelasi positif. Justifikasi pada area ini adalah bahwa model mengalami kesalahan spesifikasi. Jika tidak ada variabel kuadrat maka nilai d adalah sebesar 0,065 yang juga berada pada daerah autokorelasi positif.

Penting dicatat bahwa meskipun menggunakan metode Durbin-Watson, tetapi metode uji linearitas ini tidak hanya diterapkan pada data time series saja. Ini berbeda dengan uji Durbin-Watson untuk menguji gangguan autokorelasi yang hanya dipergunakan pada data time series.

Selain metode ini, masih ada juga metode Ramsey (RESET) dan Lagrang Multiplier untuk uji spesifikasi model.

Share:

Uji Autokorelasi dengan SPSS Versi 23 Menggunakan Metode Durbin-Watson

Uji autokorelasi adalah salah satu uji asumsi klasik yang dipergunakan untuk melihat apakah terjadi gangguan autokorelasi atau tidak. Autokorelasi, sesuai dengan namanya, auto dan korelasi adalah adanya korelasi antara satu data dengan data sebelumnya dalam satu variabel. Oleh karena itu jelas bahwa uji autokorelasi hanya dilakukan pada data time series atau runtut waktu. Jika dalam suatu model bukan merupakan data time series, maka tidak perlu dilakukan uji autokorelasi. (Data panel atau pooled data perlu diuji autokorelasi karena merupakan gabungan antara data time series dengan cross section).

Ada banyak metode untuk menguji ada atau tidaknya gangguan autokorelasi pada suatu model regresi. Kali ini kita akan membahas tentang metode dengan Durbin Watson yang menunya sudah tersedia di SPSS. Metode Durbin-Watson menggunakan persamaan sebagai berikut:

Persamaan Durbin-Watson

Untuk data simulasi bisa Anda download dengan akung G Mail Anda karena menggunakan Google Drive. Terdapat 75 data dalam File SPSS. Langkah pertama adalah pilih Analyze, lalu pilih Regression dan klik pada Linear seperti pada gambar di bawah ini:

Menu Regresi pada SPSS Versi 23
Maka kita akan masuk ke menu regresi sebagai berikut:

Memasukkan Variabel Penelitian
Masukkan variabel Alexa_Rank ke Dependent dan Page_views ke Independent(s). Lalu klik Statistic di kanan atas sehingga akan masuk ke sub menu sebagai berikut:

Menu Durbin Watson
Berikan tanda centang pada Durbin-Watson seperti pada gambar di atas, lalu klik Continue dan berikutnya klik OK. Maka akan keluar output sebagai berikut:

Output Durbin-Watson
Tampak bahwa nilai Durbin-Watson adalah sebesar 0,065. Untuk menentukan adanya gangguan autokorelasi atau tidak maka nilai tersebut perlu dibandingkan dengan nilai Tabel Durbin-Watson. Secara rinci telah ditampilkan di artikel berikut. Dalam kasus ini, karena menggunakan 75 data dan hanya 1 variabel bebas, maka nilai dL adalah 1,598 dan dU adalah sebesar 1,652. Berarti 0 < 0,065 < dL 1,598 atau terjadi autokorelasi positif. Dengan demikian kesimpulan dari model ini adalah mengalami gangguan autokorelasi positif.

Beberapa hal yang perlu diperhatikan dalam uji autokorelasi dengan Durbin-Watson adalah bahwa masih ada range di mana pengujian tidak bisa memberikan kesimpulan. Simak di gambar ini:

Tabel Pengambilan Keputusan Uji Autokorelasi dengan Durbin-Watson
Dalam contoh ini, merujuk pada baris paling atas. Akan tetapi, jika nilai hasil pengujian adalah 1,600 maka akan merujuk kepada baris kedua yaitu dL < d < dU atau tidak ada keputusan. Meskipun rentang tersebut kecil, namun bisa saja terjadi (juga di baris keempat pada tabel). Untuk itu ada yang membuat Durbin-Watson koreksi agar bisa memberikan justifikasi, atau bisa juga diperkuat dengan pengujian yang lain, misalnya Run Test.

Catatan lain yang dapat diberikan adalah bahwa uji Durbin-Watson hanya dapat mendeteksi autokorelasi pada derajad 1 saja, tetapi tidak bisa mendeteksi derajad lebih dari satu. Jadi jika ada gangguan autokorelasi pada derajad 2 atau bahkan lebih maka metode Durbin-Watson tidak dapat mendeteksinya. Metode yang dapat mendeteksi lebih dari derajad 1 adalah metode Lagrange Multiplier (LM).

Share:

Uji Linearitas pada Analisis Regresi Linear

Uji Linearitas adalah salah satu uji asumsi klasik yang bertujuan untuk melihat apakah spesifikasi model yang dipergunakan sudah benar atau belum. Salah satu asumsi dalam Classical Linear Regression Model (CLRM) adalah bahwa model regresi yang dipergunakan harus dispesifikasi dengan benar. Jika tidak maka akan terjadi masalah error pada spesifikasi model atau bias. Maka akan muncul beberapa pertanyaan, misalnya bagaimana caranya menyusun model yang benar, atau kesalahan spesifikasi model (miss specification model) disebabkan oleh apa saja?

Sebenarnya istilah linearitas tidak muncul dalam kajian ini. Istilahnya adalah specification error test, tapi entah kenapa menjadi uji linearitas. Kalau uji asumsi klasik yang lain memang diterjemahkan lebih jelas, misalnya multicollinearity jadi multikolinearitas, heteroscedasticity menjadi heteroskedastisitas dan autocorrelation menjadi autokorelasi. Tapi sudahlah, yang penting dapat dihapami bahwa spesifikasi error ini berkaitan dengan uji linearitas.

Secara umum, analisis empiris setidaknya memenuhi 6 hal, yaitu (1) logis, (2) sesuai dengan teori, (3) variabel penjelas tidak boleh berkorelasi dengan errornya, (4) memberikan parameter yang konstan, (5) koheren, dan (6) mempunyai cakupan yang luas (Hendry dan Richard, 1983). Dalam konteks ini, maka error spesifikasi atau kesalahan dalam menspesifikasi model dapat muncul dari beberapa hal yaitu (1) menggunakan variabel yang tidak relevan; (2) memasukkan variabel yang tidak diperlukan; (3) Mengadopsi persamaan yang salah; (4) Kesalahan pengukuran; (5) Kesalahan data stokastik; dan (6) Adanya asumsi normalitas.

Jika peneliti melakukan kesalahan dalam melakukan spesifikasi model, maka bisa akan terjadi goodness of fit yang terlalu rendah, jika kita mengabaikan variabel yang relevan atau sebaliknya terlalu tinggi karena kita menggunakan variabel yang tidak relevan. Sebagai ilustrasi yang sederhana, dalam suatu model regresi, Anda coba masukkan saja variabel 'sembarang' ke dalam model regresi tersebut. Setelah itu lihat nilai R nya, pasti akan meningkat tidak peduli variabel yang dimasukkan tadi relevan atau tidak. (Untuk itulah maka banyak yang menggunakan Adjusted R karena nilainya bisa turun atau bisa naik tergantung dari variabel yang dimasukkan relevan atau tidak).

Untuk melakukan apakah terjadi error spesifikasi atau tidak kita bisa melakukan dengan beberapa cara.

1. Uji Durbin-Watson

Uji Durbin-Watson sangat dikenal dalam uji autokorelasi. Uji ini juga dapat dipergunakan untuk melihat apakah model mengabaikan variabel yang relevan atau menggunakan fungsi yang tidak benar sehingga terjadi miss specification error. Langkahnya juga sederhana yaitu membandingkan nilai Durbin-Watson model awal dengan nilai Durbin-Watson di mana variabel bebas diberikan fungsi kuadrat (atau bahkan pangkat tiga). Jika hasil Durbin-Watson pada model modifikasi mengalami gangguan autokorelasi positif, berarti model mengalami kesalahan spesifikasi, yaitu mengabaikan variabel yang relevan dalam model.

Residual (a) Linear, (b) Kudratik, (c) Kubik
Residual (a) Linear, (b) Kudratik, (c) Kubik

Gambar di atas adalah nilai residual untuk 3 model, yaitu (a) linear, (b) kuadratik atau variabel bebas pangkat dua; dan (c) kubik atau variabel bebas pangkat tiga. Nilai residual cenderung mendekati sumbu X atau titik nol atau semakin tidak bervariasi. Berikut artikel tentang uji linearitas dengan Durbin-Watson.

2. Uji Ramsey

Uji linearitas dengan metode Ramsey juga sering disebut dengan Regression Specification Error Test atau disingkat RESET. Ide dasarnya adalah memasukkan variabel Y estimated yang dihasilkan dari regresi awal menjadi salah satu variabel bebas dalam model uji. Jadi variabel bebasnya bertambah 1, lalu dapatkan nilai R Squarenya. Setelah itu hitung F dengan menggunakan R square awal dan R Square model baru dengan adanya tambahan 1 variabel tersebut. Bandingkan F hitung dengan F tabel di mana jika F Hitung > F Tabel maka terjadi kesalahan spesifikasi.

Artikel tentang uji linearitas dengan Ramsey ditampilkan di sini.


3. Uji Lagrange Multiplier (LM)

Metode ini juga bisa digunakan sebagai alternatif uji linearitas. Pertama adalah dapatkan nilai residual dari model awal. Setelah itu nilai residual ini dipergunakan sebagai variabel terikat dengan variabel bebasnya adalah variabel bebas model awal dengan dikuadratkan (atau pangkat 3). Setelah itu hitung nilai Chi Squarenya lalu bandingkan dengan nilai Chi Square tabel dengan df 2. Jika Chi Square hitung > Chi Square Tabel maka terjadi kesalahan spesifikasi.

Artikel tentang uji linearitas dengan Lagrange Multiplier (LM) kami tampilkan di sini.

Share:

Pengaruh Page Views Blog terhadap Ranking Alexa dengan Regresi Linear Sederhana

Kali ini kita akan menguji apakah terdapat pengaruh antara page views blog yang diambil dari data Google Analytic berpengaruh terhadap Ranking Alexa. Data yang dipergunakan adalah data blog ini sendiri yang dapat Anda unduh di Google Drive. Data yang dipergunakan adalah periode 20 Mei 2021 sampai dengan 2 Agustus 2021 atau sekitar 75 hari. Alat bantu yang dipergunakan adalah SPSS Versi 23. Uji asumsi klasik yang dipergunakan adalah uji autokorelasi, uji normalitas dan uji heteroskedastisitas. Uji multikolinearitas tidak digunakan karena hanya menggunakan satu variabel bebas saja atau regresi linear sederhana.

Hasil uji autokorelasi dengan Run test pada model penelitian memberikan hasil sebagai berikut:

Hasil uji autokorelasi dengan run test

Tampak jelas bahwa signifikansi adalah sebesar 0,000 < 0,05 yang berarti terdapat gangguan autokorelasi pada model penelitian. Ini wajar saja karena yang dipergunakan adalah data time series. Alternatif upaya perbaikan dilakukan dengan mencoba variabel Lag Alexa. Jadi page views hari ini mempengaruh rangkin alexa besok hari (karena lag 1). Tetapi hasilnya tetap terjadi gangguan autokorelasi. Maka dicoba dipergunakan transformasi difference delta, yaitu dengan mengurangkan data pada periode t dengan periode t-1. Dalam bahasa sederhana, kita bisa menyebutnya pengaruh perubahan page views terhadap perubahan ranking alexa. Adapun hasilnya adalah sebagai berikut:

Uji autokorelasi transformasi data

Gangguan autokorelasi telah hilang dengan signifikansi 0,64 > 0,05. Tampak bahwa jumlah data hanya 74 karena berkurang 1 akibat transformasi data. Untuk uji normalitas dengan Kolmogorov-Smirnov adalah sebagai berikut:

Uji normalitas data transformasi

Asumsi normalitas telah terpenuhi dengan nilai signifikansi sebesar 0,081 > 0,05. Sedangkan untuk uji heteroskedastisitas dilakukan dengan mengkorelasikan variabel bebas dengan absolut residualnya dan diperoleh hasil sebagai berikut:

Uji heteroskedastisitas data transformasi

Tampak bahwa nilai signifikansi adalah sebesar 0,077 > 0,05 yang berarti tidak terdapat gangguan heteroskedastisitas pada model penelitian.

Setelah model dinyatakan terbebas dari gangguan asumsi klasik, maka dilihat apakah terdapat pengaruh atau tidak dengan hasil sebagai berikut:

Nilai R dan R Square

Nilai F hitung dan signifikansi

Nilai T hitung dan signifikansi

Dari output di atas, tampak jelas bahwa tidak terdapat pengaruh yang signifikan antara page views terhadap rangking alexa. Hasil ini agak berbeda dengan asumsi awal bahwa page views berpengaruh terhadap rangkin alexa. Beberapa alasan yang membuat tidak ada pengaruh adalah sebagai berikut:

  1. Rangking alexa tidak ditentukan dari pageviews saja tetapi juga dari lama pengunjung berada dalam suatu situs. Variabel ini belum dimasukkan dan sepertinya agak sulit mencari data. Ada data di alexa, tetapi itu adalah data rata-rata secara harian bukan secara individu pengunjung.
  2. Data yang dipergunakan hanya 75 data dan hanya 1 blog ini saja. Jadi sangatlah kecil untuk mewakili fenomena yang ada di dunia internet secara keseluruhan.
  3. Meskipun data daily time on site secara keseluruhan, tetapi bisa dipergunakan sebagai sumber data sehingga di masa mendatang dapat menggunakan data daily time on site sebagai variabel bebas yang mempengaruhi rangking alexa.


Share:

Uji Multikolinearitas SPSS dengan Korelasi Parsial

Kali ini kita akan mencoba melakukan uji multikolinearitas dengan SPSS Versi 23. Data yang akan digunakan dalam simulasi ini bisa Anda download di sini dengan menggunakan akun Gmail Anda karena disimpan di Google Drive. Data yang digunakan hanya simulasi saja, jadi mohon untuk tidak fokus ke variabelnya. Jumlah variabel bebas (X) ada 7 dengan 1 variabel terikat yaitu Piutang. Jumlah data yang dipergunakan adalah 102 jadi dianggap cukup untuk analisis ini.

Lakukan analisis regresi linear berganda dan pada Statistics berilah tanda centang pada Descriptives, Part and partial correlations dan Colinearity diagnostics seperti pada gambar di bawah:

Menu Statistics pada Regresi

Setelah itu klik Continue lalu OK sehingga akan keluar output. Mari kita lihat satu persatu output yang muncul.

Output Statistik Deskriptif

Output pertama adalah statistik deskriptif. Memuat nilai rata-rata, standar deviasi dan jumlah sampel. Bisa dibahas sesuai dengan kajian bidang ilmu masing-masing. Untuk Size, itu merupakan nilai logaritma natural dari Total Assets sehingga nilainya memang tidak besar. Output berikutnya adalah

Output Korelasi

Output di atas adalah output korelasi antara masing-masing variabel dalam penelitian, baik antara variabel bebas maupun dengan variabel terikatnya. Ini muncul karena kita memberikan tanda centang pada Descriptions. Jika kita tidak memberikan tanda centang, maka output ini tidak muncul.

Korelasi antar variabel bebas memang kadang dijadikan deteksi adanya multikolinearitas atau tidak. Tapi sebenarnya deteksi dengan menggunakan korelasi hanya disarankan jika menggunakan 2 variabel bebas saja. Untuk variabel bebas lebih dari 2, deteksi dengan korelasi tidak disarankan.

Output yang berikutnya adalah sebagai berikut:

Output Uji Multikolinearitas

Output F dan R dan yang tidak berhubungan dengan multikolinearitas tidak ditampilkan di sini agar lebih fokus. Untuk Output Correlations di atas, muncul karena kita memberikan tanda centang pada Part and partial correlations. Jika tanda centang kita hilangkan, maka kolom Correlations juga tidak akan muncul sebagai output.

Pada kolom Zero-order, sebenarnya itu sama persis dengan output correlations pada tabel sebelumnya. Hanya yang ditampilkan adalah korelasi antara masing-masing variabel bebas dengan variabel terikatnya. Misalnya Utang akan bernilai 0,311 yang sama persis dengan output Correlations antara Utang dengan variabel terikatnya. Juga dengan variabel bebas yang lain. 

Untuk kolom Partial, ini adalah output korelasi antara variabel bebas dengan variabel terikat jika dikontrol oleh variabel bebas yang lain. Kita juga dapat mendapatkan output ini dengan menu Correlation sebagai berikut:

Menu Correlation Partial

Setelah masuk ke Partial maka akan diarahkan ke Menu sebagai berikut:

Memasukkan Variabel

Masukkan variabel Piutang dan Utang di kotak atas, dan variabel bebas yang lain di kotak bawah sebagai Control. Setelah itu klik OK sehingga akan muncul output sebagai berikut:

Output Korelasi Parsial

Nilai korelasi parsialnya adalah 0,181 yang sama persis dengan output pada regresi di atas. Telah disebutkan di atas bahwa nilai korelasi untuk deteksi multikolinearitas sebaiknya tidak digunakan untuk model dengan lebih dari 2 variabel bebas. Jadi untuk model dengan variabel bebas lebih dari 2, maka deteksi multikolinearitas disarankan menggunakan nilai Korelasi parsial ini. Korelasi parsial lebih disarankan karena nilai koefisien parsial juga memperhitungkan variabel bebas yang lain. Untuk korelasi, maka yang diperhitungkan hanya satu variabel bebas yang bersangkutan dengan variabel terikatnya.

Tampak bahwa nilai korelasi parsial relatif rendah dengan nilai tertinggi adalah sebesar 0,207 untuk variabel profit. Sebagai perbandingan, maka di kolom paling kanan adalah output Collineary diagnostics yang memuat nilai VIF dan Tolerance. Tampak bahwa tidak ada nilai VIF yang di atas 10, tertinggi adalah 2,329 untuk variabel Profit. Hasil ini selaras dengan hasil pengujian dengan korelasi parsial. Silahkan dicoba untuk melihat nilai Tolerance dan juga nilai Condition Index.

Korelasi parsial memang jarang dipergunakan sebagai identifikasi multikolinearitas. Sebenarnya bisa dipergunakan sebagai alternatif pengugjian multikolinearitas. Ingat uji multikolinearitas sebenarnya tidak mengukur ada atau tidaknya suatu multikolinearitas. Multikolinearitas pasti ada. Jadi sebenarnya kita mengukur seberapa tinggi multikolinearitas yang ada sehingga tidak mengganggu model regresi yang kita bangun.

Share:

Analisis Regresi Linear Sederhana antara Bounce Rate Alexa terhadap Pendapatan PopAds

Di artikel beberapa waktu yang lalu, kita telah membahas pengaruh dari Ranking Alexa (Alexa Rank) terhadap pendapatan iklan PopAds.net. Dengan analisis regresi linear sederhana, maka diperoleh bahwa tidak terdapat pengaruh signifikan ranking Alexa terhadap pendapatan PopAds. Rekomendasi dari artikel itu adalah untuk menambahkan variabel bounce rate. Bounce rate menurut Alexa adalah 'Percentage of visits to the site that consist of a single pageview'. Jadi jika ada pengunjung yang masuk ke blog, tetapi tidak melakukan klik lain, lalu keluar lagi dinyatakan sebagai bounce rate. Itu sangat logis, karena pendapatan iklan dari PopAds ditentukan dari klik pengunjung yang telah masuk ke blog kita. Jadi jika semakin tinggi bouce rate maka semakin rendah pendapatan PopAds.

Analisis ini akan menggunakan 39 data saja karena memang baru itu yang tersedia. Di lain waktu akan dicoba dengan data yang lebih banyak. Jika menginginkan silahkan download di G Drive dengan akun Gmail Anda. Alurnya sama dengan artikel yang sebelumnya, jadi kali ini akan lebih ringkas.


Uji Asumsi Klasik

Hasil uji normalitas dengan Kolmogorov-Smirnov memberikan hasil sebagai berikut:

Uji Normalitas dengan Kolmogorov-Smirnov

Dengan Signifikansi 0,118 > 0,05 maka dinyatakan bahwa model telah memenuhi asumsi normalitas. Sedangkan hasil Run Test adalah sebagai berikut:
Uji Autokorelasi dengan Run Test
Nilai Signifikansi adalah sebesar 0,997 > 0,05 yang berarti model tidak mengalami gangguan autokorelasi. Ini mungkin karena jumlah sampel yang di bawah 40 sehingga gangguan autokorelasi yang biasa muncul pada data time series tidak nampak di sini.

Uji Heteroskedastisitas dengan Scatter Plot memberikan hasil sebagai berikut:
Uji Heteroskedastisitas dengan Scatter Plot
Tampak bahwa tidak terdapat pola tertentu pada grafik yang dapat diinterpretasikan bahwa data tidak mengalami gangguan heteroskedastisitas.


Analisis Regresi Linear Sederhana

Adapun untuk hasil analisis regresi linear sederhana adalah sebagai berikut:
Nilai R dan Koefisien Determinasi
Nilai R adalah 0,394 dan koefisien determinasi sebesar 15,5% di mana masih banyak faktor lain yang mempengaruh pendapatan PopAds yaitu sebesar 84,5%. Untuk F hitung adalah sebagai berikut:
Output F Hitung dan Signifikansi
Tampak jelas bahwa nilai F Hitung adalah 6,811 dengan Signifikansi di bawah 0,05 yang berarti model dinyatakan layak. Untuk T Hitung memberikan hasil sebagai berikut:
Output T Hitung dan Signifikansi
Dengan Signifikansi 0,013 < 0,05 berarti Bounce rate berpengaruh signifikan terhadap pendapatan PopAds.


Interpretasi

Berdasarkan nilai T hitung yang negatif maka dapat ditentukan bahwa pengaruh bounce rate terhadap pendapatan PopAds adalah negatif atau berlawanan arah. Semakin tinggi bounce rate maka semakin rendah pendapapatan PopAds, sebaliknya semakin rendah bounce rate maka semakin tinggi pendapatan PopAds.

Ini sesuai dengan asumsi bahwa semakin banyak orang yang hanya melihat 1 halaman maka rendah pendapatan PopAds. Jika ingin meningkatkan pendapatan PopAds, dapat dilakukan dengan mengurangi bounce rate. Pemilik blog harus merancang agar pengunjung tidak langsung pergi ketika masuk ke website, tetapi melakukan klik lagi agar memancing keluarnya iklan PopAds.
Share:

Uji Regresi Pengaruh Ranking Alexa terhadap Pendapatan Google Adsense dengan SPSS

Pendahuluan

Banyak sekali alternatif untuk mendapatkan penghasilan dari sebuah blog atau website. Salah satunya adalah dengan menjadi publisher bagi Google Adsense (GA) salah satu advertiser yang sangat terkenal dan telah menjadi market leader dalam dunia ini. Pendaftarannya memang tidak terlalu rumit, meskipun tidak bisa dibilang mudah. Akan tetapi yang lebih penting adalah bagaimana potensi yang bisa diperoleh oleh si empunya blog. Dalam artikel sebelumnya, telah dibahas tentang pengaruh rangking alexa terhadap pendapatan PopAds, dan ternyata memberikan hasil bahwa tidak ada pengaruh ranking alexa terhadap pendapatan PopAds. Sudah ada pembahasan tentang hal itu.

Dalam artikel kali ini, kita akan membahas pengaruh ranking Alexa terhadap pendapatan GA dalam 91 hari, karena rangkin Alexa yang muncul dalam grafik adalah 3 bulan terakhir. Jika Anda menginginkan data aslinya silahkan download di sini. Gunakan akun Google Anda untuk bisa mengakses G Drive tersebut. 


Model Regresi

Model regresi adalah regresi linear sederhana karena hanya ada 1 variabel bebas, yaitu Ranking Alexa dan 1 buah variabel terikat, yaitu Pendapatan GA. Persamaan umumnya adalah 

Y = a + bX

Di mana Y adalah pendapatan GA dan X adalah Ranking Alexa. Alat analisis yang dipergunakan adalah Software SPSS Versi 23. Jika Anda ingin mendapatkan Download SPSS Free, silahkan meluncur ke situs resminya. Dalam persamaan umum di atas ada nilai residual yang ditambahkan di belakang persamaan.


Uji Asumsi Klasik

Analisis regresi linear, memerlukan beberapa asumsi yang harus dipenuhi, sering disebut dengan uji asumsi klasik. Uji asumsi klasik yang dipergunakan adalah uji normalitas, uji heteroskedastisitas dan uji autokorelasi. 

Uji Normalitas dengan Histogram

Hasil uji histogram menunjukkan bahwa data melenceng ke kanan dan sangat dimungkinkan ada outliers dan model tidak normal. Untuk memperkuat pengujian dilakukan uji normalitas dengan Kolmogorov-Smirnov yang memberikan hasil sebagai berikut:
Uji Normalitas dengan Kolmogorov-Smirnov
Nilai Signifikansi adalah 0,000 < 0,05 yang berarti model memang tidak memenuhi asumsi normalitas. Upaya perbaikan dilakukan dengan mentransformasikan variabel ke dalam bentuk logaritma natural, baik variabel X maupun variabel Y. Setelah ditransformasikan keduanya, maka uji normalitas KS memberikan hasil sebagai berikut:
Uji Normalitas Model Transformasi
Tampak bahwa model telah menjadi normal dengan melakukan transformasi ke dalam bentuk logaritma natural. Uji Autokorelasi dengan Run Test memberikan hasil sebagai berikut:
Uji Autokorelasi dengan Run Test
Tampak bahwa nilai Signifikansi adalah sebesar 0,247 > 0,05 yang berarti model tidak mengalami gangguan autokorelasi. Selanjutnya adalah uji Heteroskedastisitas dengan Scatter plot dan memberikan hasil sebagai berikut:
Uji Heteroskedastisitas dengan Scatter Plot
Tidak ada pola tertentu pada grafik yang berarti tidak ada gangguan heteroskedastisitas pada model regresi.

Analisis Regresi Linear Sederhana

Setelah model dinyatakan bebas dari gangguan asumsi klasik, maka dilakukan analisis regresi linear sederhana.

Nilai R dan Koefisien Determinasi Model

Nilai R adalah sebesar 0,451 dan R Square adalah sebesar 0,204. Berarti Ranking Alexa mampu menjelaskan variasi Pendapatan GA sebesar 20,4% dan sisanya yaitu sebesar 79,6% dijelaskan oleh faktor yang lain.
F hitung dan Signifikansi
Nilai F hitung cukup tinggi dengan signifikansi di bawah 0,05 yang menunjukan bahwa model telah fit dan bisa dilakukan uji hipotesis dengan uji t.
Uji t dan Signifikansi
Tampak bahwa nilai t hitung adalah sebesar -4,769 dengan signifikansi sebesar 0,000 < 0,05 yang berarti ranking Alexa berpengaruh signifikan terhadap pendapatan GA. Dari nilai t hitung yang negatif, berarti pengaruh tersebut adalah berkebalikan, di mana semakin rendah ranking Alexa maka semakin tinggi pendapatan GA. 

Interpretasi

Berdasarkan hasil analisis di atas, maka dapat diinterpretasikan bahwa ranking Alexa berpengaruh signifikan terhadap pendapatan GA. Semakin rendah ranking Alexa maka semakin tinggi pula pendapatan GA yang diperoleh, demikian sebaliknya. Hasil ini sesuai dengan fakta bahwa semakin banyak orang yang berkunjung ke suatu blog, maka semakin tinggi pula kemungkinan adanya klik pada iklan yang ditayangkan. Selain itu, dalam GA ada juga pendapatan yang bukan karena klik, tetapi karena tampil saja. 


Artikel Terkait

  1. Pengaruh ranking Alexa terhadap Pendapatan PopAds
  2. Berapa pendapatan blogger pemula?
  3. PopAds, alternatif iklan selain Google Adsense
  4. Ranking Alexa anjlok dratsis
  5. Lanjutan: Ranking Alexa anjlok drastis

Share:

Artikel Terbaru

Translate

Instagram

Instagram
Gabung Instagram Kami

Artikel Terbaru

Jual Data Laporan Keuangan Perusahaan yang Listing di BEI Tahun 2020

Setiap perusahaan yang telah go public wajib untuk menyerahkan laporan keuangan ke badan otoritas, sebagai salah satu bentuk pertanggungjawa...

Artikel Populer Seminggu Terakhir

Komentar Terbaru

`

Ingin menghubungi kami untuk kerja sama?

Nama

Email *

Pesan *