Rabu, 23 Desember 2015

Untuk memverifikasi dan pengujian hipotesis model analisis menggunakan kriteria-kriteria berikut :

A.    Uji Kriteria Statistik (First Order Test)
Untuk menguji ketepatan model dan pengaruh variabel bebas terhadap variabel terikat secara parsial dan simultan digunakan uji statistik t dan F dengan kaidah sebagai berikut : (Gujarati, 2003)
(1)   Signifikansi koefisien regresi secara parsial digunakan uji t (t test), uji hipotesisnya :
Ho : bi =  0
Ha : bi ¹ 0
Kaidah pengujian yang digunakan :
-          Jika t hitung  > t tabel pada derajat kepercayaan 95% (ex), maka Ho ditolak (Ha diterima) berarti signifikan.
-          Jika t hitung £ t tabel pada derajat kepercayaan 95% (ex), maka Ho diterima (Ha ditolak), berarti tidak signifikan.
(2)   Pengujian signifikansi koefisien regresi secara simultan digunakan uji F (F test), uji hipotesisnya :
Ho : β0 =  β1 = β2 = βn = 0
Ha : β0   β1 β2 βn ≠0
Kaidah pengujian yang digunakan :
-          Jika F hitung  > F tabel, maka Ho ditolak (Ha diterima) berarti signifikan, dimana F tabel (V1=k, V2=n-k-1) dengan menggunakan uji satu sisi (5%), k adalah jumlah variabel independen dan pada derajat kepercayaan 95%.
-          Jika F hitung £  F tabel, maka Ho diterima (Ha ditolak), berarti tidak signifikan.
(3)   Untuk uji tingkat kesesuaian (Tes Goodness of Fit) ditandai dengan menggunakan pendekatan koefisien determinasi (R2), yang menerangkan besarnya variasi di dalam variabel penjelas (variabel terikat) yang mampu diterangkan oleh variabel bebas.
Nilai R-Square (R2) yang disebut juga sebagai uji determinant adalah menunjukkan besarnya variasi variabel-variabel independent dalam mempengaruhi variabel dependent. Nilai R2 berkisar antara nol dan satu. Semakin besar (mendekati satu) nilai R2 berarti semakin besar variabel dependen yang dapat dijelaskan oleh variasi variabel independent, artinya peneliti sangat tepat memilih model (variabel) dan begitupun sebaliknya (Firman, 2008:25)

B.     Analisis Kriteria Ekonometrika (Second Order Test)
Asumsi-asumsi yang melekat pada model regresi linier  normal klasik dengan metode OLS adalah  harus memenuhi asumsi-asumsi berikut : (Gujarati, 2003; 335-338).
(1)   Normalitas : Regresi linear normal klasik mengasumsikan bahwa setiap residual (ui) adalah  berdistribusi dengan :
a.       Rata- rata : E (ut) = 0
b.      Varian      : E (ut2) =σ2
c.       Cov ( ut, u1) : E ( ut, u1) = 0 di mana i j
(2)   Homoscedasticity : Varian untuk setiap variabel gangguan acak (disturbance variable) adalah konstant pada setiap periode pengamatan.
E (Ui2) = s2              i = 1,2,3, .....n
(3)   Non Autocorelation : Variabel gangguan acak dari pengamatan yang berbeda-beda tidak tergantung (independen).
E (Ui Uj) = 0                    i ¹ j
(4)   Non Multicolinearity : Tidak terdapatnya hubungan linier yang sempurna atau pasti (exact) antar variabel bebas.
E (Xi Xj) = 0       i ¹ j
Multikolinearitas
Multikolinearitas adalah kondisi terdapatnya hubungan linier atau korelasi yang tinggi antara masing-masing variabel independen dalam model regresi. Multikolinearitas biasanya terjadi ketika sebagian besar variabel yang digunakan saling terkait dalam suatu model regresi. Oleh karena itu masalah multikolinearitas tidak terjadi pada regresi linier sederhana yang hanya melibatkan satu variabel independen.

Cara Mendeteksi Multikolinearitas
Ada beberapa cara mendeteksi ada tidaknya multikolinearitas, yaitu melalui:
1.      Nilai R2 Tinggi Tetapi Hanya Sedikit Variabel Independen yang Signifikan
2.      Korelasi Parsial Antarvariabel Independen
3.      Perubahan kecil sekalipun pada data akan menyebabkan perubahan signifikan pada variabel yang diamati.
4.      Nilai koefisien variabel tidak sesuai dengan hipotesis, misalnya variabel yang seharusnya memiliki pengaruh positif (nilai koefisien positif), ditunjukkan dengan nilai negatif.

Pengujian dengan menggunakan Eviews:
1.      Mendandingkan nilai korelasi anatar variabel indepedentnya :
Langkah-langkah pengujiannya :
  • buka program eviews
  • import data (kali ini saya menggunakan data SHM, PER dan ROI)
  • blog semua variabel yang ingin diuji, dan estimasi
  • abaikan hasilnya, klik quick > group statistic> correlations> maka akan muncul seperti gambar di bawah ini.
Ø  Klik ok, maka akan keluar hasil seperti ini :
Cara mendeteksi:
Jika koefisien koreasi antara masing-masing variabel bebas lebih besar dari 0,8, berarti terjadi multikolinearitas dalam model regresi.

Kesimpulan :
Dari output di atas dapat kita lihat bahwa tidak terdapat variabel yang memiliki nilai lebih dari 0,8, sehingga dapat disimpulkan tidak terjadi multikolinearitas dalam model regresi.
2.      Menggunakan acuan Variance Inflation Factor (VIF)
Klik ok maka akan muncul gambar berikut ini :
Dari hasil di atas yang dilihat adalah Centered VIF, apabila nilainya lebih besar dari 10 maka dapat dipastikan terjadi multikoliniearitas. Tetapi hasil di atas menunjukkan centeres VIF di bawah 10 maka tidak terjadi multikolinearitas.

3.      Menggunakan metode Klein
Metode ini dilakukan dengan cara membandingkan nilai koefisien determinasi (R2) dari model regresi utama dengan R2  dari persamaan  model auxiliary (persamaan regresi semu antar variabel independen). Regresi model auxiliary dilakukan dengan mengestimasi model berikut ini:

Y = f(X1, X2,) (persamaan regresi dasar)

X1 = f(X2)

Apabila variabel independentx lebih dari 2 maka :

Y = f(X1, X2,) (persamaan regresi dasar)

1)    X1 = f(X2, X3, X4, X5, Xn)
2)    X2 = f(X1, X3, X4, X5, Xn)
3)    X3 = f(X1, X2, X4, X5, Xn)
4)    X4 = f(X1, X2, X3, X5, Xn)
5)    X5 = f(X1, X2, X3, X4, Xn)
6)   Xn = f(X1, X2, X3, X4, X5)
Dan seterusnya,,,,,

Hasil Regersi pertama akan muncul :

Didapatkan r-square sebesar : 77,25%

Lalu estimasi persamaan berikutnya X1 = f(X2)


Klik ok hasilnya sebagai berikut :
Hasil koefisien determinasi (R2) estimasi regresi auxiliary ditampilkan berikut ini:
No
Variabel Dependen
R2
1.     1
Y (regresi utama)
0.7725
2.     2
X1
0.473

Dari hasil koefisien determinasi dari model auxiliary kemudian dibandingkan dengan estimasi model regresi utama,  dari hasil di atas terlihat bahwa nilai R2 untuk persamaan regresi dengan variable dependent X1 lebih kecil dari R2 regresi utamanya. Dengan aturan Klein dapat disimpulkan bahwa tidak terjadi multikolinieritas yang kuat antar variabel independent.
Misalnya dalam beberapa kasus ditemukan hasil sebagai berikut :
Hasil koefisien determinasi (R2) estimasi regresi auxiliary ditampilkan berikut ini:
No
Variabel Dependen
R2
1.     1
Y (regresi utama)
0.995
2.     2
X1
0.992
3.     3
X2
0.999
4.     4
X3
0.970
5.     5
X4
0.721
6.     6
X5
0.997
7.     7
Xn
0.998

Dari hasil koefisien determinasi dari semua model auxiliary kemudian dibandingkan dengan estimasi model regresi utama, terlihat bahwa nilai R2 untuk persamaan regresi dengan variable dependent X2, X5, dan Xn lebih besar dari R2 regresi utamanya. Dengan aturan Klein dapat disimpulkan bahwa terjadi multikolinieritas yang kuat antar variabel independent.

Solusi Multikolinieritas:
1.      Informasi apriori
2.      Tanpa Ada Perbaikan, multikolinearitas tetap mampu menghasilkan estimator yang BLUE karena masalah estimator yang tidak BLUE tidak memerlukan asumsi tidak adanya korelasi antar variabel independent. Multikolinearitas hanya menyebabkan kita kesulitan memperoleh estimator dengan standard error yang kecil. Masalah multikolinearitas biasanya juga timbul karena kita hanya memiliki jumlah observasi yang kecil.
3.      Ketika dihadapkan dengan multikolinearitas yang parah, satu cara yang “paling sederhana” untuk dilakukan adalah mengeluarkan satu dari variabel yang berkoliner. Tetapi dalam mengeluarkan suatu variabel dari model, kita mungkin melakukan bias spesifikasi, atau kesalahan spesifikasi.
4.      Kombinasi dari cross-sectional dan time series) dikenal sebagai penggabungan (pooling the data) merupakan salah satu perbaikan ketika ada masalah multikolinearitas.
5.      Transformasi variabel independen


EVALUASI

1.      Jelaskan apa yang dimaksud dengan kondisi multikolinearitas?
2.      Jika model kita terkena multikolinearitas, apa memang pengaruhnya ?
3.      Apa yang dimaksud dengan “hight” but not “perfect” multicollinearity? Masalah apa yang akan terjadi?
4.      Apa yang dimaksud dengan BLUE? Masih BLUE –kah jika model kita terkena multikolinearitas?
5.      Jika model kita terkena multikolinearitas, boleh tidak model tersebut kita lanjutkan saja tanpa perbaikan? Mengapa? Jelaskan!
6.      Bagaimana kita dapat mengetahui suatu model terkena multikolinearitas?

7.      Jika model kita kena multikolinearitas dan ingin menyembuhkannya, bagaimana cara penyembuhannya?