Untuk
memverifikasi dan pengujian hipotesis model analisis menggunakan
kriteria-kriteria berikut :
A. Uji Kriteria Statistik (First Order Test)
Untuk menguji ketepatan model dan pengaruh variabel bebas terhadap variabel terikat secara parsial dan simultan digunakan uji statistik
t dan F dengan kaidah sebagai berikut : (Gujarati, 2003)
(1)
Signifikansi koefisien regresi secara parsial digunakan uji t (t test), uji hipotesisnya :
Ho : bi
= 0
Ha : bi ¹ 0
Kaidah pengujian
yang digunakan :
-
Jika t hitung >
t tabel pada derajat kepercayaan 95% (ex), maka Ho ditolak (Ha diterima)
berarti signifikan.
-
Jika t hitung £
t tabel pada derajat kepercayaan 95% (ex), maka Ho diterima (Ha ditolak),
berarti tidak signifikan.
(2)
Pengujian signifikansi koefisien regresi secara simultan digunakan uji F (F test), uji hipotesisnya :
Ho : β0 = β1 =
β2 = βn = 0
Ha : β0 ≠ β1 ≠ β2 ≠
βn ≠0
Kaidah pengujian yang digunakan :
-
Jika F hitung >
F tabel, maka Ho ditolak (Ha diterima) berarti signifikan, dimana F tabel
(V1=k, V2=n-k-1) dengan menggunakan uji satu sisi (5%), k adalah jumlah
variabel independen dan pada derajat kepercayaan 95%.
-
Jika F hitung £ F tabel, maka Ho diterima (Ha ditolak),
berarti tidak signifikan.
(3)
Untuk uji tingkat kesesuaian (Tes Goodness of Fit) ditandai dengan
menggunakan pendekatan koefisien determinasi (R2), yang menerangkan
besarnya variasi di dalam variabel penjelas (variabel terikat) yang mampu
diterangkan oleh variabel bebas.
Nilai R-Square
(R2) yang disebut juga sebagai uji determinant adalah menunjukkan
besarnya variasi variabel-variabel independent dalam mempengaruhi variabel
dependent. Nilai R2 berkisar antara nol dan satu. Semakin besar
(mendekati satu) nilai R2 berarti semakin besar variabel dependen
yang dapat dijelaskan oleh variasi variabel independent, artinya peneliti
sangat tepat memilih model (variabel) dan begitupun sebaliknya (Firman,
2008:25)
B. Analisis Kriteria Ekonometrika (Second Order Test)
Asumsi-asumsi yang melekat pada
model regresi linier normal klasik
dengan metode OLS adalah harus memenuhi
asumsi-asumsi berikut : (Gujarati, 2003; 335-338).
(1) Normalitas
: Regresi linear normal klasik mengasumsikan bahwa setiap residual (ui)
adalah berdistribusi dengan :
a. Rata- rata : E (ut) = 0
b.
Varian : E (ut2) =σ2
c.
Cov ( ut, u1) : E ( ut, u1) = 0
di mana i≠ j
(2) Homoscedasticity
: Varian untuk setiap variabel gangguan acak (disturbance variable) adalah konstant pada setiap periode
pengamatan.
E (Ui2) = s2 i = 1,2,3, .....n
(3) Non
Autocorelation : Variabel gangguan acak dari pengamatan yang berbeda-beda tidak
tergantung (independen).
E (Ui Uj) = 0 i ¹
j
(4) Non
Multicolinearity : Tidak terdapatnya hubungan linier yang sempurna atau pasti
(exact) antar variabel bebas.
E (Xi Xj) = 0 i ¹
j
Multikolinearitas
Multikolinearitas adalah
kondisi terdapatnya hubungan linier atau korelasi yang tinggi antara
masing-masing variabel independen dalam model regresi. Multikolinearitas
biasanya terjadi ketika sebagian besar variabel yang digunakan saling terkait
dalam suatu model regresi. Oleh karena itu masalah multikolinearitas
tidak terjadi pada regresi linier sederhana yang hanya melibatkan satu variabel
independen.
Cara
Mendeteksi Multikolinearitas
Ada beberapa
cara mendeteksi ada tidaknya multikolinearitas, yaitu melalui:
1.
Nilai R2 Tinggi Tetapi Hanya
Sedikit Variabel Independen yang Signifikan
2.
Korelasi Parsial Antarvariabel
Independen
3.
Perubahan kecil sekalipun pada data akan menyebabkan
perubahan signifikan pada variabel yang diamati.
4.
Nilai koefisien variabel tidak sesuai dengan
hipotesis, misalnya variabel yang seharusnya memiliki pengaruh positif (nilai
koefisien positif), ditunjukkan dengan nilai negatif.
Pengujian
dengan menggunakan Eviews:
1. Mendandingkan nilai korelasi anatar
variabel indepedentnya :
Langkah-langkah
pengujiannya :
- buka
program eviews
- import
data (kali ini saya menggunakan data SHM, PER dan ROI)
- blog
semua variabel yang ingin diuji, dan estimasi
- abaikan
hasilnya, klik quick > group statistic> correlations> maka akan
muncul seperti gambar di bawah ini.
Ø Klik ok, maka akan keluar hasil seperti ini :
Cara mendeteksi:
Jika koefisien
koreasi antara masing-masing variabel bebas lebih besar dari 0,8, berarti
terjadi multikolinearitas dalam model regresi.
Kesimpulan :
Dari output di
atas dapat kita lihat bahwa tidak terdapat variabel yang memiliki nilai lebih
dari 0,8, sehingga dapat disimpulkan tidak terjadi multikolinearitas dalam
model regresi.
2.
Menggunakan acuan Variance Inflation Factor
(VIF)
Klik ok maka
akan muncul gambar berikut ini :
Dari hasil di atas yang dilihat adalah Centered VIF,
apabila nilainya lebih besar dari 10 maka dapat dipastikan terjadi
multikoliniearitas. Tetapi hasil di atas menunjukkan centeres VIF di bawah 10
maka tidak terjadi multikolinearitas.
3. Menggunakan
metode Klein
Metode ini
dilakukan dengan cara membandingkan nilai koefisien determinasi (R2)
dari model regresi utama dengan R2 dari persamaan model auxiliary
(persamaan regresi semu antar variabel independen). Regresi model auxiliary
dilakukan dengan mengestimasi model berikut ini:
Y = f(X1,
X2,) (persamaan regresi dasar)
X1 = f(X2)
Apabila variabel independentx lebih dari 2 maka :
Y = f(X1,
X2,) (persamaan regresi dasar)
1) X1 = f(X2,
X3, X4, X5, Xn)
2) X2 = f(X1,
X3, X4, X5, Xn)
3) X3 = f(X1,
X2, X4, X5, Xn)
4) X4 = f(X1,
X2, X3, X5, Xn)
5) X5 = f(X1,
X2, X3, X4, Xn)
6) Xn = f(X1,
X2, X3, X4, X5)
Dan
seterusnya,,,,,
Hasil Regersi
pertama akan muncul :
Didapatkan
r-square sebesar : 77,25%
Lalu estimasi
persamaan berikutnya X1 = f(X2)
Klik
ok hasilnya sebagai berikut :
Hasil koefisien determinasi (R2) estimasi
regresi auxiliary ditampilkan berikut ini:
No
|
Variabel Dependen
|
R2
|
1. 1
|
Y (regresi utama)
|
0.7725
|
2. 2
|
X1
|
0.473
|
Dari hasil koefisien determinasi
dari model auxiliary kemudian dibandingkan dengan estimasi model regresi utama,
dari hasil di atas terlihat bahwa nilai
R2 untuk persamaan regresi dengan variable dependent X1 lebih kecil
dari R2 regresi utamanya. Dengan aturan Klein dapat disimpulkan
bahwa tidak terjadi multikolinieritas yang kuat antar variabel independent.
Misalnya dalam beberapa kasus ditemukan hasil sebagai
berikut :
Hasil koefisien determinasi (R2) estimasi
regresi auxiliary ditampilkan berikut ini:
No
|
Variabel Dependen
|
R2
|
1. 1
|
Y (regresi utama)
|
0.995
|
2. 2
|
X1
|
0.992
|
3. 3
|
X2
|
0.999
|
4. 4
|
X3
|
0.970
|
5. 5
|
X4
|
0.721
|
6. 6
|
X5
|
0.997
|
7. 7
|
Xn
|
0.998
|
Dari hasil koefisien determinasi
dari semua model auxiliary kemudian dibandingkan dengan estimasi model regresi
utama, terlihat bahwa nilai R2 untuk persamaan regresi dengan
variable dependent X2, X5, dan Xn lebih besar dari R2 regresi
utamanya. Dengan aturan Klein dapat disimpulkan bahwa terjadi multikolinieritas
yang kuat antar variabel independent.
Solusi
Multikolinieritas:
1. Informasi
apriori
2.
Tanpa Ada Perbaikan, multikolinearitas tetap mampu menghasilkan estimator
yang BLUE karena masalah estimator yang tidak BLUE tidak memerlukan asumsi
tidak adanya korelasi antar variabel independent. Multikolinearitas hanya
menyebabkan kita kesulitan memperoleh estimator dengan standard error yang
kecil. Masalah multikolinearitas biasanya juga timbul karena kita hanya memiliki
jumlah observasi yang kecil.
3.
Ketika dihadapkan dengan
multikolinearitas yang parah, satu cara yang “paling sederhana” untuk dilakukan
adalah mengeluarkan satu dari variabel yang berkoliner. Tetapi dalam
mengeluarkan suatu variabel dari model, kita mungkin melakukan bias
spesifikasi, atau kesalahan spesifikasi.
4.
Kombinasi dari cross-sectional dan time
series) dikenal sebagai penggabungan (pooling
the data) merupakan salah satu perbaikan ketika ada masalah
multikolinearitas.
5.
Transformasi variabel independen
EVALUASI
1. Jelaskan
apa yang dimaksud dengan kondisi multikolinearitas?
2. Jika
model kita terkena multikolinearitas, apa memang pengaruhnya ?
3. Apa
yang dimaksud dengan “hight” but not
“perfect” multicollinearity? Masalah apa yang akan terjadi?
4. Apa
yang dimaksud dengan BLUE? Masih BLUE –kah jika model kita terkena multikolinearitas?
5. Jika
model kita terkena multikolinearitas, boleh tidak model tersebut kita lanjutkan
saja tanpa perbaikan? Mengapa? Jelaskan!
6. Bagaimana
kita dapat mengetahui suatu model terkena multikolinearitas?
7. Jika
model kita kena multikolinearitas dan ingin menyembuhkannya, bagaimana cara
penyembuhannya?