Analisis model regresi linier memerlukan dipenuhinya berbagai asumsi agar
model ... Salah satu asumsi yang digunakan dalam metode OLS adalah tidak
ada.
MASALAH-MASALAH DALAM MODEL REGRESI LINIER Pendahuluan Analisis model regresi linier memerlukan dipenuhinya berbagai asumsi agar model dapat digunakan sebagai alat prediksi yang baik. Namun tidak jarang peneliti menghadapi masalah dalam modelnya. Berbagai masalah yang sering dijumpai dalam analisis regresi adalah Multikolineritas, Heteroskedastisitas dan Autokorelasi.
Multikolinearitas Salah satu asumsi yang digunakan dalam metode OLS adalah tidak ada hubungan linier antara variabel independen. Adanya hubungan antara variabel independen dalam satu regresi disebut dengan multikolinearitas. Multikolinearitas terjadi hanya pada persamaan regresi berganda. Ada kolinieritas antara X1 dan X2: X1 = γ X2 atau X2 = γ -1 X1 X1
=
X2
=
X3
=
X2
+
X3
4X1 4X1
+
bilangan
terjadi
perfect
(perfect random
(tidak
multicollinearity multicollinearity)
perfect
multicollinearity)
Jika dua variabel independen atau lebih saling mempengaruhi, masih bisa menggunakan metode OLS untuk mengestimasi koefisien persamaan regresi dalam mendapatkan estimator yang BLUE. Estimator yang BLUE tidak memerlukan asumsi terbebas dari masalah Multikolinearitas. Estimator BLUE hanya berhubungan dengan asumsi tentang variabel gangguan. Ada dua asumsi penting tentang variabel gangguan yang mempengaruhi sifat dari estimator yang BLUE. 1. Varian dari variabel gangguan adalah tetap atau konstan (homoskedastisitas) 2. TidaK adanya korelasi atau hubungan antara variable gangguan satu observasi dengan variable gangguan observasi yang lain atau sering disebut tidak ada masalah autokorelasi Jika variabel gangguan tidak memenuhi kedua asumsi variabel gangguan tersebut maka estimator yang kita dapatkan dalam metode OLS tidak lagi mengandung sifat BLUE.
Adanya Multikolinearitas masih menghasilkan estimator yang BLUE, tetapi menyebabkan suatu model mempunyai varian yang besar
Sifat- sifat multikolinieritas secara statistik: 1. Sempurna
=> β tidak dapat ditentukan, β = ( XTX )-1 XTY
2. Tidak sempurna
=> β dapat ditentukan; tetapi standard error-nya besar, 3 kurang tepat.
Tidak ada kolinieritas antara X1 dan X2: X1 = X22 atau X1 log X2 Akibat multikolinieritas: 1. Variansi besar (dan taksiran OLS) 2. Interval kepercayaan lebar (variansi besar SE besar Interval kepercayaan lebar) 3. t rasio tidak signifikan, 4. R2 tinggi tetapi tidak banyak variabel yang signifikan dari uji t.
Cara mengatasi kolinieritas:
1. Melihat informasi sejenis yang ada Konsumsi = σ0 + σ1 Pendapatan + σ2 Kekayaan + u Misalnya : σ2 = 0,25 σ1
2. Tidak mengikutsertakan salah satu variabel yang kolinier Dengan menghilangkan salah satu variabel yang kolinier dapat menghilangkan kolinieritas pada model. Akan tetapi, ada kalanya pembuangan salah satu variabel yang kolinier menimbulkan specification bias yaitu salah spesifikasi kalau variabel yang dibuang merupakan variabel yang sangat penting. 3. Mentransforinasikan variabel Yt = β1 + β2X2t + β3X3t + ut Yt-1 = β1 + β2X2t-1 + β3X3t-1 + ut-1 (Yt – Yt-1) = β2 (X2t – X2t-1) + β3 (X3t – X3t-1) + (ut – ut-1) Yt* = β2X2t* + β3X3t* + ut*
4. Mencari data tambahan Dengan tambahan data, kolineritas dapat berkurang, tetapi dalam praktek tidak mudah untuk mencari tambahan data.
5. Cara-cara lain: transformasi eksponensial dan logaritma
APLIKASI EVIEWS Dependent Variable: IHSG Method: Least Squares Date: 07/10/11 Time: 22:38 Sample: 2009M10 2011M05 Included observations: 20 Variable
Coefficient
Std. Error
t-Statistic
Prob.
C DJIA SBI KURS INF
26.45235 0.725756 -0.319151 -2.469224 0.041571
7.500357 0.219194 0.163398 0.714175 0.010092
3.526812 3.311015 -1.953215 -3.457449 4.119047
0.0031 0.0048 0.0697 0.0035 0.0009
R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat
0.944660 0.929903 0.042971 0.027697 37.44269 1.611971
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)
8.037632 0.162302 -3.244269 -2.995336 64.01300 0.000000
Estimation Equation: ===================== IHSG = C(1) + C(2)*DJIA + C(3)*SBI + C(4)*KURS + C(5)*INF Substituted Coefficients: ===================== IHSG = 26.45235239 + 0.7257556584*DJIA - 0.3191514431*SBI - 2.469223716*KURS + 0.04157097176*INF
Correlation Matriks DJIA DJIA 1 IHSG 0.841957 INF 0.675991 KURS -0.785818 SBI 0.755592 INF = F ( IHSG, ..)
IHSG 0.841957 1 0.890700 -0.879735 0.562711
INF 0.6759917 0.8907004 1 -0.7340958 0.42553243
KURS -0.7858188 -0.8797351 -0.7340958 1 -0.7083243
Dependent Variable: INF Method: Least Squares Date: 07/10/11 Time: 22:52 Sample: 2009M10 2011M05 Included observations: 20 Variable
Coefficient
Std. Error
t-Statistic
Prob.
C IHSG DJIA SBI KURS
-190.3878 12.76755 -5.460703 1.399196 14.11205
170.8450 3.099637 4.853140 3.186688 16.37712
-1.114389 4.119047 -1.125190 0.439075 0.861693
0.2826 0.0009 0.2782 0.6669 0.4024
R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat
0.821028 0.773302 0.753066 8.506630 -19.82991 1.249816
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)
5.095500 1.581646 2.482991 2.731924 17.20299 0.000018
Regresi Auxiliary DJIA = F(KURS, SBI, INF) Dependent Variable: DJIA Method: Least Squares Date: 07/11/11 Time: 22:18 Sample: 2009M10 2011M05 Included observations: 20 Variable
Coefficient
Std. Error
t-Statistic
Prob.
C KURS SBI INF
12.47113 -0.756840 0.393026 0.017192
7.966069 0.792265 0.158356 0.010678
1.565531 -0.955286 2.481921 1.610041
0.1370 0.3536 0.0246 0.1269
SBI 0.75559279 0.56271160 0.42553243 -0.70832435 1
R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat
0.739220 0.690324 0.049010 0.038432 34.16726 1.310918
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)
8.233119 0.088071 -3.016726 -2.817580 15.11813 0.000063
KURS = F(DJIA, SBI, INF) Dependent Variable: KURS Method: Least Squares Date: 07/11/11 Time: 22:20 Sample: 2009M10 2011M05 Included observations: 20 Variable
Coefficient
Std. Error
t-Statistic
Prob.
C DJIA SBI INF
10.35601 -0.071294 -0.093818 -0.007411
0.436444 0.074631 0.052168 0.003008
23.72817 -0.955286 -1.798382 -2.463704
0.0000 0.3536 0.0910 0.0255
R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat
0.744883 0.697048 0.015042 0.003620 57.79065 0.933317
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)
9.116767 0.027329 -5.379065 -5.179919 15.57210 0.000053
SBI = F(DJIA, KURS, INF) Dependent Variable: SBI Method: Least Squares Date: 07/11/11 Time: 22:21 Sample: 2009M10 2011M05 Included observations: 20 Variable
Coefficient
Std. Error
t-Statistic
Prob.
C DJIA KURS INF
17.17747 0.707272 -1.792267 -0.021753
10.64179 0.284969 0.996600 0.014452
1.614153 2.481921 -1.798382 -1.505173
0.1260 0.0246 0.0910 0.1518
R-squared Adjusted R-squared S.E. of regression
0.654200 0.589362 0.065746
Mean dependent var S.D. dependent var Akaike info criterion
6.550000 0.102598 -2.429187
Sum squared resid Log likelihood Durbin-Watson stat
0.069160 28.29187 1.117814
Schwarz criterion F-statistic Prob(F-statistic)
-2.230041 10.08983 0.000568
INF = F(DJIA, KURS, SBI) Dependent Variable: INF Method: Least Squares Date: 07/11/11 Time: 22:22 Sample: 2009M10 2011M05 Included observations: 20 Variable
Coefficient
Std. Error
t-Statistic
Prob.
C DJIA KURS SBI
314.0052 8.109744 -37.11079 -5.701951
168.3938 5.036978 15.06301 3.788237
1.864708 1.610041 -2.463704 -1.505173
0.0807 0.1269 0.0255 0.1518
R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat
0.618592 0.547078 1.064440 18.12851 -27.39631 0.709709
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)
5.095500 1.581646 3.139631 3.338777 8.649945 0.001215
Heteroskedastisitas (Heteroscedasticity) Metode OLS baik model regresi sederhana maupun berganda mengasumsikan bahwa variabel gangguan (ui) mempunyai rata-rata nol atau E(ui) = 0, mempunyai varian yang konstan atau Var (ui) = σ2 dan variabel gangguan tidak saling berhubungan antara satu observasi dengan observasi lainnya atau Cov (ui ,uj ) = 0.
Salah satu asumsi yang harus dipenuhi dalam model OLS adalah varian bersifat homoskedastisitas atau Var (ui) = σ2. Dalam kenyataannya seringkali varian variabel gangguan adalah tidak konstan atau disebut dengan heteroskedastisitas
Catatan: Data cross-sectional cenderung untuk bersifat heteroscedastic karena pengamatan dilakukan
pada
individu
yang
berbeda
pada
saat
yang
sama.
Dampak Heteroskedastisitas terhadap OLS 1. Estimator metode OLS masih linier 2. Estimator metode OLS masih tidak bias 3. Namun estimator metode OLS tidak lagi mempunyai varian yang menimum dan terbaik (no longer best)
Cara
mengatasi
dikalikan
1
:
σj σj Maka
dengan
Metode
GLS
dengan Var (uj) = σj2
Yj = β1 + β2Xj + uj masing-masing
heteroskedastisitas
diperoleh
Yj σj
= σj
transformed
β1
1
+
β2
Xj
+
uj
σj model
sebagai
berikut:
Yi* = β1* + β2Xi* + ui* Kita
periksa
dulu
apakah
ui *
homoskedastis?
E (ui*) = E ui = 1 E(ui) = 1 (σi2) = 1 konstan σi σi2
σi2
Dengan demikian ui homoskedastis. Kita akan menaksir transformed model dengan OLS dan taksiran yang diperoleh akan BLUE, sedangkan model ash yang belum ditransformasikan (original model) bila
ditaksir dengan OLS, taksirannya tidak BLUE. Prosedur yang menaksir transformed model dengan OLS disebut metode Generalized Least Square (GLS).
Dampak
OLS
(i)
variansi
(ii)
uji
(iii)
bila
ada
dan
taksiran
t interval
heteroskedastisitas
dan
F
kepercayaan
lebih
besar
kurang
akurat
sangat
besar
(iv) kesimpulan yang kita ambil dapat salah
Cara mendeteksi adanya heteroskedastisitas
tidak mudah mendeteksinya : intuisi, studi terdahulu, dugaan
Bila kita menggunakan data cross-section yang sangat heterogen untuk melihat total penjualan dan perusahaan kecil, menengah dan sangat besar, sudah dapat diduga bahwa akan ada masalah heteroskedastisitas. Uji
Park
Lakukan
langkah-langkah
berikut:
In ui2 = σ + β In Xi + vi; ui : error term regresi : Yi = σ0 + β0Xi + ui Bila
β
secara
statistik
signifikan,
maka
ada
heteroskedastisitas
Uji Goldfeld — Quandt Metode Goldfeld — Quandt sangat populer untuk digunakan, namun agak repot.
Langkah-langkah pada metode ini adalah sebagai berikut: 1. Urutkan pengamatan berdasarkan nilai X dan kecil ke besar 2.
Abaikan pengamatan sekitar median, katakanlah sebanyak c pengamatan
3. Sisanya, masih ada (N — c) pengamatan 4. Lakukan regresi pada pengamatan ( N – c ) yang pertama. Hitung RSS1, Residual Sum of Squares pertama
2
5. Lakukan regresi pada pengamatan ( N – c )yang kedua. Hitung RSS2, Residual Sum of Squares yang kedua 6. Hitung λ = RSS2 /df2 RSS1 /df1
2
df=
degrees
of
freedom
=
derajat
bebas
df = banyaknya pengamatan dikurangi banyaknya parameter yang ditaksir 7. Lakukan uji F Bila λ > F, kita tolak hipotesis yang mengatakan data mempunyai variansi yang homoskedastis
Aplikasi Eviews White Heteroskedasticity Test: F-statistic Obs*R-squared
8.213817 39.41211
Probability Probability
0.000000 0.000010
Test Equation: Dependent Variable: RESID^2 Method: Least Squares Date: 07/10/11 Time: 23:30 Sample: 2005M07 2011M07 Included observations: 73 Variable
Coefficient
Std. Error
t-Statistic
Prob.
C DJIA DJIA^2 DJIA*SBI DJIA*KURS SBI SBI^2 SBI*KURS KURS KURS^2
-217.2862 5.286349 0.122153 -0.023761 -0.775775 -0.565149 0.000238 0.082797 43.15816 -2.041863
63.35708 2.125101 0.035783 0.004767 0.233489 0.291609 0.000734 0.033525 12.36109 0.595189
-3.429548 2.487575 3.413773 -4.984095 -3.322530 -1.938035 0.323423 2.469709 3.491453 -3.430614
0.0011 0.0155 0.0011 0.0000 0.0015 0.0571 0.7474 0.0162 0.0009 0.0011
R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat
0.539892 0.474162 0.016707 0.017585 200.5044 1.690539
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)
0.015307 0.023040 -5.219298 -4.905536 8.213817 0.000000
Autokorelasi Secara harfiah autokorelasi berarti adanya korelasi antara anggota observasi satu dengan observasi yang lain yang berlainan waktu. Dalam kaitannya dengan asumsi metode OLS, autokorelasi merupakan korelasi antara satu variabel gangguan dengan variabel gangguan yang lain. Sedangkan salah satu asumsi penting metode OLS berkaitan dengan variabel gangguan adalah tidak adanya hubungan antara variabel gangguan satu dengan variabel gangguan yang lain. Tidak adanya serial korelasi antara variabel gangguan ini sebelumnya dinyatakan: Tidak ada korelasi bila E ( ui, uj ) = 0 ; i ≠ j Jika Ada autokorelasi bila E ( ui, uj ) ≠ 0 ; i ≠ j Autokorelasi dapat berbentuk autokorelasi positif dan autokorelasi negatif. Dalam analisis runtut waktu, lebih besar kemungkinan terjadi autokorelasi positif, karena variabel yang dianalisis biasanya mengandung kecenderungan meningkat, misalnya IHSG dan Kurs
Autokorelasi terjadi karena beberapa sebab. Menurut Gujarati (2006), beberapa penyebab autokorelasi adalah: 1. Data mengandung pergerakan naik turun secara musiman, misalnya IHSG kadang menaikan dan kadang menurun 2. Kekeliruhan memanipulasi data, misalnya data tahunan dijadikan data kuartalan dengan membagi empat 3. Data runtut waktu, yang meskipun bila dianalis dengan model yt = a + b xt + et karena datanya bersifat runtut, maka berlaku juga yt-1 = a + b xt-1 + et-1. Dengan demikian akan terjadi hubungan antara data sekarang dan data periode sebelumnya 4. Data yang dianalisis tidak bersifat stasioner
Pengaruh Autokorelasi Apabila data yang kita analisis mengandung autokorelasi, maka estimator yang kita dapatkan memiliki karakteristik berikut ini: a. Estimator metode kuadrat terkecil masih linier
b. Estimator metode kuadrat terkecil masih tidak bias c. Estimator metode kuadrat terkecil tidak mempunyai varian yang menimum (no longer best) Dengan demikian, seperti halnya pengaruh heteroskedastisitas, autokorelasi juga akan menyebabkan estimator hanya LUE, tidak lagi BLUE.
Kasus ada autokorelasi (i) Jika pendapatan keluarga i meningkat, konsumsi keluarga i meningkat, dan konsumsi keluarga j ikut rneningkat pula; i ≠ j (ii) Fenomena Cob Web : Supply tergantung dan harga komoditas periode lalu (Supply)t = βi + β2 Pt-1 + Ut
Estimasi
Yt
OLS
pada
β1
=
saat
ada
β2Xt
+
autokorelasi
+
ut ;
E (ut, ut+s) ≠ 0, berarti ut dan ut+s berautokorelasi ; misalkan : Ut = p Ut-1 + εt Apakah β1 dan β2 BLUE? (tidak, karena variansinya tidak minimum lagi) Oleh
karena
itu,
gunakan
GLS
pada
saat
terjadi
autokorelasi
Mengindentifikasi Autokorelasi Uji Durbin-Watson (Uji D-W) Uji D-W merupakan salah satu uji yang banyak dipakai untuk mengetahui ada tidaknya autokorelasi. Hampir semua program statistic sudah menyediakan fasilitas untuk menghitung nilai d (yang menggambarkan koefisien DW). Nilai d akan berada di kisaran 0 hingga 4. Jika nilai d berada antara 0 sampai 1,10 Tolak Ho, berarti ada autokorelasi positif Jika nilai d berada antara 1,10 sampai 1,54 Tidak dapat diputuskan Jika nilai d berada antara 1,54 sampai 2,46 Tidak menolak Ho, berarti tidak ada autokorelasi Jika nilai d berada antara 2,46 sampai 2,90 Tidak dapat diputuskan Jika nilai d berada antara 2,90 sampai 4 Tolak Ho, berarti ada autokorelasi negatif
p = koefisien autokorelasi. -1 ≤ p ≥ 1. Sehingga: 0 ≤ d ≤ 4 •
Pada saat p = 0, d = 2, artinya tidak ada korelasi
•
Pada saat p = 1, d = 0, artinya ada korelasi positif
•
Pada saat p = -1, d 4, artinya ada korelasi negatif
Pengamatan kasar: Bila d dekat dengan 2, p akan dekat dengan nol, jadi tidak ada korelasi. Ada uji yang lebih spesifik, menggunakan Tabel Durbin-Watson dengan melihat nilai dL dan dU Meskipun Uji D-W ini relatif mudah, tetapi ada beberapa kelemahan yang harus diketahui. Kelemahan-kelemahan tersebut adalah sebagai berikut: a. Uji D-W hanya berlaku bila variabel independennya bersifat random (stokastik) b. Bila model yang dianalisis menyertakan data yang didiferensi, misalnya model auotoregressive AR(p), uji D-W hanya berlaku pada AR(1), sedang pada AR(2) dan seterusnya, uji D-W tidak dapat digunakan c. Uji D-W tidak dapat digunakan pada model rata-rata bergerak (moving average).
Uji Breusch-Godfrey (Uji BG) Nama lain dari uji BG adalah Uji Lagrange-Multiplier. Dari nilai probability lebih kecil dari α = 5% yang mengindikasikan bahwa data mengandung masalah autokorelasi
Breusch-Godfrey Serial Correlation LM Test: F-statistic Obs*R-squared
29.37420 31.46826
Test Equation: Dependent Variable: RESID Method: Least Squares
Probability Probability
0.000000 0.000000
Date: 10/03/10 Time: 07:34 Presample missing value lagged residuals set to zero. Variable
Coefficient
Std. Error
t-Statistic
Prob.
C KURS SBI RESID(-1) RESID(-2)
-179.5515 0.017865 1.146495 0.818412 -0.145856
295.7918 0.028261 10.80750 0.131428 0.133078
-0.607020 0.632125 0.106083 6.227057 -1.096014
0.5462 0.5298 0.9159 0.0000 0.2777
R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat
0.507553 0.472995 168.4713 1617807. -403.2271 1.551782
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)
1.07E-12 232.0697 13.16862 13.34016 14.68710 0.000000
Cara pengobatan Autokorelasi
Secara umum susah untuk mengatasinya. Transformasi logaritma dapat mengurangi korelasi. Hanya saja, kadang-kadang data-data yang dianalisis ada data yang negatif sehingga kita tidak dapat melakukan transformasi logaritma.
Kalau kita tahu atau dapat menduga bahwa hubungan korelasinya adalah spesifik, misalnya ut = p ut-1 + εt dan p dapat dihitung/dicari atau diketahui, maka kita dapat rnenggunahan GLS untuk mencari taksiran yang BLUE (Best Linear Unbiased Estimator).