Pelanggaran Asumsi

176 downloads 500 Views 80KB Size Report
Analisis model regresi linier memerlukan dipenuhinya berbagai asumsi agar model ... Salah satu asumsi yang digunakan dalam metode OLS adalah tidak ada.
MASALAH-MASALAH DALAM MODEL REGRESI LINIER Pendahuluan Analisis model regresi linier memerlukan dipenuhinya berbagai asumsi agar model dapat digunakan sebagai alat prediksi yang baik. Namun tidak jarang peneliti menghadapi masalah dalam modelnya. Berbagai masalah yang sering dijumpai dalam analisis regresi adalah Multikolineritas, Heteroskedastisitas dan Autokorelasi.

Multikolinearitas Salah satu asumsi yang digunakan dalam metode OLS adalah tidak ada hubungan linier antara variabel independen. Adanya hubungan antara variabel independen dalam satu regresi disebut dengan multikolinearitas. Multikolinearitas terjadi hanya pada persamaan regresi berganda. Ada kolinieritas antara X1 dan X2: X1 = γ X2 atau X2 = γ -1 X1 X1

=

X2

=

X3

=

X2

+

X3

4X1 4X1

+

bilangan

terjadi

perfect

(perfect random

(tidak

multicollinearity multicollinearity)

perfect

multicollinearity)

Jika dua variabel independen atau lebih saling mempengaruhi, masih bisa menggunakan metode OLS untuk mengestimasi koefisien persamaan regresi dalam mendapatkan estimator yang BLUE. Estimator yang BLUE tidak memerlukan asumsi terbebas dari masalah Multikolinearitas. Estimator BLUE hanya berhubungan dengan asumsi tentang variabel gangguan. Ada dua asumsi penting tentang variabel gangguan yang mempengaruhi sifat dari estimator yang BLUE. 1. Varian dari variabel gangguan adalah tetap atau konstan (homoskedastisitas) 2. TidaK adanya korelasi atau hubungan antara variable gangguan satu observasi dengan variable gangguan observasi yang lain atau sering disebut tidak ada masalah autokorelasi Jika variabel gangguan tidak memenuhi kedua asumsi variabel gangguan tersebut maka estimator yang kita dapatkan dalam metode OLS tidak lagi mengandung sifat BLUE.

Adanya Multikolinearitas masih menghasilkan estimator yang BLUE, tetapi menyebabkan suatu model mempunyai varian yang besar

Sifat- sifat multikolinieritas secara statistik: 1. Sempurna

=> β tidak dapat ditentukan, β = ( XTX )-1 XTY

2. Tidak sempurna

=> β dapat ditentukan; tetapi standard error-nya besar, 3 kurang tepat.

Tidak ada kolinieritas antara X1 dan X2: X1 = X22 atau X1 log X2 Akibat multikolinieritas: 1. Variansi besar (dan taksiran OLS) 2. Interval kepercayaan lebar (variansi besar  SE besar  Interval kepercayaan lebar) 3. t rasio tidak signifikan, 4. R2 tinggi tetapi tidak banyak variabel yang signifikan dari uji t.

Cara mengatasi kolinieritas:

1. Melihat informasi sejenis yang ada Konsumsi = σ0 + σ1 Pendapatan + σ2 Kekayaan + u Misalnya : σ2 = 0,25 σ1

2. Tidak mengikutsertakan salah satu variabel yang kolinier Dengan menghilangkan salah satu variabel yang kolinier dapat menghilangkan kolinieritas pada model. Akan tetapi, ada kalanya pembuangan salah satu variabel yang kolinier menimbulkan specification bias yaitu salah spesifikasi kalau variabel yang dibuang merupakan variabel yang sangat penting. 3. Mentransforinasikan variabel Yt = β1 + β2X2t + β3X3t + ut Yt-1 = β1 + β2X2t-1 + β3X3t-1 + ut-1 (Yt – Yt-1) = β2 (X2t – X2t-1) + β3 (X3t – X3t-1) + (ut – ut-1) Yt* = β2X2t* + β3X3t* + ut*

4. Mencari data tambahan Dengan tambahan data, kolineritas dapat berkurang, tetapi dalam praktek tidak mudah untuk mencari tambahan data.

5. Cara-cara lain: transformasi eksponensial dan logaritma

APLIKASI EVIEWS Dependent Variable: IHSG Method: Least Squares Date: 07/10/11 Time: 22:38 Sample: 2009M10 2011M05 Included observations: 20 Variable

Coefficient

Std. Error

t-Statistic

Prob.

C DJIA SBI KURS INF

26.45235 0.725756 -0.319151 -2.469224 0.041571

7.500357 0.219194 0.163398 0.714175 0.010092

3.526812 3.311015 -1.953215 -3.457449 4.119047

0.0031 0.0048 0.0697 0.0035 0.0009

R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat

0.944660 0.929903 0.042971 0.027697 37.44269 1.611971

Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)

8.037632 0.162302 -3.244269 -2.995336 64.01300 0.000000

Estimation Equation: ===================== IHSG = C(1) + C(2)*DJIA + C(3)*SBI + C(4)*KURS + C(5)*INF Substituted Coefficients: ===================== IHSG = 26.45235239 + 0.7257556584*DJIA - 0.3191514431*SBI - 2.469223716*KURS + 0.04157097176*INF

Correlation Matriks DJIA DJIA 1 IHSG 0.841957 INF 0.675991 KURS -0.785818 SBI 0.755592 INF = F ( IHSG, ..)

IHSG 0.841957 1 0.890700 -0.879735 0.562711

INF 0.6759917 0.8907004 1 -0.7340958 0.42553243

KURS -0.7858188 -0.8797351 -0.7340958 1 -0.7083243

Dependent Variable: INF Method: Least Squares Date: 07/10/11 Time: 22:52 Sample: 2009M10 2011M05 Included observations: 20 Variable

Coefficient

Std. Error

t-Statistic

Prob.

C IHSG DJIA SBI KURS

-190.3878 12.76755 -5.460703 1.399196 14.11205

170.8450 3.099637 4.853140 3.186688 16.37712

-1.114389 4.119047 -1.125190 0.439075 0.861693

0.2826 0.0009 0.2782 0.6669 0.4024

R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat

0.821028 0.773302 0.753066 8.506630 -19.82991 1.249816

Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)

5.095500 1.581646 2.482991 2.731924 17.20299 0.000018

Regresi Auxiliary DJIA = F(KURS, SBI, INF) Dependent Variable: DJIA Method: Least Squares Date: 07/11/11 Time: 22:18 Sample: 2009M10 2011M05 Included observations: 20 Variable

Coefficient

Std. Error

t-Statistic

Prob.

C KURS SBI INF

12.47113 -0.756840 0.393026 0.017192

7.966069 0.792265 0.158356 0.010678

1.565531 -0.955286 2.481921 1.610041

0.1370 0.3536 0.0246 0.1269

SBI 0.75559279 0.56271160 0.42553243 -0.70832435 1

R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat

0.739220 0.690324 0.049010 0.038432 34.16726 1.310918

Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)

8.233119 0.088071 -3.016726 -2.817580 15.11813 0.000063

KURS = F(DJIA, SBI, INF) Dependent Variable: KURS Method: Least Squares Date: 07/11/11 Time: 22:20 Sample: 2009M10 2011M05 Included observations: 20 Variable

Coefficient

Std. Error

t-Statistic

Prob.

C DJIA SBI INF

10.35601 -0.071294 -0.093818 -0.007411

0.436444 0.074631 0.052168 0.003008

23.72817 -0.955286 -1.798382 -2.463704

0.0000 0.3536 0.0910 0.0255

R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat

0.744883 0.697048 0.015042 0.003620 57.79065 0.933317

Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)

9.116767 0.027329 -5.379065 -5.179919 15.57210 0.000053

SBI = F(DJIA, KURS, INF) Dependent Variable: SBI Method: Least Squares Date: 07/11/11 Time: 22:21 Sample: 2009M10 2011M05 Included observations: 20 Variable

Coefficient

Std. Error

t-Statistic

Prob.

C DJIA KURS INF

17.17747 0.707272 -1.792267 -0.021753

10.64179 0.284969 0.996600 0.014452

1.614153 2.481921 -1.798382 -1.505173

0.1260 0.0246 0.0910 0.1518

R-squared Adjusted R-squared S.E. of regression

0.654200 0.589362 0.065746

Mean dependent var S.D. dependent var Akaike info criterion

6.550000 0.102598 -2.429187

Sum squared resid Log likelihood Durbin-Watson stat

0.069160 28.29187 1.117814

Schwarz criterion F-statistic Prob(F-statistic)

-2.230041 10.08983 0.000568

INF = F(DJIA, KURS, SBI) Dependent Variable: INF Method: Least Squares Date: 07/11/11 Time: 22:22 Sample: 2009M10 2011M05 Included observations: 20 Variable

Coefficient

Std. Error

t-Statistic

Prob.

C DJIA KURS SBI

314.0052 8.109744 -37.11079 -5.701951

168.3938 5.036978 15.06301 3.788237

1.864708 1.610041 -2.463704 -1.505173

0.0807 0.1269 0.0255 0.1518

R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat

0.618592 0.547078 1.064440 18.12851 -27.39631 0.709709

Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)

5.095500 1.581646 3.139631 3.338777 8.649945 0.001215

Heteroskedastisitas (Heteroscedasticity) Metode OLS baik model regresi sederhana maupun berganda mengasumsikan bahwa variabel gangguan (ui) mempunyai rata-rata nol atau E(ui) = 0, mempunyai varian yang konstan atau Var (ui) = σ2 dan variabel gangguan tidak saling berhubungan antara satu observasi dengan observasi lainnya atau Cov (ui ,uj ) = 0.

Salah satu asumsi yang harus dipenuhi dalam model OLS adalah varian bersifat homoskedastisitas atau Var (ui) = σ2. Dalam kenyataannya seringkali varian variabel gangguan adalah tidak konstan atau disebut dengan heteroskedastisitas

Catatan: Data cross-sectional cenderung untuk bersifat heteroscedastic karena pengamatan dilakukan

pada

individu

yang

berbeda

pada

saat

yang

sama.

Dampak Heteroskedastisitas terhadap OLS 1. Estimator metode OLS masih linier 2. Estimator metode OLS masih tidak bias 3. Namun estimator metode OLS tidak lagi mempunyai varian yang menimum dan terbaik (no longer best)

Cara

mengatasi

dikalikan

1

:

σj σj Maka

dengan

Metode

GLS

dengan Var (uj) = σj2

Yj = β1 + β2Xj + uj masing-masing

heteroskedastisitas

diperoleh

Yj σj

= σj

transformed

β1

1

+

β2

Xj

+

uj

σj model

sebagai

berikut:

Yi* = β1* + β2Xi* + ui* Kita

periksa

dulu

apakah

ui *

homoskedastis?

E (ui*) = E ui = 1 E(ui) = 1 (σi2) = 1 konstan σi σi2

σi2

Dengan demikian ui homoskedastis. Kita akan menaksir transformed model dengan OLS dan taksiran yang diperoleh akan BLUE, sedangkan model ash yang belum ditransformasikan (original model) bila

ditaksir dengan OLS, taksirannya tidak BLUE. Prosedur yang menaksir transformed model dengan OLS disebut metode Generalized Least Square (GLS).

Dampak

OLS

(i)

variansi

(ii)

uji

(iii)

bila

ada

dan

taksiran

t interval

heteroskedastisitas

dan

F

kepercayaan

lebih

besar

kurang

akurat

sangat

besar

(iv) kesimpulan yang kita ambil dapat salah

Cara mendeteksi adanya heteroskedastisitas

tidak mudah mendeteksinya : intuisi, studi terdahulu, dugaan

Bila kita menggunakan data cross-section yang sangat heterogen untuk melihat total penjualan dan perusahaan kecil, menengah dan sangat besar, sudah dapat diduga bahwa akan ada masalah heteroskedastisitas. Uji

Park

Lakukan

langkah-langkah

berikut:

In ui2 = σ + β In Xi + vi; ui : error term regresi : Yi = σ0 + β0Xi + ui Bila

β

secara

statistik

signifikan,

maka

ada

heteroskedastisitas

Uji Goldfeld — Quandt Metode Goldfeld — Quandt sangat populer untuk digunakan, namun agak repot.

Langkah-langkah pada metode ini adalah sebagai berikut: 1. Urutkan pengamatan berdasarkan nilai X dan kecil ke besar 2.

Abaikan pengamatan sekitar median, katakanlah sebanyak c pengamatan

3. Sisanya, masih ada (N — c) pengamatan 4. Lakukan regresi pada pengamatan ( N – c ) yang pertama. Hitung RSS1, Residual Sum of Squares pertama

2

5. Lakukan regresi pada pengamatan ( N – c )yang kedua. Hitung RSS2, Residual Sum of Squares yang kedua 6. Hitung λ = RSS2 /df2 RSS1 /df1

2

df=

degrees

of

freedom

=

derajat

bebas

df = banyaknya pengamatan dikurangi banyaknya parameter yang ditaksir 7. Lakukan uji F Bila λ > F, kita tolak hipotesis yang mengatakan data mempunyai variansi yang homoskedastis

Aplikasi Eviews White Heteroskedasticity Test: F-statistic Obs*R-squared

8.213817 39.41211

Probability Probability

0.000000 0.000010

Test Equation: Dependent Variable: RESID^2 Method: Least Squares Date: 07/10/11 Time: 23:30 Sample: 2005M07 2011M07 Included observations: 73 Variable

Coefficient

Std. Error

t-Statistic

Prob.

C DJIA DJIA^2 DJIA*SBI DJIA*KURS SBI SBI^2 SBI*KURS KURS KURS^2

-217.2862 5.286349 0.122153 -0.023761 -0.775775 -0.565149 0.000238 0.082797 43.15816 -2.041863

63.35708 2.125101 0.035783 0.004767 0.233489 0.291609 0.000734 0.033525 12.36109 0.595189

-3.429548 2.487575 3.413773 -4.984095 -3.322530 -1.938035 0.323423 2.469709 3.491453 -3.430614

0.0011 0.0155 0.0011 0.0000 0.0015 0.0571 0.7474 0.0162 0.0009 0.0011

R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat

0.539892 0.474162 0.016707 0.017585 200.5044 1.690539

Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)

0.015307 0.023040 -5.219298 -4.905536 8.213817 0.000000

Autokorelasi Secara harfiah autokorelasi berarti adanya korelasi antara anggota observasi satu dengan observasi yang lain yang berlainan waktu. Dalam kaitannya dengan asumsi metode OLS, autokorelasi merupakan korelasi antara satu variabel gangguan dengan variabel gangguan yang lain. Sedangkan salah satu asumsi penting metode OLS berkaitan dengan variabel gangguan adalah tidak adanya hubungan antara variabel gangguan satu dengan variabel gangguan yang lain. Tidak adanya serial korelasi antara variabel gangguan ini sebelumnya dinyatakan: Tidak ada korelasi bila E ( ui, uj ) = 0 ; i ≠ j Jika Ada autokorelasi bila E ( ui, uj ) ≠ 0 ; i ≠ j Autokorelasi dapat berbentuk autokorelasi positif dan autokorelasi negatif. Dalam analisis runtut waktu, lebih besar kemungkinan terjadi autokorelasi positif, karena variabel yang dianalisis biasanya mengandung kecenderungan meningkat, misalnya IHSG dan Kurs

Autokorelasi terjadi karena beberapa sebab. Menurut Gujarati (2006), beberapa penyebab autokorelasi adalah: 1. Data mengandung pergerakan naik turun secara musiman, misalnya IHSG kadang menaikan dan kadang menurun 2. Kekeliruhan memanipulasi data, misalnya data tahunan dijadikan data kuartalan dengan membagi empat 3. Data runtut waktu, yang meskipun bila dianalis dengan model yt = a + b xt + et karena datanya bersifat runtut, maka berlaku juga yt-1 = a + b xt-1 + et-1. Dengan demikian akan terjadi hubungan antara data sekarang dan data periode sebelumnya 4. Data yang dianalisis tidak bersifat stasioner

Pengaruh Autokorelasi Apabila data yang kita analisis mengandung autokorelasi, maka estimator yang kita dapatkan memiliki karakteristik berikut ini: a. Estimator metode kuadrat terkecil masih linier

b. Estimator metode kuadrat terkecil masih tidak bias c. Estimator metode kuadrat terkecil tidak mempunyai varian yang menimum (no longer best) Dengan demikian, seperti halnya pengaruh heteroskedastisitas, autokorelasi juga akan menyebabkan estimator hanya LUE, tidak lagi BLUE.

Kasus ada autokorelasi (i) Jika pendapatan keluarga i meningkat, konsumsi keluarga i meningkat, dan konsumsi keluarga j ikut rneningkat pula; i ≠ j (ii) Fenomena Cob Web : Supply tergantung dan harga komoditas periode lalu (Supply)t = βi + β2 Pt-1 + Ut

Estimasi

Yt

OLS

pada

β1

=

saat

ada

β2Xt

+

autokorelasi

+

ut ;

E (ut, ut+s) ≠ 0, berarti ut dan ut+s berautokorelasi ; misalkan : Ut = p Ut-1 + εt Apakah β1 dan β2 BLUE? (tidak, karena variansinya tidak minimum lagi) Oleh

karena

itu,

gunakan

GLS

pada

saat

terjadi

autokorelasi

Mengindentifikasi Autokorelasi Uji Durbin-Watson (Uji D-W) Uji D-W merupakan salah satu uji yang banyak dipakai untuk mengetahui ada tidaknya autokorelasi. Hampir semua program statistic sudah menyediakan fasilitas untuk menghitung nilai d (yang menggambarkan koefisien DW). Nilai d akan berada di kisaran 0 hingga 4. Jika nilai d berada antara 0 sampai 1,10  Tolak Ho, berarti ada autokorelasi positif Jika nilai d berada antara 1,10 sampai 1,54  Tidak dapat diputuskan Jika nilai d berada antara 1,54 sampai 2,46  Tidak menolak Ho, berarti tidak ada autokorelasi Jika nilai d berada antara 2,46 sampai 2,90  Tidak dapat diputuskan Jika nilai d berada antara 2,90 sampai 4 Tolak Ho, berarti ada autokorelasi negatif

p = koefisien autokorelasi. -1 ≤ p ≥ 1. Sehingga: 0 ≤ d ≤ 4 •

Pada saat p = 0, d = 2, artinya tidak ada korelasi



Pada saat p = 1, d = 0, artinya ada korelasi positif



Pada saat p = -1, d 4, artinya ada korelasi negatif

Pengamatan kasar: Bila d dekat dengan 2, p akan dekat dengan nol, jadi tidak ada korelasi. Ada uji yang lebih spesifik, menggunakan Tabel Durbin-Watson dengan melihat nilai dL dan dU Meskipun Uji D-W ini relatif mudah, tetapi ada beberapa kelemahan yang harus diketahui. Kelemahan-kelemahan tersebut adalah sebagai berikut: a. Uji D-W hanya berlaku bila variabel independennya bersifat random (stokastik) b. Bila model yang dianalisis menyertakan data yang didiferensi, misalnya model auotoregressive AR(p), uji D-W hanya berlaku pada AR(1), sedang pada AR(2) dan seterusnya, uji D-W tidak dapat digunakan c. Uji D-W tidak dapat digunakan pada model rata-rata bergerak (moving average).

Uji Breusch-Godfrey (Uji BG) Nama lain dari uji BG adalah Uji Lagrange-Multiplier. Dari nilai probability lebih kecil dari α = 5% yang mengindikasikan bahwa data mengandung masalah autokorelasi

Breusch-Godfrey Serial Correlation LM Test: F-statistic Obs*R-squared

29.37420 31.46826

Test Equation: Dependent Variable: RESID Method: Least Squares

Probability Probability

0.000000 0.000000

Date: 10/03/10 Time: 07:34 Presample missing value lagged residuals set to zero. Variable

Coefficient

Std. Error

t-Statistic

Prob.

C KURS SBI RESID(-1) RESID(-2)

-179.5515 0.017865 1.146495 0.818412 -0.145856

295.7918 0.028261 10.80750 0.131428 0.133078

-0.607020 0.632125 0.106083 6.227057 -1.096014

0.5462 0.5298 0.9159 0.0000 0.2777

R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat

0.507553 0.472995 168.4713 1617807. -403.2271 1.551782

Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)

1.07E-12 232.0697 13.16862 13.34016 14.68710 0.000000

Cara pengobatan Autokorelasi

Secara umum susah untuk mengatasinya. Transformasi logaritma dapat mengurangi korelasi. Hanya saja, kadang-kadang data-data yang dianalisis ada data yang negatif sehingga kita tidak dapat melakukan transformasi logaritma.

Kalau kita tahu atau dapat menduga bahwa hubungan korelasinya adalah spesifik, misalnya ut = p ut-1 + εt dan p dapat dihitung/dicari atau diketahui, maka kita dapat rnenggunahan GLS untuk mencari taksiran yang BLUE (Best Linear Unbiased Estimator).