Bab I ruang lingkup ekonometrika tujuan Pengajaran



Yüklə 0,74 Mb.
səhifə8/9
tarix17.09.2018
ölçüsü0,74 Mb.
#69181
1   2   3   4   5   6   7   8   9

Variabel Independen

Klik pada kotak pilihan Statistik (bawah)

• Aktikan Durbin-Watson pada kolom Residual

• Klik Continue, kemudian klik OK.

Maka SPSS akan menampilkan hasil regresinya. Kolom Durbin- Watson akan tampak dalam tabel Model Summary, kolom

paling kanan.









Model Summaryb






Model

R

R Square


Adjusted

R Square


Std. Error of the Estimate

Durbin-W

atson





1

.867a

.752

.726

.9148

.883




a. Predictors: (Constant), X2, X1

b. Dependent Variable: Y









Bantuan dengan SPSS

Catatan:

Dengan menggunakan derajat kesalahan (α)=5%, dengan sampel 22 observasi, dengan predictor sebanyak

2 maka batas atas (U) adalah sebesar 1,54 sedang batas bawah (L) adalah sebesar 1,15. Karena nilai DW hasil

regresi adalah sebesar 0,883 yang berarti lebih kecil dari nilai batas bawah, maka koefisien autokorelasi lebih kecil dari nol.

Dengan demikian dapat disimpulkan bahwa hasil regresi tersebut belum terbebas dari masalah autokorelasi positif. Dengan kata lain, Hipotesis nol yang

menyatakan tidak terdapat masalah autokorelasi dapat ditolak, sedang hipotesis nol yang menyatakan terdapat masalah autokorelasi dapat diterima. Uraian di atas

dapat pula dijelaskan dalam bentuk gambar sbb:

Korelasi (+) inkonklusif tidak ada autokorelasi inkonklusif Korelasi (-)


0

dL

dU



2

4-dU

4-dL


4





1,15

1,54




2,46

2,85



Gambar. Daerah Uji Durbin Watson


2. Menggunakan metode LaGrange Multiplier

(LM).

LM sendiri merupakan teknik regresi yang memasukkan variabel lag. Sehingga terdapat variabel tambahan yang dimasukkan dalam model. Variabel tambahan tersebut adalah data Lag dari variabel dependen. Dengan demikian model dalam LM menjadi sebagai berikut:



Y = β0 + β1X1+ β2 X2 + β3 Yt-1+ β4 Yt-2 + ε
Variabel Yt-1 merupakan variabel lag 1 dari Y. Variabel Yt-2 merupakan variabel lag 2 dari Y.

Lag 1 dan Lag 2 variabel Y dimasukkan dalam model ini bertujuan untuk mengetahui pada lag berapa problem otokorelasi muncul. Lag sendiri merupakan rentang waktu. Lag 1 menunjukkan adanya kesenjangan waktu 1 periode, sedang lag 2 menunjukkan kesenjangan waktu 2 periode. Periodenya tergantung pada jenis data apakah data harian, bulanan, tahunan. Lag 1 data harian berarti ada kesenjangan satu hari, lag 2 kesenjangan 2 hari dan seterusnya.

Sebagai kunci untuk mengetahui pada lag berapa autokorelasi muncul, dapat dilihat dari signifikan tidaknya variabel lag tersebut. Ukuran yang digunakan adalah nilai t masing-masing variabel lag yang dibandingkan dengan t tabel, seperti yang telah dibahas pada uji t sebelumnya. Misalnya variabel Yt-1 mempunyai nilai t signifikan, berarti terdapat masalah autokorelasi atau pengaruh
kesalahan pengganggu mulai satu periode sebelumnya. Jika ini terjadi, maka untuk perbaikan hasil regresi perlu dilakukan regresi ulang dengan merubah posisi data untuk disesuaikan dengan kurun waktu lag tersebut.

Terdapat beberapa alat uji lain untuk mendeteksi autokorelasi seperti uji Breusch-Godfrey, Uji Run, Uji Statistik Q: Box-Pierce dan Ljung Box, dan lain- lain, namun uji-uji tersebut tidak dibahas di sini, mengingat tulisan ini masih berlingkup atau bersifat pengantar.



B. Uji Normalitas

Tujuan dilakukannya uji normalitas adalah untuk menguji apakah variabel penganggu (e) memiliki distribusi normal atau tidak. Pengujian normalitas data dapat dilakukan sebelum ataupun setelah tahapan analisis regresi. Hanya saja pengalaman menunjukkan bahwa pengujian normalitas yang dilakukan sebelum tahapan regresi lebih efisien dalam waktu. Sangat beralasan kiranya, karena jika asumsi normalitas data telah dipenuhi terlebih dulu, maka dampak yang mungkin akan ditimbulkan dari adanya ketidaknormalan data seperti bias pada nilai t hitung dan nilai F hitung dapat dihindari. Sebaliknya, bila dilakukan analisis regresi terlebih dulu, dimana nilai t dan F baru diketahui, yang kemudian baru dilakukan normalitas data, sedangkan ternyata hasilnya tidak normal maka analisis regresi harus diulang lagi. Pengujian normalitas ini berdampak pada nilai t dan F karena pengujian terhadap keduanya diturunkan dari asumsi bahwa data Y atau e berdistribusi normal.


Beberapa cara dapat dilakukan untuk melakukan uji normalitas, antara lain:

1) Menggunakan metode numerik yang membandingkan nilai statistik, yaitu antara nilai median dengan nilai mean. Data

dikatakan normal (simetris) jika perbandingan antara mean dan median menghasilkan nilai yang kurang lebih sama. Atau apabila nilai mean jika dikurangi nilai

median menghasilkan angka nol. Cara ini disebut ukuran tendensi sentral (Kuncoro,

2001: 41).

2) Menggunakan formula Jarque Bera (JB test), yang rumusnya tertera sebagai berikut:

S 2 (K 3) 2

JB = n 6 +

24


dimana:


S = Skewness (kemencengan) distribusi data

K= Kurtosis (keruncingan)

Skewness sendiri dapat dicari dari formula sebagai berikut:

[E ( X μ ) 3 ]2


S =


[

E ( X

μ 2 ]3

Kurtosis dapat dicari dengan formula sebagai berikut:


4

K = E ( X μ )

[E( X μ ) 2 ]2



115

Bantuan dengan SPSS

SPSS dapat digunakan untuk melihat nilai Mean, Median, Modus, Skewness, Kurtosis, dan lain-lain. Caranya dapat dilakukan dengan tahapan sebagai berikut:

• Pilih Analyze, Descriptive Statistic, Frequencies

• Pindahkan variabel yang mau dicari nilainya (sebelah kiri) ke kotak Variables (sebelah kanan)

• Kilik Statistik (bawah)

• Aktifkan pilihan yang ada dalam kotak Dispersion, Distribution, Central Tendency

• Kemudian klik Continue, dan OK.


Maka SPSS akan menampakkan output sebagai berikut:


N





Statistics










Y

X1

X2

Valid




22

22

22

Missing




0

0

0

Mean







11.8405

14.7373

9855.3027

Std. Error of Mean







.3727

.2202

176.0515

Median







12.1700

14.6200

9774.0200

Mode







8.28a

13.06a

8688.65a

Std. Deviation







1.7479

1.0329

825.7548

Variance







3.0552

1.0670

681871.1

Skewness







-.099

.009

.363

Std. Error of Skewness







.491

.491

.491

Kurtosis







-.494

-1.424

-1.096

Std. Error of Kurtosis







.953

.953

.953

Range







6.85

3.15

2605.65

Minimum







8.28

13.06

8688.65

Maximum







15.13

16.21

11294.30

Sum







260.49

324.22

216816.66

a. Multiple modes exist. The smallest value is shown

3) Mengamati sebaran data, dengan melakukan hitungan-hitungan berapa prosentase data observasi dan berada di area mana. Untuk menentukan posisi normal dari sebaran data, langkah awal yang dilakukan adalah menghitung standar deviasi. Standar deviasi dapat dicari melalui rumus sebagai berikut:



SD = ( Dv D v)

n

Standar deviasi ini digunakan untuk menentukan rentang deviasi dari posisi

simetris data. Untuk mempermudah, kita dapat memberinya nama:

SD1 yang berarti rentang pertama, di sebelah kiri dan sebelah kanan dari posisi tengah-tengah (simetris).

SD2 yang berarti rentang kedua di sebelah kiri dan sebelah kanan posisi tengah- tengah (simetris)
SD3 yang berarti rentang ketiga di sebelah kiri dan sebelah kanan posisi tengah- tengah (simetris).

Penentuan area ini penting, karena sebaran data yang dikatakan normal19 apabila tersebar sebagai berikut:

Sebanyak 68% dari observasi berada pada area SD1

Sebanyak 95% dari sisanya berada pada area

SD2

Sebanyak 99,7% dari sisanya berada pada area SD3



Untuk memperjelas maksud dari uraian di atas, kita dapat melihatnya pada gambar

berikut ini


-SD3


-SD2 -SD1 D v
SD1
SD2 SD3

68% observasi

95% observasi sisa

99,7% observasi sisa

Dalam pengujian normalitas mempunyai dua kemungkinan, yaitu data berdistribusi normal atau tidak normal. Apabila data telah berdistribusi normal maka tidak ada masalah karena uji t dan uji F dapat dilakukan (Kuncoro, 2001: 110). Apabila data tidak normal, maka



19 Gujarati, Basic Econometrics, third edition, McGraw-Hill, Inc. 1995.

diperlukan upaya untuk mengatasi seperti: memotong data yang out liers, memperbesar sampel, atau melakukan transformasi data.

Data yang tidak normal juga dapat dibedakan dari tingkat kemencengannya (skewness). Jika data cenderung

menceng ke kiri disebut positif skewness, dan jika data cenderung menceng ke kanan disebut negatif skewness. Data dikatakan normal jika datanya simetris. Lihat gambar berikut:



Positif Skewness Normal

Negatif Skewness

Langkah transformasi data sebagai upaya untuk menormalkan sebaran data dapat dilakukan dengan merubah data dengan nilai absolut ke dalam bilangan logaritma20. Dengan mentransformasi data ke bentuk logaritma akan memperkecil error sehingga kemungkinan timbulnya masalah heteroskedastisitas juga menjadi sangat kecil (Setiaji, 2004: 18).


20 Kuncoro, 2001, juga Setiaji, 2004, mengatakan hal yang sama. Bahwa transformasi dapat dilakukan dengan logaritma.

Sebagai penjelas dari uraian di atas, maka ada baiknya kalau kita ikuti contoh soal sebagai berikut: Misalnya kita memiliki jumlah observasi sebanyak 30 sampel, dari penghitungan berat badan orang dewasa yang rata-ratanya ditemukan 46 kg, dengan standar deviasi (SD) 5 kg. Untuk menentukan normal tidaknya data sampel tersebut, dapat diketahui dari sebaran datanya. Misalnya dari data tersebut diketahui bahwa 20 dari data observasi (68% X 30) 10 orang di antaranya mempunyai berat badan yang berkisar antara 41-46 kg., dan 10 orang lainnya dengan berat 46-51 kg. Dan 4 orang mempunyai berat badan antara 36-41 kg, serta 5 orang berat badannya berkisar antara 51-56, dan satu orang beratnya kurang dari

36 kg, maka data dapat dikatakan normal. Dengan demikian bila diwujudkan dalam bentuk diagram sebaran

data akan tampak sebagai berikut:

36 41 46 51 56




C. Uji Heteroskedastisitas

C.1. Pengertian Heteroskedastisitas

Sebagaimana telah ditunjukkan dalam salah satu asumsi yang harus ditaati pada model regresi linier,


adalah residual harus homoskedastis, artinya, variance residual harus memiliki variabel yang konstan, atau dengan kata lain, rentangan e kurang lebih sama. Karena jika variancenya tidak sama, model akan menghadapi masalah heteroskedastisitas. Heteroskedastisitas muncul apabila kesalahan atau residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke observasi lainnya (Kuncoro, 2001: 112). Padahal rumus regresi diperoleh dengan asumsi bahwa variabel pengganggu (error) atau e, diasumsikan memiliki variabel yang konstan (rentangan e kurang lebih sama). Apabila terjadi varian e tidak konstan, maka kondisi tersebut dikatakan tidak homoskedastik atau mengalami heteroskedastisitas (Setiaji, 2004: 17).

Masalah heteroskedastisitas lebih sering muncul dalam data cross section dari pada data time series

(Kuncoro, 2001: 112; Setiaji, 2004: 17). Karena dalam data cross section menunjukkan obyek yang berbeda dan

waktu yang berbeda pula. Antara obyek satu dengan yang lainnya tidak ada saling keterkaitan, begitu pula dalam hal waktu. Sedangkan data time series, antara observasi satu

dengan yang lainnya saling mempunyai kaitan. Ada trend yang cenderung sama. Sehingga variance residualnya juga cenderung sama. Tidak seperti data cross section yang cenderung menghasilkan variance residual yang

berbeda pula.




C.2. Konsekuensi Heteroskedastisitas

Analisis regresi menganggap kesalahan (error) bersifat homoskedastis, yaitu asumsi bahwa residu atau deviasi dari garis yang paling tepat muncul serta random sesuai dengan besarnya variabel-variabel independen (Arsyad, 1994:198). Asumsi regresi linier yang berupa


variance residual yang sama, menunjukkan bahwa standar error (Sb) masing-masing observasi tidak mengalami perubahan, sehingga Sb nya tidak bias. Lain halnya, jika asumsi ini tidak terpenuhi, sehingga variance residualnya berubah-ubah sesuai perubahan observasi, maka akan mengakibatkan nilai Sb yang diperoleh dari hasil regresi akan menjadi bias. Selain itu, adanya kesalahan dalam model yang dapat mengakibatkan nilai b meskipun tetap linier dan tidak bias, tetapi nilai b bukan nilai yang terbaik. Munculnya masalah heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias, akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan. Karena nilai t dihasilkan dari hasil bagi antara b dengan Sb.

Jika nilai Sb mengecil, maka nilai t cenderung

membesar. Hal ini akan berakibat bahwa nilai t mungkin

mestinya tidak signifikan, tetapi karena Sb nya bias, maka t menjadi signifikan. Sebaliknya, jika Sb membesar, maka nilai t akan mengecil. Nilai t yang seharusnya signifikan, bisa jadi ditunjukkan menjadi tidak signifikan. Ketidakmenentuan dari Sb ini dapat menjadikan hasil riset yang mengacaukan.


Yüklə 0,74 Mb.

Dostları ilə paylaş:
1   2   3   4   5   6   7   8   9




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©genderi.org 2024
rəhbərliyinə müraciət

    Ana səhifə