1.
APAKAH SEBAB-SEBAB
AUTOKORELASI ?
Jawab:
·
Adanya kelembaman (inertia), yaitu data
observasi pada periode sebelumnya dan periode sekarang, kemungkinan besar akan
mengandung saling ketergantungan (independence)
·
Bisa spesifikasi model kasus yang tidak dimasukkan.
Hal ini disebabkan oleh tidak dimasukkannya variabel yang menurut teori sangat
penting peranannya dalam menjelaskan variabel terikat (tak bebas). Bila hal ini
terjadi, unsur pengganggu (error term) akan merefleksikan suatu pola yang
sistematis antara sesama unsur pengganggu sehingga terjadi situasi otokorelasi
diantara unsur pengganggu.
·
Adanya fenomena laba-laba (cobweb phenomenon),
yaitu data yang diperoleh saat ini (X₁) dipengaruhi oleh data sebelumnya (X₀)
sehingga data setelah saat ini/data berikutnya(X₂) memiliki kecenderungan
dipengaruhi oleh data pendahulunya (X₀) sehingga data X₂ memiliki potensi lebih
rendah dari data X₁. Akibatnya error term tidak lagi bersifat acak (random),
tetapi mengikuti pola sarang laba-laba.
·
Manipulasi data (manipulation of data). Dalam
analisis empiris terutama data time series sering kali terjadi manipulasi data,
hal ini terjadi data yang diinginkan tidak tersedia. Adanya interpolasi atau
manipulasi data jelas akan menimbulkan suatu pola fluktuasi yang tersembunyi
yng mengakibatkan munculnya pola sistematis dalam unsur penggangu dan akhirnya
akan menimbulkan masalah autokorelasi.
·
Adanya kelembaman waktu (time lags). Dalam
regresi data time series, pengaruh psikologis, teknis dan kelembagaan. Jika
unsur lag diabaikan dari suatu mdel yang dibentuk, maka error term yang
dihasilkan akan mencerminkan pola sistematis sebagai akibat pengaruh variabel
terikat pada periode sebelumnya atau periode sekarang.
2.
FAKTOR-FAKTOR
YANG DAPAT MENYEBABKAN TIMBULNYA MASALAH AUTOKORELASI, ADALAH:
Jawab:
·
Kesalahan dalam pembentukan model, artinya,
model yang digunakan untuk menganalisis regresi tidak didukung oleh teori-teori
yang relevan dan mendukung.
·
Tidak memasukkan variabel yang penting. Variabel
penting yang dimaksudkan di sini adalah variabel yang diperkirakan signifikan
mempengaruhi variabel Y.
·
Manipulasi data. Misalnya dalam penelitian kita
ingin menggunakan data bulanan, namun data tersebut tidak tersedia. Kemudian
kita mencoba menggunakan triwulanan yang tersedia, untuk dijadikan data bulanan
melalui cara interpolasi atau ekstrapolasi.
·
Menggunakan data yang tidak empiris. Jika data
semacam ini digunakan, terkesan bahwa data tersebut tidak didukung oleh
realita.
3.
APAKAH
YG DIMAKSUD DENGAN PENGUJIAN AUTOKORELASI
Jawab:
·
sebuah analisis statistik yang dilakukan untuk
mengetahui adakah korelasi variabel yang ada di dalam model prediksi dengan
perubahan waktu.
4.
DALAM UJI DURBIN-WATSON (DW TEST). TERDAPAT
BEBERAPA ASUMSI PENTING YANG HARUS DIPATUHI, APAKAH ITU
Jawab:
Dalam DW test ini terdapat beberapa asumsi
penting yang harus dipatuhi, yaitu:
•
Terdapat intercept dalam model regresi.
•
Variabel penjelasnya tidak random ( nonstochastics ).
•
Tidak ada unsur lag dari variabel dependen di dalam model.
•
Tidak ada data yang hilang.
• υ = ρυ + ε t t − 1 t
5.
COBA
JELASKAN APA YANG DIMAKSUD DENGAN ASUMSI KLASIK!
Jawab:
·
Uji asumsi klasik adalah persyaratan statistik
yang harus dipenuhi pada analisis regresi linear berganda yang berbasis ordinary
least square (OLS). Jadi analisis regresi yang tidak berdasarkan OLS tidak
memerlukan persyaratan asumsi klasik, misalnya regresi logistik atau regresi
ordinal. Demikian juga tidak semua uji asumsi klasik harus dilakukan pada
analisis regresi linear, misalnya uji multikolinearitas tidak dilakukan pada
analisis regresi linear sederhana dan uji autokorelasi tidak perlu diterapkan
pada data cross sectional.
6.
SEBUTKAN
APA SAJA ASUMSI-ASUMSI YANG DITETAPKAN!
Jawab:
·
Asumsi 1
: linear regresion Model. Model regresi merupakan hubungan linear dalam
parameter.
·
Asumsi 2
: Nilai X adalah tetap dalam sampling yang diulang – ulang
·
Asumsi 3
: Variabel penggangu e memiliki rata –rata nol
·
Asumsi 4
: Homoskedastisitas atau variabel penggangu e memiliki variance yang sama
sepanjang observasi dari berbagai nilai X.
·
Asumsi 5
: Tidak ada autokorelasi antara variabel e pada setiap nilai Xi dan ji
·
Asumsi 6
: Variabel X dan disturbance e tidak berkorelasi.
·
Asumsi 7
: Jumlah observasi / besar sample (n) harus lebih besar dari jumlah parameter
yang diestimasi.
·
Asumsi 8
: Variabel X harus memiliki variabilitas.
·
Asumsi 9
: Model regresi secara benar telah terspesifikasi.
·
Asumsi 10
: Tidak ada multikolinearitas antara variabel penjelas
·
7.
COBA
JELASKAN MENGAPA TIDAK SEMUA ASUMSI PERLU LAKUKAN PENGUJIAN!
Jawab:
·
Karena tidak semua data dapat diperlakukan
dengan regresi, Jika data yang diregresi tidak memenuhi asumsi-asumsi yang
telah disebutkan (asumsi klasik), maka regresi yang diterapkan akan
menghasilkan estimasi yang bias.
8.
JELASKAN
APA YANG DIMAKSUD DENGAN AUTOKORELASI !
Jawab:
·
Uji Autokorelasi adalah sebuah analisis
statistik yang dilakukan untuk mengetahui adakah korelasi variabel yang ada di
dalam model prediksi dengan perubahan waktu. Oleh karena itu, apabila asumsi
autokorelasi terjadi pada sebuah model prediksi, maka nilai disturbance tidak
lagi berpasangan secara bebas, melainkan berpasangan secara autokorelasi.
9.
JELASKAN
KENAPA AUTOKORELASI TIMBUL !
Jawab:
Masalah autokorelasi sering timbul pada data runtut waktu
(time series). Penyebab utama autokorelasi adalah kesalahan spesifikasi,
misalnya terabaikannya suatu variabel penting atau bentuk fungsi yang tidak
tepat. Berikut beberapa penyebab munculnya autokorelasi dalam analisis regresi:
• Adanya
kelembaman (inertia), yaitu data observasi pada periode sebelumnya dan periode
sekarang, kemungkinan besar akan mengandung saling ketergantungan
(independence).
• Bisa
spesifikasi model kasus yang tidak dimasukkan. Hal ini disebabkan oleh tidak
dimasukkannya variabel yang menurut teori sangat penting peranannya dalam
menjelaskan variabel terikat (tak bebas). Bila hal ini terjadi, unsur
pengganggu (error term) akan merefleksikan suatu pola yang sistematis antara
sesama unsur pengganggu sehingga terjadi situasi otokorelasi diantara unsur
pengganggu.
• Adanya
fenomena laba-laba (cobweb phenomenon), yaitu data yang diperoleh saat ini (X₁)
dipengaruhi oleh data sebelumnya (X₀) sehingga data setelah saat ini/data
berikutnya(X₂) memiliki kecenderungan dipengaruhi oleh data pendahulunya (X₀)
sehingga data X₂ memiliki potensi lebih rendah dari data X₁. Akibatnya error
term tidak lagi bersifat acak (random), tetapi mengikuti pola sarang laba-laba.
• Manipulasi
data (manipulation of data). Dalam analisis empiris terutama data time series
sering kali terjadi manipulasi data, hal ini terjadi data yang diinginkan tidak
tersedia. Adanya interpolasi atau manipulasi data jelas akan menimbulkan suatu
pola fluktuasi yang tersembunyi yng mengakibatkan munculnya pola sistematis
dalam unsur penggangu dan akhirnya akan menimbulkan masalah autokorelasi.
• Adanya
kelembaman waktu (time lags). Dalam regresi data time series, pengaruh
psikologis, teknis dan kelembagaan. Jika unsur lag diabaikan dari suatu mdel
yang dibentuk, maka error term yang dihasilkan akan mencerminkan pola
sistematis sebagai akibat pengaruh variabel terikat pada periode sebelumnya
atau periode sekarang.
10.
BAGAIMANA
CARA MENDETEKSI MASALAH AUTOKORELASI ?
Jawab:
·
Cara mendeteksi autokeralasi dengan metode
grafik, uji Durbin Watson, uji Run, dan uji Breusch-Godfrey (BG)/Langrange
Multiplier (LM).
11. APA KONSEKUENSI DARI ADANYA MASALAH
AUTOKORELASI DALAM MODEL ?
Jawab:
Konsekuensinya antara lain:
• Estimator
yang dihasilkan masih unbiased, konsisten, dan asymptotical normally
distributed. Tetapi tidak lagi efisien->varians tidak minimum (tidak BLUE).
• Estimasi
standard error dan varian koefisien regresi yang didapat akan ‘underestimate’.
• Pemerikasaan
terhadap residualnya akan menemui permasalahan.
• Autokorelasi
yang kuat dapat pula menyebabkan dua variabel yang tidak berhubungan menjadi
berhubungan. Biasa disebut spourious regression. Hal ini terlihat dari R2.
12. JELASKAN APA YANG DIMAKSUD DENGAN
HETEROSKEDASTISITAS !
Jawab:
·
Uji Heteroskedastisitas adalah uji yang menilai
apakah ada ketidaksamaan varian dari residual untuk semua pengamatan pada model
regresi linear. Uji ini merupakan salah satu dari uji asumsi klasik yang harus
dilakukan pada regresi linear. Apabila asumsi heteroskedastisitas tidak
terpenuhi, maka model regresi dinyatakan tidak valid sebagai alat peramalan.
13. JELASKAN KENAPA HETEROSKEDASTISITAS
TIMBUL !
Jawab:
·
Heteroskedastisitas timbul apabila kesalahan
atau residual dari model yang diamati tidak memiliki varians yang konstan dari
satu observasi ke observasi lainnya (Kuncoro, 2001: 112). Padahal rumus regresi
diperoleh dengan asumsi bahwa variabel pengganggu (error) atau e, diasumsikan
memiliki variabel yang konstan (rentangan e kurang lebih sama). Apabila terjadi
varian e tidak konstan, maka kondisi tersebut dikatakan tidak homoskedastik
atau mengalamiheteroskedastisitas (Setiaji, 2004: 17).
14. BAGAIMANA CARA MENDETEKSI MASALAH
HETEROSKEDASTISITAS ?
Jawab:
·
Untuk mendeteksi ada tidaknya
heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti uji grafik,
uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji Whyte
menggunakan Lagrange Multiplier (Setiaji, 2004: 18)21. Pengujian heteroskedastisitas
menggunakan uji grafik, dapat dilakukan dengan membandingkan sebaran antara
nilai prediksi variabel terikat dengan residualnya, yang output pendeteksiannya
akan tertera berupa sebaran data padascatter plot. Pengujian
heteroskedastisitas menggunakan uji Arch, dilakukan dengan cara melakukan
regresi atas residual, dengan model yang dapat dituliskan e2 = a + By2 + u.
Dari hasil regresi tersebut dihitung nilai R2. Nilai R2 tadi dikalikan dengan
jumlah sampel (R2 x N). Hasil perkalian ini kemudian dibandingkan dengan nilai
chi-square (x2) pada derajat kesalahan tertentu.
15. APA KONSEKUENSI DARI ADANYA MASALAH
HETEROSKEDASTISITAS DALAM MODEL ?
Jawab:
·
Analisis regresi linier yang berupa variance
residual yang sama, menunjukkan bahwa standar error (Sb) masing-masing
observasi tidak mengalami perubahan, sehingga Sb nya tidak bias., Jika asumsi ini tidak terpenuhi,
sehinggavariance residualnya berubah-ubah sesuai perubahan observasi, maka akan
mengakibatkan nilai Sb yang diperoleh dari hasil regresi akan menjadi bias.
Karena nilai t dihasilkan dari hasil bagi antara b dengan Sb. Jika nilai Sb
mengecil, maka nilai t cenderung membesar.Nilai t yang seharusnya signifikan,
bisa jadi ditunjukkan menjadi tidak signifikan. Ketidakmenentuan dari Sb ini
dapat menjadikan hasil riset yang mengacaukan.
16. JELASKAN APA YANG DIMAKSUD DENGAN
MULTIKOLINEARITAS !
Jawab:
·
Multikolinieritas adalah suatu keadaan dimana
terjadi korelasi linear yang ”perfect” atau eksak di antara variabel penjelas
yang dimasukkan ke dalam model. Tingkat kekuatan hubungan antar variabel
penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna. Tingkat
kolinear dikatakan lemah apabila masing-masing variabel penjelas hanya
mempunyai sedikit sifat-sifat yang sama.
17. JELASKAN KENAPA MULTIKOLINEARITAS
TIMBUL !
Jawab:
a. Kesalahan teoritis dalam pembentukan model
fungsi regresi yang dipergunakan/ memasukkan variabel bebas yang hampir sama,
bahkan sama.
b. Terlampau
kecilnya jumlah pengamatan yang akan dianalisis dengan model regresi
18. BAGAIMANA CARA MENDETEKSI MASALAH
MULTIKOLINEARITAS?
Jawab:
·
Kolinearitas seringkali diduga jika R2 cukup
tinggi (antara 0,7-1) dan jika koefisien korelasi sederhana (korelasi derajat
nol) juga tinggi, tetapi tak satu pun/ sedikit sekali koefisien regresi parsial
yang signifikan secara individu. Di pihak lain, uji F menolak H0 yang
mengatakan bahwa secara stimulan seluruh koefisien regresi parsialnya adalah
nol.
·
Meskipun korelasi derajat nol yang tinggi
mungkin mengusulkan kolinearitas, tidak perlu bahwa mereka tinggi berarti
mempunyai kolinearitas dalam kasus spesifik. Untuk meletakkan persoalan agar
secara teknik, korelasi derajat nol yang tinggi merupakan kondisi yang cukup
tapi tidak perlau adanya kolinearitas karena hal ini dapat terjadi meskipun
melalui korelasi derajat nol atau sederhana relaif rendah.
·
Untuk mengetahui ada tidaknya kolinearitas ganda
dalam model regresi linear berganda, tidak hanya melihat koefisien korelasi
sederhana, tapi juga koefisien korelasi parsial.
·
Karena multikolinearitas timbul karena satu atau
lebih variabel yang menjelaskan merupakan kombinasi linear yang pasti atau
mendekati pasti dari variabel yang menjelaskan lainnya, satu cara untuk
mengetahui variabel X yang mana berhubungan dengan variabel X lainnya adalah
dengan meregresi tiap Xi atas sisa variabel X dan menghitung R2 yang cocok,
19. APA KONSEKUENSI DARI ADANYA MASALAH
MULTIKOLINEARITAS DALAM MODEL?
Jawab:
A.
Walaupun bersifat BLUE, estimator OLS yang
didapatkan memiliki varians dan kovarians yang besar, sehingga estimasi yang
tepat sulit dilakukan.
B.
Rentang kepercayaan (confidence interval)
menjadi besar.
C.
Uji t untuk satu atau beberapa koefisien regresi
cenderung untuk tidak signifikan.
D.
Walaupun banyak koefisien yang tidak signifikan
(dalam uji-t), akan tetapi nilai koefisien determinasi (R2) biasanya sangat
tinggi.
E.
Estimator OLS dan standart errornya menjadi
sangat sensitif dengan adanya perubahan kecil pada data.
20. JELASKAN APA YANG DIMAKSUD DENGAN
NORMALITAS!
Jawab:
·
Uji Normalitas adalah sebuah uji yang dilakukan
dengan tujuan untuk menilai sebaran data pada sebuah kelompok data atau
variabel, apakah sebaran data tersebut berdistribusi normal ataukah tidak. Uji
Normalitas berguna untuk menentukan data yang telah dikumpulkan berdistribusi
normal atau diambil dari populasi normal.
21. JELASKAN KENAPA NORMALITAS TIMBUL!
Jawab:
·
Sebenarnya istilah “normalitas” dalam statistik
itu biasa digunakan untuk menjelaskan jenis distribusi dari sebuah data. Suatu
data memiliki kecenderungan terhadap suatu jenis distribusi, seperti :
distribusi binomial, hypergeometri, poisson, normal, weilbul, dll. Jenis
distribusi data dapat ditentukan dari karakteristik data itu sendiri, dapat
pula dilakukan pengujian apakah data tersebut memiliki kecenderungan terhadap
suatu distribusi (salah satunya distribusi normal).
22. BAGAIMANA CARA MENDETEKSI MASALAH
NORMALITAS?
Jawab:
·
Untuk masalah menguji sebuah data terdistribusi
normal atau tidak dapat menggunakan beberapa cara (uji). Ada Uji Kolmogorov
Smirnov (KS test), Jaque Berra Test, Anderson Darling Test, dll. Uji
normalitas (sebutan untuk menguji apakah
sebuah data terdistribusi normal atau tidak) biasanya dilakukan sebagai
persyaratan atas sebuah metode tertentu, misalnya dalam regresi linier sebagai
salah satu persyaratan asumsi klasik, penentuan apakah menggunakan statistik
parametrik nonparametrik, dll.
23. APA KONSEKUENSI DARI ADANYA MASALAH
NORMALITAS DALAM MODEL?
Jawab:
·
Konsekuensi dari adanya masalah normalitas
adalah pengujian normalitas ini berdampak pada nilai t dan F karena pengujian
terhadap keduangan diturunkan dari asumsi bahwa data Y atau e berdistribusi
normal.
24. BAGAIMANA CARA MENANGANI JIKA DATA
TERNYATA TIDAK NORMAL?
Jawab:
·
Cara menangani jika data tersebut ternyata tidak
normal diperlukan upaya untuk mengatasi seperti memotong data outliers,
memperbesar sampel atau melakukan transformasi data.