BAB I
PENDAHULUAN
1.1 Latar Belakang Masalah
Analisis regresi adalah teknik analisis statistik untuk mengetahui
pola hubungan antara variabel tak bebas dengan variabel bebas. Hubungan antara
variabel-variabel dalam regresi linier dinyatakan dalam model tersebut juga
disebut model regresi klasik. Analisis regresi linear berganda digunakan untuk
menganalisis hubungan linear antara dua atau lebih variabel bebas secara
bersama-sama dengan satu variabel terikat. Adanya korelasi antar variabel yang
cukup tinggi menimbulkan multikolinearitas yang menyebabkan model persamaan
regresi yang diperoleh kurang layak.
Multikolinieritas adalah kondisi terdapatnya hubungan linier atau
korelasi yang tinggi antara masing-masing variabel independent dalam model
regresi. Multikolinieritas biasanya terjadi ketika sebagian besar variabel yang
digunakan salang terkait dalam satu model regresi. Oleh karena itu, masalah
multikolinieritas tidak terjadi pada regresi linier sederhana yang hanya
melibatkan satu variabel independent. Salah satu ukuran untuk mendeteksi adanya
multikolinearitas adalah dengan menguji koefisien korelasi (r) antar variabel
prediktor. Jika koefisien korelasi diatas 0,85 maka diduga terdapat kasus
multikolinearitas. Sebaliknya jika koefisien korelasi relatif rendah maka
diduga tidak mengandung multikolinearitas. Deteksi ini diperlukan
kehati-hatian.
Masalah ini timbul terutama pada data time series dimana korelasi
antar variabel prediktor tinggi. Untuk mengatasi masalah multikolinieritas
tersebut, ada beberapa solusi. Salah satunya adalah dengan menerapkan analisis
regresi bertatar (stepwise regression).
1.2 Rumusan Masalah
1.2 Rumusan Masalah
1.
Apakah yang
dimaksud dengan multikolinieritas ?
2.
Bagaimana cara
mengidentifikasi adanya multikolinieritas ?
3.
Apakah dampak
dari adanya multikolinieritas ?
4.
Bagaimana cara
mengatasi masalah multikolinieritas dengan menggunakan stepwise regression ?
1.3
Tujuan
1.
Untuk mengetahui apa yang dimaksud dengan multikolinieritas.
2.
Untuk mengetahui cara mengidentifikasi adanya multikolinieritas.
3.
Untuk mengetahui dampak dari adanya multikolinieritas.
4.
Untuk mengetahui cara mengatasi masalah multikolinieritas dengan menggunakan
stepwise regression.
1.4 Manfaat
1.
Dapat mengetahui apa yang dimaksud dengan multikolinieritas.
2.
Dapat mengetahui cara mengidentifikasi adanya multikolinieritas.
3.
Dapat mengetahui dampak dari adanya multikolinieritas.
4.
Dapat mengetahui cara mengatasi masalah multikolinieritas dengan
menggunakan stepwise regression.
BAB 2
PEMBAHASAN
1.1
Pengertian Multikolinieritas
Multikolinearitas atau Kolinearitas Ganda (Bahasa Inggris:
Multicollinearity) adalah adanya hubungan linear antara peubah bebas X dalam
Model Regresi Ganda Jika hubungan linear antar peubah bebas X dalam Model
Regresi Ganda adalah korelasi sempurna maka peubah-peubah tersebut
berkolinearitas ganda sempurna (Bahasa Inggris : perfect multicollinearity).
Sebagai ilustrasi, misalnya dalam menduga faktor-faktor yang
memengaruhi konsumsi per tahun dari suatu rumah tangga, dengan model regresi
ganda sebagai berikut : Y=ß0+ß1X1+ß2X2+E dimana : X1 : pendapatan per tahun
dari rumah tangga X2 : pendapatan per bulan dari rumah tangga Peubah X1 dan X2
berkolinearitas sempurna karena X1 = 12X2. Jika kedua peubah ini dimasukkan ke
dalam model regresi, akan timbul masalah Kolinearitas Sempurna, yang tidak
mungkin diperoleh pendugaan koefisien parameter regresinya. Jika tujuan
pemodelan hanya untuk peramalan nilai Y (peubah respon) dan tidak mengkaji
hubungan atau pengaruh antara peubah bebas (X) dengan peubah respon (Y) maka
masalah multikolinearitas bukan masalah yang serius.Seperti jika menggunakan
Model ARIMA dalam peramalan, karena korelasi antara dua parameter selalu
tinggi, meskipun melibatkan data sampel dengan jumlah yang besar.Masalah
multikolinearitas menjadi serius apabila digunakan unruk mengkaji hubungan
antara peubah bebas (X) dengan peubah respon (Y) karena simpangan baku
koefisiennya regresinya tidak siginifikan sehingga sulit memisahkan pengaruh
dari masing-masing peubah bebas.
1.2
Identifikasi Adanya Multikolinieritas
a.
Terdapat korelasi yang tinggi (R > 0.8) antara satu pasang atau
lebih variabel bebas dalam model.
b.
Mencari nilai Condition Index (CI). Condition indek yang bernilai
lebih dari 30 mengindentifikasikan adanya multikolineritas.
c.
Dapat pula melihat indikasi multikolinearitas dengan Tolerance
Value (TOL), Eigenvalue, dan yang paling umum digunakan adalah Varians
Inflation Factor (VIF). nilai VIF > 10 mengindentifikasi adanya
multikolinieritas.
d.
Perubahan kecil sekalipun pada data akan menyebabkan perubahan
signifikan pada variabel yang diamati.
e.
Nilai koefisien variabel tidak sesuai dengan hipotesis, misalnya
variabel yang seharusnya memiliki pengaruh positif (nilai koefisien positif),
ditunjukkan dengan nilai negatif.
f.
f. Kolinearitas seringkali diduga jika R2 cukup tinggi (antara
0,7-1) dan jika koefisien korelasi sederhana (korelasi derajat nol) juga
tinggi, tetapi tak satu pun/ sedikit sekali koefisien regresi parsial yang
signifikan secara individu. Di pihak lain, uji F menolak H0 yang mengatakan
bahwa secara stimulan seluruh koefisien regresi parsialnya adalah nol.
g.
Meskipun korelasi derajat nol yang tinggi mungkin mengusulkan
kolinearitas, tidak perlu bahwa mereka tinggi berarti mempunyai kolinearitas
dalam kasus spesifik. Untuk meletakkan persoalan agar secara teknik, korelasi
derajat nol yang tinggi merupakan kondisi yang cukup tapi tidak perlau adanya
kolinearitas karena hal ini dapat terjadi meskipun melalui korelasi derajat nol
atau sederhana relaif rendah.
h.
Untuk mengetahui ada tidaknya kolinearitas ganda dalam model
regresi linear berganda, tidak hanya melihat koefisien korelasi sederhana, tapi
juga koefisien korelasi parsial.
i.
Karena multikolinearitas timbul karena satu atau lebih variabel
yang menjelaskan merupakan kombinasi linear yang pasti atau mendekati pasti
dari variabel yang menjelaskan lainnya, satu cara untuk mengetahui variabel X
yang mana berhubungan dengan variabel X lainnya adalah dengan meregresi tiap Xi
atas sisa variabel X dan menghitung R2 yang cocok, yang bisa disebut .
1.4 Cara mendeteksi Multikolinearitas
Cara mendeteksi adanya Multikolinearitas di dalam model regresi
adalah dengan cara:
a.
Melihat kekuatan korelasi antar
variabel bebas. Jika ada korelasi antar
variabel bebas > 0,8 dapat diindikasikan adanya multikolinearitas.
b.
Melihat nilai standar error koefisien regresi parsial. Jika ada
nilai standar error > 1, maka dapat diindikasikan adanya multikolinearitas.
c.
Melihat rentang confidence interval. Jika rentang confidence
interval sangat lebar, maka dapat diindikasikan adanya multikolinearitas.
d.
Melihat nilai Condition Index dan eigenvalue. Jika nilai condition
index > 30 dan nilai eigenvalue < 0,001 dapat diindikasikan adanya
multikolinearitas.
e.
Melihat nilai Tolerance dan Variance Inflating Factor (VIF). Jika
nilai Tolerance < 0,1 dan VIF > 10 dapat diindikasikan adanya
multikolinearitas. Sebagian pakar menggunakan batasan Tolerance < 0,2 dan
VIF > 5 dalam menentukan adanya multikolinearitas. Para pakar juga lebih
banyak menggunakan nilai Tolerance dan VIF dalam menentukan adanya
Multikolinearitas di dalam model regresi linear berganda dibandingkan
menggunakan parameter-parameter yang lainnya. Hal ini juga dalam prakteknya
menggunakan SPSS, kita sudah disuguhkan dengan hasil yang instant, dimana kita bisa
langsung lihat nilai keduanya di dalam output SPSS.
f.
Model regresi dengan variabel dummy dengan jumlah kategori variabel
dummy adalah tiga kategori atau lebih.
g.
Dikatakan tidak akan menjadi masalah jika terdapat perbedaan jumlah
yang mencolok anggota sampel didalam kategori, dimana yang menjadi kategori
referensi adalah kategori yang jumlah anggotanya sedikit. Sebagai contoh:
jumlah sampel sebanyak 100 orang. Variabel Dummy adalah “Jenis Pekerjaan
(Petani, Buruh, PNS)”. Anggota kategori Petani 45 orang, Buruh 45 orang,
sedangkan PNS 10 orang. Selanjutnya yang menjadi referensi adalah yang
anggotanya sedikit, yaitu PNS. Hal ini menyebabkan Variabel Dummy tidak akan
berkorelasi terhadap variabel lainnya, sebab yang menjadi referensi adalah yang
jumlah anggotanya paling sedikit.
Contoh
Untuk memudahkan para pembaca memahami dampak di atas, kami coba
ilustrasikan sebagai berikut:
Anda harus pahami dulu yang dimaksud dengan koefisien regresi
parsial. Dalam hal ini biasanya lebih dikenal dengan istilah koefisien Beta.
Koefisien Beta itu seperti yang ada dalam contoh persamaan regresi berikut: Y =
Alpha + Beta1 X1 + Beta2 X2 + e.
Contoh Model Regresi dengan Masalah Multikolinearitas
Berikut kami contohkan sebuah model regresi yang terdapat masalah
multikolinearitas, yaitu dengan persamaan Y = Alpha + Beta1 X1 +
Beta2 X2 + Beta3 X1*X2 + e. (Dimana X1*X2 adalah hasil perkalian
antara X1 dengan X2).
Apabila kita punya data sebagai gambar berikut: ada X1, X2 dan
Perkalian antara X1 dengan X2 yaitu X1X2.
h.
i.
Data set
Multikolinearitas
1.4 Cara mengatasi multikolinearitas adalah dengan cara:
Jika jumlah variabel banyak, maka kita dapat melakukan Analisis Faktor sebelum
regresi. Setelah analisis faktor,
variabel baru yang terbentuk kita gunakan sebagai variabel di dalam model
regresi.
Dengan cara memilih salah satu diantara variabel bebas yang
berkorelasi kuat. Oleh karena itu, sebelumnya anda harus mencari variabel yang
nilai VIFnya tinggi dan nilai korelasinya dengan variabel bebas lainnya kuat.
Dengan cara melakukan operasi matematis antar variabel bebas yang
berkorelasi kuat sehingga didapat variabel baru hasil operasi tersebut yang
kemudian dimasukkan ke dalam model regresi sebagai perwakilan dari variabel
yang menjadi sumber operasi matematis tersebut.
Melakukan standarisasi terhadap variabel yang menjadi penyebab
inklusi perkalian antara variabel, dimana hasil perkalian setelah standarisasi
tersebut yang dimasukkan ke dalam model bersama-sama dengan variabel yang sudah
distandarisasi.
1.5
Cara Menguji dan Mengatasi Multikolinieritas dengan SPSS
Multikolinieritas adalah fenomena statistik yang ditemui dalam
pemodelan regresi linier berganda dimana terdapat hubungan yang tinggi antara
dua atau lebih variabel prediktor. Karena multikolinieritas melihat seberapa
erat hubungan antara variabel prediktor, maka uji multikolinieritas hanya
diperlukan pada model regresi linier berganda, tidak untuk regresi linier
sederhana.
Hal ini artinya terdapat pola hubungan linier juga diantara
variabel prediktor dalam satu model. Jika terjadi demikian, tentunya
menyebabkan model regresi menjadi bias. Jika kita memasukan variabel prediktor yang
memiliki hubungan yang erat antara variabel tersebut dalam satu model, maka
model tersebut menjadi redundant. Sebetulnya berapa nilai korelasi antara
variabel prediktor yang masih dapat ditoleransi? Beberapa teori mengatakan
dibawah 0,9 masih dapat ditoleransi, namun beberapa teori lain mengatakan harus
kurang dari 0,8 bahkan 0,7.
Mendeteksi
Multikolinieritas di dalam model
a.
Jika dalam model terdapat multikolinieritas, maka akan terjadi
perubahan yang besar pada nilai koefisien regresi ketika kita mengeluarkan satu
variabel prediktor dari dalam model.
b.
Jika dalam model regresi
linier berganda, koefisien variabel prediktor tidak signifikan secara
statistik, namun ketika kita mencobanya satu persatu variabel prediktor dalam
analisis regresi linier sederhana hasilnya menjadi signifikan. Kondisi tersebut
juga menunjukkan kemungkinan adanya multikolinieritas.
c.
Kita mendapati nilai F hitung yang begitu besar atau signifikan
secara statistik, namun ketika diuji secara parsial dengan uji t tidak ada
satupun yang signifikan.
d.
Ketika terdapat koefisien regresi yang negatif padahal secara teori
seharusnya positif. Atau sebaliknya.
e.
Untuk memastikan agar lebih yakin terdapat multikolinieritas di
dalam model, sebaiknya uji dengan menggunakan nilai VIF menggunakan SPSS atau
Eviews. Beberapa ahli mengatakan nilai VIF harus kurang dari 5 dan beberapa
ahli lainnya mengatakan cukup dibawah 10.
Bagaimana
mengatasi multikolinieritas dalam model
1.
Jika kita menjumpai terdapat variabel prediktor yang memiliki nilai
VIF lebih dari 5 atau 10, maka kita perlu untuk mengeluarkan salah satu
variabel tersebut dari model. Tujuannya adalah untuk mengeluarkan informasi
yang redundant yang sebenarnya sudah diwakili oleh variabel prediktor yang
lain. Namun jangan khawatir, mengeluarkan salah satu variabel prediktor tidak
akan menurunkan nilai R kuadrat secara drastis, jika memang terdapat multikolinieritas
dalam model.
2.
Untuk menghasilkan kombinasi variabel prediktor yang menghasilkan R
kuadrat tertinggi, gunakanlah metode regresi stepwise dalam SPSS.
3.
Lakukanlah transformasi data misalnya menjadi bentuk logaritma atau
bentuk diferensarialnya. Tansformasi data ke dalam diferensial lebih cocok
untuk data time series. Sementara untuk data-data penelitian survei sosial
kurang cocok karena akan sulit menginterpretasikan model diferensialnya.
4.
Gunakanlah Principal Component Analysis (PCA). Prinsipnya adalah menyederhanakan
atau menggabungkan jumlah variabel prediktor menjadi lebih sedikit jumlah
variabel tanpa mereduksi satupun variabel prediktor, namun dengan menjadikannya
dalam satu skor. Hasil dari pca adalah skor dari variabel prediktor baru yang
memiliki korelasi yang minimum sehinggi efektif untuk mengatasi
multikolinieritas.
5.
Gunakanlah Partial Least Square Regression(PLS). Jika kita
menggunakan PCA maka bisa dipastikan kita akan mendapatkan variabel prediktor
baru yang memiliki korelasi minimum diantara variabel prediktornya.
Permasalahan yang mungkin muncul adalah, variabel prediktor baru tersebut bisa
saja tidak memiliki hubungan yang signifikan juga dengan variabel respon (Y).
Maka kita akan menghadapi permasalahan baru berikutnya yaitu tidak signifikannya
model regresi. Jalan tengahnya adalah PLS, dimana secara perhitungan masih
mempertimbangkan variabel prediktor yang memiliki hubungan tinggi dengan
variabel respon namun mencari kombinasi variabel prediktor yang memiliki nilai
korelasi minimum diantara mereka.
BAB III
PENUTUP
1.1
Kesimpulan
1.
Multikolinieritas adalah kondisi terdapatnya hubungan linier atau
korelasi yang tinggi antara masing-masing variabel independent dalam model
regresi. Multikolinieritas biasanya terjadi ketika sebagian besar variabel yang
digunakan salang terkait dalam satu model regresi
2.
Uji t (t rasio) tidak signbifikan, nilai t statistik menjadi lebih
kecil sehingga variabel bebas tersebut menjadi tidak signifikan pengaruhnya.
pengaruh lebih lanjutnya adalah bahwa koefisien regresi yang dihasilkan tidak
mencerminkan nilai yang sebenarnya dimana sebagian koefisien cenderung over
estimate dan yang lain under estimate
3.
Walaupun koefisien regresi dari variabel X dapat ditentukan
(determinate), tetapi kesalahan standarnya akan cenderung semakin besar dengan
meningkatnya tingkat korelasi antara peningkatan variabel bebas.
4.
Karena besarnya kesalahan standar, selang keyakinan untuk parameter
populasi yang relevan cenderung untuk lebih besar.
5.
Dalam kasus multikolinearitas yang tinggi, data sampel mungkin
sesuai dengan sekelompok hipotesis yang berbeda-beda. Jadi probabilitas untuk
menerima hipotesis yang salah akan meningkat.
6.
Selama multikolinearitas tidak sempurna, penaksiran koefisien
regresi adalah mungkin tetapi taksiran dan kesalahan standarnya menjadi sangat
sensitif terhadap perubahan dalam data.
7.
Jika multikolinearitas tinggi, seseorang mungkin memperoleh R2 yang
tinggi, tetapi tidak satu pun atau sangat sedikit koefisien yang ditaksir yang
penting secara statistik.
1.2
Saran
1.
Diharapkan dengan mengetahui arti Multikolinieritas
2.
Diharapkan mampu Cara mendeteksi adanya Multikolinearitas di dalam
model regresi adalah dengan cara Melihat kekuatan korelasi antar
variabel bebas. Jika ada korelasi antar
variabel bebas > 0,8 dapat diindikasikan adanya multikolinearitas.
3.
Diharapkan mengathui Cara mengatasi multikolinearitas yakni dengan
cara memilih salah satu diantara variabel bebas yang berkorelasi kuat. Oleh
karena itu, sebelumnya anda harus mencari variabel yang nilai VIFnya tinggi dan
nilai korelasinya dengan variabel bebas lainnya kuat
4.
Cara Menguji dan Mengatasi Multikolinieritas dengan SPSS Untuk
menghasilkan kombinasi variabel prediktor yang menghasilkan R kuadrat
tertinggi, gunakanlah metode regresi stepwise dalam SPSS
DAFTAR PUSTAKA
A. Rahman Saleh. 2006. Arti
Multikolinieritas. Jakarta: Raja grafindo persada.
UUSPN No.20,Th 2003, Tentang
Sistem Multikolinieritas, Surabaya: Karina.
Zakiah Darajat. et.al. Ilmu Ekonometrika.
Jakarta:Bumi Aksara.
Http://en.wikipedia.org/wiki/Multicollinearity
Http://blog.minitab.com/blog/understanding-statistics/handling-multicollinearity-in-regression-analysis
Http://blog.minitab.com/blog/understanding-statistics/handling-multicollinearity-in-regression-analysis
No comments:
Post a Comment