Thursday 22 February 2018

Makalah Multikolinieritas


BAB I
PENDAHULUAN

1.1    Latar Belakang Masalah
Analisis regresi adalah teknik analisis statistik untuk mengetahui pola hubungan antara variabel tak bebas dengan variabel bebas. Hubungan antara variabel-variabel dalam regresi linier dinyatakan dalam model tersebut juga disebut model regresi klasik. Analisis regresi linear berganda digunakan untuk menganalisis hubungan linear antara dua atau lebih variabel bebas secara bersama-sama dengan satu variabel terikat. Adanya korelasi antar variabel yang cukup tinggi menimbulkan multikolinearitas yang menyebabkan model persamaan regresi yang diperoleh kurang layak.
Multikolinieritas adalah kondisi terdapatnya hubungan linier atau korelasi yang tinggi antara masing-masing variabel independent dalam model regresi. Multikolinieritas biasanya terjadi ketika sebagian besar variabel yang digunakan salang terkait dalam satu model regresi. Oleh karena itu, masalah multikolinieritas tidak terjadi pada regresi linier sederhana yang hanya melibatkan satu variabel independent. Salah satu ukuran untuk mendeteksi adanya multikolinearitas adalah dengan menguji koefisien korelasi (r) antar variabel prediktor. Jika koefisien korelasi diatas 0,85 maka diduga terdapat kasus multikolinearitas. Sebaliknya jika koefisien korelasi relatif rendah maka diduga tidak mengandung multikolinearitas. Deteksi ini diperlukan kehati-hatian.
Masalah ini timbul terutama pada data time series dimana korelasi antar variabel prediktor tinggi. Untuk mengatasi masalah multikolinieritas tersebut, ada beberapa solusi. Salah satunya adalah dengan menerapkan analisis regresi bertatar (stepwise regression).
1.2 Rumusan Masalah
1.     Apakah yang dimaksud dengan multikolinieritas ?
2.     Bagaimana cara mengidentifikasi adanya multikolinieritas ?
3.     Apakah dampak dari adanya multikolinieritas ?
4.    Bagaimana cara mengatasi masalah multikolinieritas dengan menggunakan stepwise regression ?

1.3 Tujuan
1.    Untuk mengetahui apa yang dimaksud dengan multikolinieritas.
2.    Untuk mengetahui cara mengidentifikasi adanya multikolinieritas.
3.    Untuk mengetahui dampak dari adanya multikolinieritas.
4.    Untuk mengetahui cara mengatasi masalah multikolinieritas dengan menggunakan stepwise regression.

1.4 Manfaat
1.      Dapat mengetahui apa yang dimaksud dengan multikolinieritas.
2.      Dapat mengetahui cara mengidentifikasi adanya multikolinieritas.
3.      Dapat mengetahui dampak dari adanya multikolinieritas.
4.       Dapat mengetahui cara mengatasi masalah multikolinieritas dengan menggunakan stepwise regression.







BAB 2
PEMBAHASAN
1.1  Pengertian Multikolinieritas
Multikolinearitas atau Kolinearitas Ganda (Bahasa Inggris: Multicollinearity) adalah adanya hubungan linear antara peubah bebas X dalam Model Regresi Ganda Jika hubungan linear antar peubah bebas X dalam Model Regresi Ganda adalah korelasi sempurna maka peubah-peubah tersebut berkolinearitas ganda sempurna (Bahasa Inggris : perfect multicollinearity).
Sebagai ilustrasi, misalnya dalam menduga faktor-faktor yang memengaruhi konsumsi per tahun dari suatu rumah tangga, dengan model regresi ganda sebagai berikut : Y=ß0+ß1X1+ß2X2+E dimana : X1 : pendapatan per tahun dari rumah tangga X2 : pendapatan per bulan dari rumah tangga Peubah X1 dan X2 berkolinearitas sempurna karena X1 = 12X2. Jika kedua peubah ini dimasukkan ke dalam model regresi, akan timbul masalah Kolinearitas Sempurna, yang tidak mungkin diperoleh pendugaan koefisien parameter regresinya. Jika tujuan pemodelan hanya untuk peramalan nilai Y (peubah respon) dan tidak mengkaji hubungan atau pengaruh antara peubah bebas (X) dengan peubah respon (Y) maka masalah multikolinearitas bukan masalah yang serius.Seperti jika menggunakan Model ARIMA dalam peramalan, karena korelasi antara dua parameter selalu tinggi, meskipun melibatkan data sampel dengan jumlah yang besar.Masalah multikolinearitas menjadi serius apabila digunakan unruk mengkaji hubungan antara peubah bebas (X) dengan peubah respon (Y) karena simpangan baku koefisiennya regresinya tidak siginifikan sehingga sulit memisahkan pengaruh dari masing-masing peubah bebas.




1.2 Identifikasi Adanya Multikolinieritas
a.     Terdapat korelasi yang tinggi (R > 0.8) antara satu pasang atau lebih variabel bebas dalam model.
b.    Mencari nilai Condition Index (CI). Condition indek yang bernilai lebih dari 30 mengindentifikasikan adanya multikolineritas.
c.     Dapat pula melihat indikasi multikolinearitas dengan Tolerance Value (TOL), Eigenvalue, dan yang paling umum digunakan adalah Varians Inflation Factor (VIF). nilai VIF > 10 mengindentifikasi adanya multikolinieritas.
d.    Perubahan kecil sekalipun pada data akan menyebabkan perubahan signifikan pada variabel yang diamati.
e.     Nilai koefisien variabel tidak sesuai dengan hipotesis, misalnya variabel yang seharusnya memiliki pengaruh positif (nilai koefisien positif), ditunjukkan dengan nilai negatif.
f.     f. Kolinearitas seringkali diduga jika R2 cukup tinggi (antara 0,7-1) dan jika koefisien korelasi sederhana (korelasi derajat nol) juga tinggi, tetapi tak satu pun/ sedikit sekali koefisien regresi parsial yang signifikan secara individu. Di pihak lain, uji F menolak H0 yang mengatakan bahwa secara stimulan seluruh koefisien regresi parsialnya adalah nol.
g.    Meskipun korelasi derajat nol yang tinggi mungkin mengusulkan kolinearitas, tidak perlu bahwa mereka tinggi berarti mempunyai kolinearitas dalam kasus spesifik. Untuk meletakkan persoalan agar secara teknik, korelasi derajat nol yang tinggi merupakan kondisi yang cukup tapi tidak perlau adanya kolinearitas karena hal ini dapat terjadi meskipun melalui korelasi derajat nol atau sederhana relaif rendah.
h.    Untuk mengetahui ada tidaknya kolinearitas ganda dalam model regresi linear berganda, tidak hanya melihat koefisien korelasi sederhana, tapi juga koefisien korelasi parsial.
i.      Karena multikolinearitas timbul karena satu atau lebih variabel yang menjelaskan merupakan kombinasi linear yang pasti atau mendekati pasti dari variabel yang menjelaskan lainnya, satu cara untuk mengetahui variabel X yang mana berhubungan dengan variabel X lainnya adalah dengan meregresi tiap Xi atas sisa variabel X dan menghitung R2 yang cocok, yang bisa disebut .


1.4 Cara mendeteksi Multikolinearitas
Cara mendeteksi adanya Multikolinearitas di dalam model regresi adalah dengan cara:
a.       Melihat kekuatan korelasi antar variabel bebas. Jika ada korelasi antar variabel bebas > 0,8 dapat diindikasikan adanya multikolinearitas.
b.      Melihat nilai standar error koefisien regresi parsial. Jika ada nilai standar error > 1, maka dapat diindikasikan adanya multikolinearitas.
c.       Melihat rentang confidence interval. Jika rentang confidence interval sangat lebar, maka dapat diindikasikan adanya multikolinearitas.
d.      Melihat nilai Condition Index dan eigenvalue. Jika nilai condition index > 30 dan nilai eigenvalue < 0,001 dapat diindikasikan adanya multikolinearitas.
e.       Melihat nilai Tolerance dan Variance Inflating Factor (VIF). Jika nilai Tolerance < 0,1 dan VIF > 10 dapat diindikasikan adanya multikolinearitas. Sebagian pakar menggunakan batasan Tolerance < 0,2 dan VIF > 5 dalam menentukan adanya multikolinearitas. Para pakar juga lebih banyak menggunakan nilai Tolerance dan VIF dalam menentukan adanya Multikolinearitas di dalam model regresi linear berganda dibandingkan menggunakan parameter-parameter yang lainnya. Hal ini juga dalam prakteknya menggunakan SPSS, kita sudah disuguhkan dengan hasil yang instant, dimana kita bisa langsung lihat nilai keduanya di dalam output SPSS.
f.        Model regresi dengan variabel dummy dengan jumlah kategori variabel dummy adalah tiga kategori atau lebih.
g.      Dikatakan tidak akan menjadi masalah jika terdapat perbedaan jumlah yang mencolok anggota sampel didalam kategori, dimana yang menjadi kategori referensi adalah kategori yang jumlah anggotanya sedikit. Sebagai contoh: jumlah sampel sebanyak 100 orang. Variabel Dummy adalah “Jenis Pekerjaan (Petani, Buruh, PNS)”. Anggota kategori Petani 45 orang, Buruh 45 orang, sedangkan PNS 10 orang. Selanjutnya yang menjadi referensi adalah yang anggotanya sedikit, yaitu PNS. Hal ini menyebabkan Variabel Dummy tidak akan berkorelasi terhadap variabel lainnya, sebab yang menjadi referensi adalah yang jumlah anggotanya paling sedikit.

Contoh
Untuk memudahkan para pembaca memahami dampak di atas, kami coba ilustrasikan sebagai berikut:
Anda harus pahami dulu yang dimaksud dengan koefisien regresi parsial. Dalam hal ini biasanya lebih dikenal dengan istilah koefisien Beta. Koefisien Beta itu seperti yang ada dalam contoh persamaan regresi berikut: Y = Alpha + Beta1 X1 + Beta2 X2 + e.

Contoh Model Regresi dengan Masalah Multikolinearitas
Berikut kami contohkan sebuah model regresi yang terdapat masalah multikolinearitas, yaitu dengan persamaan Y = Alpha + Beta1 X1 + Beta2 X2 + Beta3 X1*X2 + e. (Dimana X1*X2 adalah hasil perkalian antara X1 dengan X2).
Apabila kita punya data sebagai gambar berikut: ada X1, X2 dan Perkalian antara X1 dengan X2 yaitu X1X2.
h.       Dataset Multikolinearitas
i.        Data set Multikolinearitas

1.4 Cara mengatasi multikolinearitas adalah dengan cara:
Jika jumlah variabel banyak, maka kita dapat melakukan Analisis Faktor sebelum regresi. Setelah analisis faktor, variabel baru yang terbentuk kita gunakan sebagai variabel di dalam model regresi.
Dengan cara memilih salah satu diantara variabel bebas yang berkorelasi kuat. Oleh karena itu, sebelumnya anda harus mencari variabel yang nilai VIFnya tinggi dan nilai korelasinya dengan variabel bebas lainnya kuat.
Dengan cara melakukan operasi matematis antar variabel bebas yang berkorelasi kuat sehingga didapat variabel baru hasil operasi tersebut yang kemudian dimasukkan ke dalam model regresi sebagai perwakilan dari variabel yang menjadi sumber operasi matematis tersebut.
Melakukan standarisasi terhadap variabel yang menjadi penyebab inklusi perkalian antara variabel, dimana hasil perkalian setelah standarisasi tersebut yang dimasukkan ke dalam model bersama-sama dengan variabel yang sudah distandarisasi.
1.5     Cara Menguji dan Mengatasi Multikolinieritas dengan SPSS
Multikolinieritas adalah fenomena statistik yang ditemui dalam pemodelan regresi linier berganda dimana terdapat hubungan yang tinggi antara dua atau lebih variabel prediktor. Karena multikolinieritas melihat seberapa erat hubungan antara variabel prediktor, maka uji multikolinieritas hanya diperlukan pada model regresi linier berganda, tidak untuk regresi linier sederhana.
Hal ini artinya terdapat pola hubungan linier juga diantara variabel prediktor dalam satu model. Jika terjadi demikian, tentunya menyebabkan model regresi menjadi bias. Jika kita memasukan variabel prediktor yang memiliki hubungan yang erat antara variabel tersebut dalam satu model, maka model tersebut menjadi redundant. Sebetulnya berapa nilai korelasi antara variabel prediktor yang masih dapat ditoleransi? Beberapa teori mengatakan dibawah 0,9 masih dapat ditoleransi, namun beberapa teori lain mengatakan harus kurang dari 0,8 bahkan 0,7.
Mendeteksi Multikolinieritas di dalam model
a.    Jika dalam model terdapat multikolinieritas, maka akan terjadi perubahan yang besar pada nilai koefisien regresi ketika kita mengeluarkan satu variabel prediktor dari dalam model.
b.     Jika dalam model regresi linier berganda, koefisien variabel prediktor tidak signifikan secara statistik, namun ketika kita mencobanya satu persatu variabel prediktor dalam analisis regresi linier sederhana hasilnya menjadi signifikan. Kondisi tersebut juga menunjukkan kemungkinan adanya multikolinieritas.
c.    Kita mendapati nilai F hitung yang begitu besar atau signifikan secara statistik, namun ketika diuji secara parsial dengan uji t tidak ada satupun yang signifikan.
d.    Ketika terdapat koefisien regresi yang negatif padahal secara teori seharusnya positif. Atau sebaliknya.
e.    Untuk memastikan agar lebih yakin terdapat multikolinieritas di dalam model, sebaiknya uji dengan menggunakan nilai VIF menggunakan SPSS atau Eviews. Beberapa ahli mengatakan nilai VIF harus kurang dari 5 dan beberapa ahli lainnya mengatakan cukup dibawah 10.

Bagaimana mengatasi multikolinieritas dalam model
1.        Jika kita menjumpai terdapat variabel prediktor yang memiliki nilai VIF lebih dari 5 atau 10, maka kita perlu untuk mengeluarkan salah satu variabel tersebut dari model. Tujuannya adalah untuk mengeluarkan informasi yang redundant yang sebenarnya sudah diwakili oleh variabel prediktor yang lain. Namun jangan khawatir, mengeluarkan salah satu variabel prediktor tidak akan menurunkan nilai R kuadrat secara drastis, jika memang terdapat multikolinieritas dalam model.
2.        Untuk menghasilkan kombinasi variabel prediktor yang menghasilkan R kuadrat tertinggi, gunakanlah metode regresi stepwise dalam SPSS.
3.        Lakukanlah transformasi data misalnya menjadi bentuk logaritma atau bentuk diferensarialnya. Tansformasi data ke dalam diferensial lebih cocok untuk data time series. Sementara untuk data-data penelitian survei sosial kurang cocok karena akan sulit menginterpretasikan model diferensialnya.
4.        Gunakanlah Principal Component Analysis (PCA). Prinsipnya adalah menyederhanakan atau menggabungkan jumlah variabel prediktor menjadi lebih sedikit jumlah variabel tanpa mereduksi satupun variabel prediktor, namun dengan menjadikannya dalam satu skor. Hasil dari pca adalah skor dari variabel prediktor baru yang memiliki korelasi yang minimum sehinggi efektif untuk mengatasi multikolinieritas.
5.        Gunakanlah Partial Least Square Regression(PLS). Jika kita menggunakan PCA maka bisa dipastikan kita akan mendapatkan variabel prediktor baru yang memiliki korelasi minimum diantara variabel prediktornya. Permasalahan yang mungkin muncul adalah, variabel prediktor baru tersebut bisa saja tidak memiliki hubungan yang signifikan juga dengan variabel respon (Y). Maka kita akan menghadapi permasalahan baru berikutnya yaitu tidak signifikannya model regresi. Jalan tengahnya adalah PLS, dimana secara perhitungan masih mempertimbangkan variabel prediktor yang memiliki hubungan tinggi dengan variabel respon namun mencari kombinasi variabel prediktor yang memiliki nilai korelasi minimum diantara mereka.




















BAB III
PENUTUP
          
1.1    Kesimpulan
1.       Multikolinieritas adalah kondisi terdapatnya hubungan linier atau korelasi yang tinggi antara masing-masing variabel independent dalam model regresi. Multikolinieritas biasanya terjadi ketika sebagian besar variabel yang digunakan salang terkait dalam satu model regresi
2.       Uji t (t rasio) tidak signbifikan, nilai t statistik menjadi lebih kecil sehingga variabel bebas tersebut menjadi tidak signifikan pengaruhnya. pengaruh lebih lanjutnya adalah bahwa koefisien regresi yang dihasilkan tidak mencerminkan nilai yang sebenarnya dimana sebagian koefisien cenderung over estimate dan yang lain under estimate
3.       Walaupun koefisien regresi dari variabel X dapat ditentukan (determinate), tetapi kesalahan standarnya akan cenderung semakin besar dengan meningkatnya tingkat korelasi antara peningkatan variabel bebas.
4.       Karena besarnya kesalahan standar, selang keyakinan untuk parameter populasi yang relevan cenderung untuk lebih besar.
5.       Dalam kasus multikolinearitas yang tinggi, data sampel mungkin sesuai dengan sekelompok hipotesis yang berbeda-beda. Jadi probabilitas untuk menerima hipotesis yang salah akan meningkat.
6.       Selama multikolinearitas tidak sempurna, penaksiran koefisien regresi adalah mungkin tetapi taksiran dan kesalahan standarnya menjadi sangat sensitif terhadap perubahan dalam data.
7.       Jika multikolinearitas tinggi, seseorang mungkin memperoleh R2 yang tinggi, tetapi tidak satu pun atau sangat sedikit koefisien yang ditaksir yang penting secara statistik.


1.2    Saran
1.         Diharapkan dengan mengetahui arti Multikolinieritas
2.         Diharapkan mampu Cara mendeteksi adanya Multikolinearitas di dalam model regresi adalah dengan cara Melihat kekuatan korelasi antar variabel bebas. Jika ada korelasi antar variabel bebas > 0,8 dapat diindikasikan adanya multikolinearitas.
3.         Diharapkan mengathui Cara mengatasi multikolinearitas yakni dengan cara memilih salah satu diantara variabel bebas yang berkorelasi kuat. Oleh karena itu, sebelumnya anda harus mencari variabel yang nilai VIFnya tinggi dan nilai korelasinya dengan variabel bebas lainnya kuat
4.         Cara Menguji dan Mengatasi Multikolinieritas dengan SPSS Untuk menghasilkan kombinasi variabel prediktor yang menghasilkan R kuadrat tertinggi, gunakanlah metode regresi stepwise dalam SPSS











DAFTAR PUSTAKA

A. Rahman Saleh. 2006. Arti Multikolinieritas. Jakarta: Raja grafindo persada.
UUSPN No.20,Th 2003, Tentang Sistem Multikolinieritas, Surabaya: Karina.
Zakiah Darajat. et.al. Ilmu Ekonometrika. Jakarta:Bumi Aksara.
Http://en.wikipedia.org/wiki/Multicollinearity
Http://blog.minitab.com/blog/understanding-statistics/handling-multicollinearity-in-regression-analysis






No comments:

Post a Comment