Rabu, 12 Juli 2017

Regresi Linier Berganda dan Uji Asumsi Klasik


uniba.ac.id


EKONOMETRIKA

Disusun untuk memenuhi tugas Ujian Akhir Semester (UAS)





 



























PEMBIMBING  : Dr. Supawi Pawenang SE, MM.
Di susun oleh:


Wakhid Nurrochman Sudibyo (2014020010)
Nama blog: https://wakhidnurrochman.blogspot.co.id/







JURUSAN EKONOMI MANAJEMEN
UNIVERSITAS ISLAM BATIK SURAKARTA
(UNIBA)
TAHUN 2017



BAB IV
REGRESI LINIER BERGANDA

A.             Pengertian Regresi Linear Berganda
Di dalam regresi linear berganda terdapat 3 (tiga) variabel yaitu satu variabel Y dan jumlah variabel X nya lebih dari 1 (satu) variabel. Artinya, variabel X bisa berjumlah 2, 3, atau lebih. Jumlah X yang lebih dari satu tersebut terkenal dengan istilah Regresi Linier Berganda atau multiple linier regression.
Sebagai misal, munculnya inflasi tentu tidak hanya dipengaruhi oleh bunga deposito (budep) saja seperti yang telah diterangkan di atas, tetapi sangat mungkin dipengaruhi oleh faktor lain seperti perubahan nilai tukar (kurs), jumlah uang beredar, kelangkaan barang, dan lain-lain. Inflasi dapat digolongkan sebagai inflasi karena tarikan permintaan dan inflasi desakan biaya. Inflasi tarikan permintaan terjadi apabila masyarakat banyak memegang uang. Tentu secara singkat dapat diartikan bahwa terdapat jumlah kelebihan jumlah uang beredar yang ada di masyarakat. Selain itu dapat pula disebabkan ekspektasi masyarakat akibat adanya perubahan nilai tukar uang. untuk semakin memperjelas perihal terjadinya inflasi, dapat dicoba menambah satu variabel penduga (X2) yaitu Kurs, yang menggambarkan nilai tukar IDR terhadap USD, pada kurun waktu yang sama dengan data sebelumnya yaitu antara Januari 2001 hingga Oktober
2002. Karena jumlah variabel X tidak lagi satu melainkan sudah dua, maka analisa yang akan digunakan adalah analisa regresi linier berganda.
Perubahan model dari bentuk single ke dalam bentuk multiple mengalami beberapa perubahan, meliputi:
1) jumlah variabel penjelasnya bertambah, sehingga spesifikasi model dan data   terjadi penambahan.
2) rumus penghitungan nilai b mengalami perubahan,
3) jumlah degree of freedom dalam menentukan nilai t juga berubah.
B. Model Regresi Linier Berganda
Penulisan model regresi linier berganda merupakan pengembangan dari model regresi linier tunggal. Perbedaannya hanya terdapat pada jumlah variabel X saja. Dalam regresi linier tunggal hanya satu X, tetapi dalam regresi linier berganda variabel X lebih dari satu. Model regresi linier umumnya dituliskan sebagai berikut:

Populasi: Y = A + B1X1 + B2X2 + B3X3 + ………+ BnXn + e Atau Y = B0 + B1X1 + B2X2 + B3X3 + ………+ BnXn + e
Sampel : Y = a + b1X1 + b 2X2 + b 3X3 + ………+ b nXn + e Atau Y = b0 + b1X1 + b 2X2 + b 3X3 + ………+ bnXn + e
Apabila kita ingin menganalisis pengaruh Budep dan Kurs terhadap Inflasi dengan mengacu model Yale, maka notasi model menjadi seperti berikut:
populasi: Y = B1.23 + B12.3X2i + B13.2X3i + e
Sampel : Y = b1.23 + b12.3X2i + b13.2X3i + e

C.    Penghitungan Nilai Parameter
Secara matematis, fungsi minimalisasi sum of square ditunjukkan dalam rumus:
Untuk mendapatkan estimasi least square b0, b1,b2 minimum, dapat dilakukan melalui cara turunan parsial (partially differentiate) dari formula di atas, sebagai berikut:
Jadikan nilai-nilai turunan parsial di atas menjadi sama dengan 0 (nol), dengan cara membagi dengan angka 2, hingga menjadi:
Untuk menyederhanakan rumus paling atas dilakukan pembagian dengan n, sehingga memperoleh rumus baru sebagai berikut:
maka b1 dan b2 dapat dicari dengan rumus:
Telah dikemukaan di atas bahwa pencarian nilai b pada single linier berbeda dengan multiple linier. Perbedaan ini muncul karena jumlah variabel penjelasnya bertambah. Semakin banyaknya variabel X ini maka kemungkinan-kemungkinan yang menjelaskan model juga mengalami pertambahan.
 Guna mengetahui seberapa besar kontribusi X1 terhadap perubahan Y, tentu perlu untuk melakukan kontrol pengaruh dari X2. Begitu pula, untuk mengetahui kontribusi X2, maka perlu juga melakukan control terhadap X1. Misalnya kita hendak mengontrol pengaruh linier X2 ketika melakukan pengukuran dampak dari perubahan X1 terhadap Y, maka dapat melakukan langkah-langkah sebagai berikut:
Tahap pertama: lakukan regresi Y terhadap X2.
Y = b0 + b2 X2 + e1
Dimana e1 merupakan residual, yang besarnya:
e1 = Y – b0 – b2X2
Y-Yˆ
Tahap kedua: lakukan regresi X1 terhadap X2
X1 = b0 + b2 X2 + e2
Dimana e1 merupakan residual, yang besarnya:
e2 = X1 – b0 – b2X2
X1-Xˆ
Tahap ketiga: lakukan regresi e1 terhadap e2
e1 = a0 + a1e2 +e3

Besarnya a1 pada tahap ketiga inilah yang merupakan nilai pasti atau net effect dari perubahan satu unit X1 terhadap Y, atau menunjukkan kemiringan (slope) garis Y atas variabel X1. Dengan memanfaatkan data yang telah tersedia, kita dapat pula menentukan nilai b1 variabel Budep maupun b2 variabel Kurs.
Nilai b0, b1, dan b2 dapat ditentukan, melalui pencarian menggunakan rumus-rumus sebagai berikut:
Rumus untuk mencari nilai b1 (pada model multiple regression) adalah:
Nilai dari parameter b1 dan b2 merupakan nilai dari suatu sampel. Nilai b1 dan b2 tergantung pada jumlah sampel yang ditarik. Penambahan atau pengurangan akan mengakibatkan perubahan rentangan nilai b. Perubahan rentang nilai b1 dan b2 diukur dengan standar error. Semakin besar standar error mencerminkan nilai b sebagai penduga populasi semakin kurang representatif. Dan sebaliknya. Perbandingan antara nilai b dan standar error ini memunculkan nilai t, yang dapat dirumuskan sebagai berikut:
dimana:
b = nilai parameter
Sb = standar error dari b. Jika b sama dengan 0 (b=0) atau
Sb bernilai sangat besar, maka nilai t akan sama dengan atau mendekati 0 (nol). Untuk dapat melakukan uji t, perlu menghitung besarnya standar error masing-masing parameter ( baik b0, b1, b2), seperti diformulakan Gujarati (1995:198-199) sebagai berikut:
Nilai e adalah standar error yang terdapat dalam persamaan regresi.
Perhatikan persamaan regresi:
Y = b0 + b1X1 + b2 X2 + e
atau
Inflasi = b0 + b1Budep + b2 Kurs + e
Secara matematis, dari persamaan regresi di atas nilai e dapat diperoleh, dengan cara mengubah posisi tanda persamaan hingga menjadi:
eY- (b0 + b1X1 + b2 X2
standar error b0, b1, b2, dapat dicari menggunakan rumus yang ada hingga hasil penghitungannya tertera sebagai berikut:

Setelah diketahui semua nilai standar error (Sb0, Sb1, Sb2) melalui penggunaan rumus-rumus di atas, maka nilai t untuk masing-masing parameter dapat diperoleh, karena nilai t merupakan hasil bagi antara b dengan Sb. Pencarian masing-masing nilai t dapat dirumuskan sebagai berikut:
Untuk dapat mengetahui apakah signifikan atau tidak nilai t hitung tersebut, maka perlu membandingkan dengan nilai t tabel. Apabila nilai t hitung lebih besar dibandingkan dengan nilai t tabel, maka variabel penjelas tersebut signifikan. Sebaliknya, jika nilai t hitung lebih kecil dari tabel, maka variabel penjelas tersebut tidak signifikan. Karena nilai tb=5% dengan df 19 yang besarnya 2,093, maka dapat dipastikan bahwa variabel budep secara individual signifikan mempengaruhi inflasi. Sedangkan nilaia1 adalah sebesar 7,938, yang berarti lebih besar dibanding nilai tabel pada  tb =5% dengan df 19 yang besarnya 2,093, maka dapat dipastikan bahwa variabel Kurs secara individual tidak signifikan mempengaruhi inflasi. Pengujian kedua nilai t dapat dijelaskan dalam bentuk gambar sebagai berikut:a2 yang besarnya 1,284 adalah lebih kecil dibandingkan dengan nilai t table pada
D.    Koefisien Determinasi (R2)
Koefisien determinasi pada dasarnya digunakan untuk mengkur goodness of fit dari persamaan regresi, melalui hasil pengukuran dalam bentuk prosentase yang menjelaskan determinasi variabel penjelas (X) terhadap variabel yang dijelaskan (Y). Koefisien determinasi dapat dicari melalui hasil bagi dari total sum of square (TSS) atau total variasi Y terhadap explained sum of square (ESS) atau variasi yang dijelaskan Y. Dengan demikian kita dapat mendefinisikan lagi R2 dengan arti rasio antara variasi yang dijelaskan Y dengan total variasi Y. Rumus tersebut adalah sebagai berikut:
Total variasi Y (TSS) dapat diukur menggunakan derajat deviasi dari masing-masing observasi nilai Y dari rata-ratanya. Hasil pengukuran ini kemudian dijumlahkan hingga mencakup seluruh observasi. Jadi, rumus di atas dapat pula dituliskan menjadi sebagai berikut:
dimana:
Yˆ (baca: Y cap) adalah nilai perkiraan Y atau estimasi garis regresi.
(baca: Y bar) adalah nilai Y rata-rata.

Hasil hitungan Y cap individual maupun total, beserta ekstensinya diperlukan untuk menyesuaikan dengan rumus mencari R2.




E.     Uji F
Pengujian secara serentak dilakukan dengan teknik analisis of variance(ANOVA) melalui pengujian nilai F hitung yang dibandingkan dengan nilai F tabel. Oleh karena itu disebut pula dengan uji F. Pada prinsipnya, teknik ANOVA digunakan untuk menguji distribusi atau variansi means dalam variabel penjelas apakah secara proporsional telah signifikan menjelaskan variasi dari variabel yang dijelaskan. Untuk memastikan jawabannya, maka perlu dihitung rasio antara variansi means (variance between means) yang dibandingkan dengan variansi di dalam kelompok variabel (variance between group). Hasil pembandingan keduanya itu (rasio antara variance between means terhadapvariance between group) menghasilkan nilai F hitung, yang kemudian dibandingkan dengan nilai F tabel. Jika nilai F hitung lebih besar dibanding nilai F tabel, maka secara serentak seluruh variabel penjelas yang ada dalam model signifikan mempengaruhi variabel terikat Y. Sebaliknya, jika nilai F hitung lebih kecil dibandingkan dengan nilai F tabel, maka tidak secara serentak seluruh variabel penjelas yang ada dalam model signifikan mempengaruhi variabel terikat Y. Atau secara ringkas dapat dituliskan sebagai berikut:
£(1);(n k atau H0àberarti tidak signifikan  à)
diterima
F> F (1);(n k atau H0 ditolakàberarti signifikan à)
H0 diterima atau ditolak, adalah merupakan suatu keputusan jawaban terhadap hipotesis yang terkait dengan uji F, yang biasanya dituliskan dalam kalimat sebagai berikut:
H0 : b1 = b2 = 0 Variabel penjelas secara serentak tidak signifikan mempengaruhi variabel yang
dijelaskan.
0 Variabel penjelas secara serentak signifikan mempengaruhi variabel yang ¹ b2 ¹H0 : b1
dijelaskan.
Karena uji F adalah membandingkan antara nilai F hitung dengan nilai F tabel, maka penting untuk mengetahui bagaimana mencari nilai F hitung ataupun nilai F tabel.
Nilai F hitung dapat dicari dengan menggunakan rumus sebagai berikut:
Tugas:
1.      Rangkuman tersebut diatas
2.      Kesimpulan:
·         Di dalam regresi linear berganda terdapat 3 (tiga) variabel yaitu satu variabel Y dan jumlah variabel X nya lebih dari 1 (satu) variabel. Artinya, variabel X bisa berjumlah 2, 3, atau lebih. Jumlah X yang lebih dari satu tersebut terkenal dengan istilah Regresi Linier Berganda atau multiple linier regression. Model dari regresi linear berganda yaitu sebagai berikut :
Populasi: Y = A + B1X1 + B2X2 + B3X3 + ………+ BnXn + e Atau Y = B0 + B1X1 + B2X2 + B3X3 + ………+ BnXn + e
Sampel : Y = a + b1X1 + b 2X2 + b 3X3 + ………+ b nXn + e Atau Y = b0 + b1X1 + b 2X2 + b 3X3 + ………+ bnXn + e
·         Koefisien determinasi pada dasarnya digunakan untuk mengkurgoodness of fit dari persamaan regresi, melalui hasil pengukuran dalam bentuk prosentase yang menjelaskan determinasi variabel penjelas (X) terhadap variabel yang dijelaskan (Y). Koefisien determinasi dapat dicari melalui hasil bagi dari total sum of square (TSS) atau total variasi Y terhadap explained sum of square (ESS) atau variasi yang dijelaskan Y. Dengan rumus sbb :
 
·         Pengujian secara (Uji F) serentak dilakukan dengan teknik analisis of variance (ANOVA) melalui pengujian nilai F hitung yang dibandingkan dengan nilai F tabel. Oleh karena itu disebut pula dengan uji F. Pada prinsipnya, teknik ANOVA digunakan untuk menguji distribusi atau variansi means dalam variabel penjelas apakah secara proporsional telah signifikan menjelaskan variasi dari variabel yang dijelaskan
3.             a. Regresi linear berganda adalah  hubungan secara linear antara dua atau lebih variabel independen (X1, X2,….Xn) dengan variabel dependen (Y). Analisis ini untuk mengetahui arah hubungan antara variabel independen dengan variabel dependen apakah masing-masing variabel independen berhubungan positif atau negatif dan untuk memprediksi nilai dari variabel dependen apabila nilai variabel independen mengalami kenaikan atau penurunan. Data yang digunakan biasanya berskala interval atau rasio.
b. Model dari regresi linear berganda yaitu sebagai berikut :
Populasi: Y = A + B1X1 + B2X2 + B3X3 + ………+ BnXn + e Atau Y = B0 + B1X1 + B2X2 + B3X3 + ………+ BnXn + e
Sampel : Y = a + b1X1 + b 2X2 + b 3X3 + ………+ b nXn + e Atau Y = b0 + b1X1 + b 2X2 + b 3X3 + ………+ bnXn + e
c.  Y’                  =   Variabel dependen (nilai yang diprediksikan)
X1 dan X2     =   Variabel independen
a                    =   Konstanta (nilai Y’ apabila X1, X2…..Xn = 0)
b                    =    Koefisien regresi (nilai peningkatan ataupun penurunan)
d. Konstanta menunjukkan titik potong regresi pada sumbu Y. Konstanta bertanda + (positif) titik potongnya berada di sebelah atas titik origin (0), sedangkan konstanta yang bertanda – (negatif) titik potongnya di sebelah bawah titik origin.
e. *Pada single linier regression terdapat dua variabel  yaitu (variabel X dan Y), sedangkan multiple linier regression satu variabel Y dan variabel X nya lebih dari satu variabel
*Pencarian nilai b pada single linier berbeda dengan multiple linier. Dalamsingle linier kemungkinan perubahan variabel lain tidak terjadi tetapi dalam multiple linier terjadi perubahan
*Pencarian nilai t mempunyai kesamaan dengan model regresi linier sederhana, hanya saja pencarian Sb nya yang berbeda
f. Analisis regresi linear sederhana hanya melibatkan dua variabel saja yaitu satu variabel dependen atau variabel tergantung dan satu variabel independen atau variabel bebas. Sedangkan, analisis linear berganda melibatkan lebih dari dua variabel independen atau bebas.
g. Rumus untuk mencari nilai b pada model regresi linier berganda berbeda dengan model regresi linier sederhana, Karena jumlah variabel penjelasnya bertambah. Semakin banyaknya variabel X maka kemungkinan-kemungkinan menjelaskan model juga mengalami pertambahan. Dalam single linier kemungkinan perubahan variabel lain tidak terjadi, tetapi dalam multiple linier hal itu terjadi. Misalnya, Jika terjadi perubahan pada X1, meskipun X2 konstan, akan mampu merubah nilai harapan dari Y. Begitu pula, perubahan pada X2, meskipun X1 konstan, akan mampu merubah nilai harapan dari Y. Perubahan yang terjadi pada X1 atau X2 tentu mengakibatkan perubahan nilai harapan Y atau E(Y/X1,X2) yang berbeda.
h. Pencarian nilai t tidak mengalami perubahan karena karena nilai t merupakan hasil bagi antara b dengan Sb.
i. Derajat signifikansi yang digunakan adalah 0,05. Apabila nilai signifikan lebih kecil dari derajat kepercayaan maka kita menerima hipotesis alternatif, yang menyatakan bahwa suatu variabel independen secara parsial mempengaruhi variabel dependen.
j. Untuk mengetahui apakah variabel-variabel independen secara simultan berpengaruh signifikan terhadap variabel dependen.
k. Apabila nilai F hasil perhitungan lebih besar daripada nilai F menurut tabel maka hipotesis alternatif, yang menyatakan bahwa semua variabel independen secara simultan berpengaruh signifikan terhadap variabel dependen.
l.  rumus dalam mencari koefisien determinasi pada model regresi linier berganda berbeda dengan regresi linier sederhana karena pada regresi linier sederhana R2  mengukur seberapa jauh kemampuan model dalam menerangkan variasi variabel terikat, besarnya nilai koefisien determinasi adalah di antara nol dan satu (0<R2<1). Sedangkan regresi linier berganda R2 digunakan untuk mengukur goodness of fit dari persamaan regresi melalui hasil pengukuran dalam bentuk prosentase yang menjelaskan determinasi variabel penjelas (X) terhadap variabel yang dijelaskan (Y). Koefisien determinasi dapat dicari melalui hasil bagi dari total sum of square (TSS) atau total variasi Y terhadap explained sum of square (ESS) atau variasi yang dijelaskan Y. Dengan demikian kita dapat mendefinisikan lagi R2 dengan arti rasio antara variasi yang dijelaskan Y dengan total variasi Y.
m. variabel penjelas dapat dianggap sebagai prediktor terbaik dalam menjelaskan Y sebagai berikut : Koefisien determinasi pada dasarnya digunakan untuk mengkur goodness of fit dari persamaan regresi, melalui hasil pengukuran dalam bentuk prosentase yang menjelaskan determinasi variabel penjelas (X) terhadap variabel yang dijelaskan (Y). Koefisien determinasi dapat dicari melalui hasil bagi dari total sum of square (TSS) atau total variasi Y terhadap explained sum of square (ESS) atau variasi yang dijelaskan Y. Dengan demikian kita dapat mendefinisikan lagi R2 dengan arti rasio antara variasi yang dijelaskan Y dengan total variasi Y. Total variasi Y (TSS) dapat diukur menggunakan derajat deviasi dari masing-masing observasi nilai Y dari rata-ratanya. Hasil pengukuran ini kemudian dijumlahkan hingga mencakup seluruh observasi.




BAB V
UJI ASUMSI KLASIK

Tidak semua data dapat diperlakukan dengan regresi. Jika data yang diregresi tidak memenuhi asumsi-asumsi yang telah disebutkan, maka regresi yang diterapkan akan menghasilkan estimasi yang bias. Jika hasil regresi telah memenuhi asumsi-asumsi regresi maka nilai estimasi yang diperoleh akan bersifat BLUE, yang merupakan singkatan dari:Best, Linear, Unbiased, Estimator.
Hasil regresi dikatakan Best apabila garis regresi yang dihasilkan guna melakukan estimasi atau peramalan dari sebaran data, menghasilkan error yang terkecil. Perlu diketahui bahwa error itu sendiri adalah perbedaan antara nilai observasi dan nilai yang diramalkan oleh garis regresi. Jika garis regresi telah Best dan disertai pula oleh kondisi tidak bias (unbiased), maka estimator regresi akan efisien. Linear mewakili linear dalam model, maupun linear dalam parameter. Linear dalam model artinya model yang digunakan dalam analisis regresi telah sesuai dengan kaidah model OLS dimana variabel-variabel penduganya hanya berpangkat satu. Sedangkan linear dalam parameter menjelaskan bahwa parameter yang dihasilkan merupakan fungsi linear dari sampel. Secara jelas bila diukur dengan nilai rata-rata. Unbiased atau tidak bias, Suatu estimator dikatakan unbiased jika nilai harapan dari estimator b sama dengan nilai yang benar dari b. Artinya, nilai rata-rata b = b. Bila rata-rata b tidak sama dengan b, maka selisihnya itu disebut dengan bias. Estimator yang efisien dapat ditemukan apabila ketiga kondisi di atas telah tercapai. Karena sifat estimator yang efisien merupakan hasil konklusi dari ketiga hal sebelumnya itu.
     Asumsi-asumsi seperti yang telah dituliskan dalam bahasan OLS di depan, adalah asumsi yang dikembangkan oleh Gauss dan Markov, yang kemudian teori tersebut terkenal dengan sebutan Gauss-Markov Theorem. Serupa dengan asumsi-asumsi tersebut, Gujarati (1995) merinci 10 asumsi yang menjadi syarat penerapan OLS,yaitu:

·         Asumsi 1: Linear regression Model. Model regresi merupakan hubungan linear dalam parameter. Y = a + bX +e Untuk model regresi Y = a + bX + cX2 + e .Walaupun variabel X dikuadratkan, ini tetap merupakan regresi yang linear dalam parameter sehingga OLS masih dapat diterapkan.
·         Asumsi 2: Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in repeated sampling).
·         Asumsi 3: Variabel pengganggu e memiliki rata-rata nol (zero mean of disturbance). Artinya, garis regresi pada nilai X tertentu berada tepat di tengah. Bisa saja terdapat error yang berada di atas garis regresi atau di bawah garis regresi, tetapi setelah keduanya dirata-rata harus bernilai nol.
·         Asumsi 4: Homoskedastisitas, atau variabel pengganggu e memilikivariance yang sama sepanjang observasi dari berbagai nilai X. Ini berarti data Y pada setiap X memiliki rentangan yang sama. Jika rentangannya tidak sama, maka disebut heteroskedastisitas.
·         Asumsi 5: Tidak ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No autocorrelation between the disturbance).
·         Asumsi 6: Variabel X dan disturbance e tidak berkorelasi. Ini berarti kita dapat memisahkan pengaruh X atas Y dan pengaruh e atas Y. Jika X dan e berkorelasi maka pengaruh keduanya akan tumpang tindih (suli dipisahkan pengaruh masing-masing atas Y). Asumsi ini pasti
terpenuhi jika X adalah variabel non random atau non stochastic.
·         Asumsi 7: Jumlah observasi atau besar sampel (n) harus lebih besar dari jumlah parameter yang diestimasi. Bahkan untuk memenuhi asumsi yang lain, sebaiknya jumlah n harus cukup besar. Jika jumlah parameter sama atau bahkan lebih besar dari jumlah observasi, maka persamaan regresi tidak akan bisa diestimasi.
·         Asumsi 8: Variabel X harus memiliki variabilitas. Jika nilai X selalu sama sepanjang observasi maka tidak bisa dilakukan regresi.
·         Asumsi 9: Model regresi secara benar telah terspesifikasi. Artinya, tidak ada spesifikasi yang bias, karena semuanya telah terekomendasi atau sesuai dengan teori.
·         Asumsi 10. Tidak ada multikolinearitas antara variabel penjelas. Jelasnya kolinear antara variabel penjelas tidak boleh sempurna atau tinggi.
Penyimpangan masing-masing asumsi tidak mempunyai impak yang sama terhadap regresi. Sebagai contoh, adanya penyimpangan atau tidak terpenuhinya asumsi multikolinearitas (asumsi 10) tidak berarti mengganggu, sepanjang uji t sudah signifikan. Hal ini disebabkan oleh membesarnya standar error pada kasus multikolinearitas, sehingga nilai t, b, Sb, menjadi cenderung kecil. Jika nilai t masih signifikan, maka multikolinearitas tidak perlu diatasi. Akan tetapi, jika terjadi penyimpangan pada asumsi heteroskedastisitas atau pada autokorelasi, penyimpangan tersebut dapat menyebabkan bias pada Sb, sehingga t menjadi tidak menentu.
Secara teoretis model OLS akan menghasilkan estimasi nilai parameter model penduga yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak AdaMultikolinearitas, dan Tidak ada Heteroskedastisitas. Apabila seluruh asumsi klasik tersebut telah terpenuhi maka akan menghasilkan hasil regresi yang best, linear, unbias, efficient of estimation (BLUE).

A. Uji Autokorelasi
A.1. Pengertian autokorelasi
Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data yang diteliti, baik itu data jenis runtut waktu (time series) ataupun data kerat silang (cross section). Hanya saja masalah autokorelasi lebih sering muncul pada data time series, karena sifat data time series ini sendiri lekat dengan kontinyuitas dan adanya sifat ketergantungan antar dataSementara pada data cross section hal itu kecil kemungkinan terjadi.
Autokorelasi akan muncul apabila ada ketergantungan atau adanya kesalahan pengganggu yang secara otomatis mempengaruhi data berikutnya. Jika terdapat ketergantungan, dalam bahasa matematisnya dituliskan sebagai berikut:
E(ui, uj) 0; i j
Sebaliknya, jika tidak terdapat ketergantungan atau tidak adanya kesalahan pengganggu yang secara otomatis mempengaruhi data berikutnya maka masalah autokorelasi tidak akan muncul. Hal seperti itu dalam bahasa matematisnya dituliskan sebagai berikut:
E(ui, uj) = 0; i  j

A.2. Sebab-sebab Autokorelasi
Berikut beberapa sebab-sebab autokorelasi:
1.      Kesalahan dalam pembentukan model
2.      Tidak memasukkan variabel yang penting. Variabel penting yang dimaksudkan di sini adalah variabel yang diperkirakan signifikan mempengaruhi variabel Y.
3.    Manipulasi data. Misalnya dalam penelitian kita ingin menggunakan data bulanan, namun data tersebut tidak tersedia.
4.    Menggunakan data yang tidak empiris. Jika data semacam ini digunakan, terkesan bahwa data tersebut tidak didukung oleh realita.

A.3. Akibat Autokorelasi
Uraian-uraian di atas mungkin saja mengajak kita untuk bertanya tentang apa dampak dari autokorelasi yang timbul. Pertanyaan seperti ini tentu saja merupakan sesuatu yang wajar, karena kita tentu mempunyai pilihan apakah mengabaikan adanya autokorelasi ataukah akan mengeliminasinya. Meskipun ada autokorelasi, nilai parameter estimator (b1, b2,…,bn) model regresi tetap linear dan tidak bias dalam memprediksi B (parameter sebenarnya). Akan tetapi nilai variance tidak minimum dan standard error(Sb1, Sb2) akan bias. Akibatnya adalah nilai t hitung akan menjadi bias pula, karena nilai t diperoleh dari hasil bagi Sb terhadap b (t = b/sb). Berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti (misleading).
A.4. Pengujian Autokorelasi
Terdapat beberapa cara untuk mendeteksi ada tidaknya autokorelasi, antara lain melalui:
1.        Uji Durbin-Watson (DW Test).
Digunakan untuk mendeteksi adanya serial korelasi dikembangkan oleh ahli statistik (statisticians) Durbin dan Watson. Formula yang digunakan untuk mendeteksi terkenal pula dengan sebutan Durbin- Watson d statistic, yang dituliskan sebagai berikut:
DW < dL = terdapat atokorelasi positif
dL< DW <dU = tidak dapat disimpulkan (inconclusive)
dU > DW >4-dU = tidak terdapat autokorelasi
4-dU < DW <4-dL = tidak dapat disimpulkan (inconclusive)
DW > 4-dL = terdapat autokorelasi negative

Dimana
DW = Nilai Durbin-Watson d statistik
dU = Nilai batas atas (didapat dari tabel)
dL = Nilai batas bawah (didapat dari tabel)
Ketentuan-ketentuan daerah hipotesis pengujian DW dapat diwujudkan dalam bentuk gambar sebagai berikut:
2. Menggunakan metode LaGrange Multiplier (LM).
LM sendiri merupakan teknik regresi yang memasukkan variabel lag. Sehingga terdapat variabel tambahan yang dimasukkan dalam model. Variabel tambahan tersebut adalah data Lag dari variabel dependen. Dengan demikian model dalam LM menjadi sebagai berikut:
Y = β0 + β 1X1+ β 2 X2 + β 3 Yt-1+ β 4 Yt-2 + e
Variabel Yt-1 merupakan variabel lag 1 dari Y.
Variabel Yt-2 merupakan variabel lag 2 dari Y.

B. Uji Normalitas
Tujuan dilakukannya uji normalitas adalah untuk menguji apakah variabel penganggu (e) memiliki distribusi normal atau tidak. Pengujian normalitas data dapat dilakukan sebelum ataupun setelah tahapan analisis regresi. Hanya saja pengalaman menunjukkan bahwa pengujian normalitas yang dilakukan sebelum tahapan regresi lebih efisien dalam waktu. Sangat beralasan kiranya, karena jika asumsi normalitas data telah dipenuhi terlebih dulu, maka dampak yang mungkin akan ditimbulkan dari adanya ketidaknormalan data seperti bias pada nilai t hitung dan nilai F hitung dapat dihindari. Sebaliknya, bila dilakukan analisis regresi terlebih dulu, dimana nilai t dan F baru diketahui, yang kemudian baru dilakukan normalitas data, sedangkan ternyata hasilnya tidak normal maka analisis regresi harus diulang lagi. Pengujian normalitas ini berdampak pada nilai t dan F karena pengujian terhadap keduanya diturunkan dari asumsi bahwa data Y atau e berdistribusi normal. Beberapa cara dapat dilakukan untuk melakukan uji normalitas, antara lain:
1) Menggunakan metode numerik yang membandingkan nilai statistik, yaitu antara nilai median dengan nilai mean. Data dikatakan normal (simetris) jika perbandingan antara mean dan median menghasilkan nilai yang kurang lebih sama. Atau apabila nilai mean jika dikurangi nilai median menghasilkan angka nol. Cara ini disebut ukuran tendensi sentral (Kuncoro, 2001: 41).
2) Menggunakan formula Jarque Bera (JB test), yang rumusnya tertera sebagai berikut:
3) Mengamati sebaran data, dengan melakukan hitungan-hitungan berapa prosentase data observasi dan berada di area mana. Untuk menentukan posisi normal dari sebaran data, langkah awal yang dilakukan adalah menghitung standar deviasi. Standar deviasi dapat dicari melalui rumus sebagai berikut:
Data yang tidak normal juga dapat dibedakan dari tingkat kemencengannya (skewness). Jika data cenderung menceng ke kiri disebut positif skewness, dan jika data cenderung menceng ke kanan disebut negatif skewness. Data dikatakan normal jika datanya simetris. Lihat gambar berikut:

C. Uji Heteroskedastisitas
C.1. Pengertian Heteroskedastisitas
Heteroskedastisitas muncul apabila kesalahan atau residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke observasi lainnya (Kuncoro, 2001: 112). Masalah heteroskedastisitas lebih sering muncul dalam data cross section dari pada data time series (Kuncoro, 2001: 112; Setiaji, 2004: 17). Karena dalamdata cross section menunjukkan obyek yang berbeda dan waktu yang berbeda pula. Antara obyek satu dengan yang lainnya tidak ada saling keterkaitan, begitu pula dalam hal waktu. Sedangkan data time series, antara observasi satu dengan yang lainnya saling mempunyai kaitan. Ada trend yang cenderung sama. Sehingga variance residualnya juga cenderung sama.
C.2. Konsekuensi Heteroskedastisitas
Analisis regresi menganggap kesalahan (error) bersifat homoskedastis, yaitu asumsi bahwa residu atau deviasi dari garis yang paling tepat muncul serta random sesuai dengan besarnya variabel-variabel independen (Arsyad, 1994:198). Asumsi regresi linier yang berupa
variance residual yang sama, menunjukkan bahwa standar error (Sb) masing-masing observasi tidak mengalami perubahan, sehingga Sb nya tidak bias. Jika nilai Sb mengecil, maka nilai t cenderung membesar. Hal ini akan berakibat bahwa nilai t mungkin mestinya tidak signifikan, tetapi karena Sb nya bias, maka t menjadi signifikan. Sebaliknya, jika Sb membesar, maka nilai t akan mengecil. Nilai t yang seharusnya signifikan, bisa jadi ditunjukkan menjadi tidak signifikan. Ketidakmenentuan dari Sb ini dapat menjadikan hasil riset yang mengacaukan.
C.3. Pendeteksian Heteroskedastisitas
Untuk mendeteksi ada tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti uji grafik, uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji Whyte menggunakan Lagrange Multiplier (Setiaji, 2004: 18) Pengujian heteroskedastisitas menggunakan uji grafik, dapat dilakukan dengan membandingkan sebaran Ditunjukkan pula oleh Gozali, 2001. Antara nilai prediksi variabel terikat dengan residualnya, yang output pendeteksiannya akan tertera berupa sebaran data pada scatter plot. Dengan menggunakan alat bantu komputer teknik ini sering dipilih, karena alasan kemudahan dan kesederhanaan cara pengujian, juga tetap mempertimbangkan valid dan tidaknya hasil pengujian. Pengujian heteroskedastisitas menggunakan uji Arch, dilakukan dengan cara melakukan regresi atas residual, dengan model yang dapat dituliskan e2  + bYˆ 2 + . Dari hasil regresi tersebut dihitung nilai R2. Nilai R2 tadi dikalikan dengan jumlah sampel (R2 x N). Hasil perkalian ini kemudian dibandingkan dengan nilai chi-square (X2) pada derajat kesalahan tertentu. Dengan df=1 (ingat, karena hanya memiliki satu variabel bebas). Jika R2 x N lebih besar dari chi-square (X2) tabel, maka standar error mengalami heteroskedastisitas. Sebaliknya, jika R2 x N lebih kecil dari chi-square (X2) tabel, maka standar error telah bebas dari masalah heteroskedastisitas, atau telah homoskedastis.

D. Uji Multikolinieritas
D.1. Pengertian Multikolinearitas
Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang ”perfect” atau eksak di antara variabel penjelas yang dimasukkan ke dalam model. Tingkat kekuatan hubungan antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna.
D.2. Konsekuensi Multikolinearitas
Pengujian multikolinearitas merupakan tahapan penting yang harus dilakukan dalam suatu penelitian, karena apabila belum terbebas dari masalah multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilai standar error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian nilainya, sehingga akan berpengaruh pula terhadap nilai t (Setiaji, 2004: 26). Logikanya adalah seperti ini, jika antara X1 dan X2 terjadi kolinearitas sempurna sehingga data menunjukkan bahwa X1=2X2, maka nilai b1 dan b2 akan tidak dapat ditentukan hasilnya, karena dari formula OLS sebagaimana dibahas terdahulu,
D.3. Pendeteksian Multikolinearitas
Terdapat beragam cara untuk menguji multikolinearitas, di antaranya: menganalisis matrix korelasi dengan Pearson Correlation atau dengan Spearman’s Rho Correlation, melakukan regresi partial dengan teknik auxilary regression, atau dapat pula dilakukan dengan mengamati nilai variance inflation factor (VIF). Cara mendeteksi ada tidaknya
multikolinieritas dengan menghitung nilai korelasi antar variabel dengan menggunakanSpearman’s Rho Correlation dapat dilakukan apabila data dengan skala ordinal (Kuncoro, 2001: 114). Sementara untuk data interval atau nominal dapat dilakukan dengan PearsonCorrelation. Selain itu metode ini lebih mudah dan lebih sederhana tetapi tetap memenuhi syarat untuk dilakukan. Pengujian multikolinearitas menggunakan angka korelasi dimaksudkan untuk menentukan ada tidaknya multikolinearitas. Mengacu pendapat Pindyk dan Rubinfeld22, yang mengatakan bahwa apabila korelasi antara dua variabel bebas lebih tinggi dibanding korelasi
salah satu atau kedua variabel bebas tersebut dengan variabel terikat. Juga pendapat Gujarati (1995:335) yang mengatakan bahwa bila korelasi antara dua variabel bebas melebihi 0,8 maka multikolinearitas menjadi masalah yang serius. Gujarati juga menambahkan bahwa, apabila korelasi antara variabel penjelas tidak lebih besar dibanding korelasi variabel terikat dengan masing-masing variabel penjelas, maka dapat dikatakan tidak terdapat masalah yang serius. Dengan demikian, dapat disimpulkan bahwa apabila angka korelasi lebih kecil dari 0,8 maka dapat dikatakan telah terbebas dari masalah multikolinearitas. Dalam kaitan adanya kolinear yang tinggi sehingga menimbulkan tidak terpenuhinya asumsi terbebas dari masalah multikolinearitas, dengan mempertimbangkan sifat data dari cross section, maka bila tujuan persamaan hanya sekedar untuk keperluan prediksi, hasil regresi dapat ditolerir, sepanjang nilai t signifikan.

Tugas:
1.      Rangkuman seperti tersebut diatas
2.      Kesimpulan :
·         Di dalam asumsi klasik tidak semua data dapat diperlakukan dengan regresi. Jika data yang diregresi tidak memenuhi asumsi-asumsi yang telah disebutkan, maka regresi yang diterapkan akan menghasilkan estimasi yang bias. Jika hasil regresi telah memenuhi asumsi-asumsi regresi maka nilai estimasi yang diperoleh akan bersifat BLUE, yang merupakan singkatan dari: Best, Linear, Unbiased, Estimator.
·         Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data yang diteliti, baik itu data jenis runtut waktu (time series) ataupun data kerat silang (cross section). Hanya saja masalah autokorelasi lebih sering muncul pada data time series, karena sifat data time series ini sendiri lekat dengan kontinyuitas dan adanya sifat ketergantungan antar dataSementara pada data cross section hal itu kecil kemungkinan terjadi. Autokorelasi akan muncul apabila ada ketergantungan atau adanya kesalahan pengganggu yang secara otomatis mempengaruhi data berikutnya.
·         Tujuan dilakukannya uji normalitas adalah untuk menguji apakah variabel penganggu (e) memiliki distribusi normal atau tidak. Pengujian normalitas data dapat dilakukan sebelum ataupun setelah tahapan analisis regresi. Hanya saja pengalaman menunjukkan bahwa pengujian normalitas yang dilakukan sebelum tahapan regresi lebih efisien dalam waktu.
·         Heteroskedastisitas muncul apabila kesalahan atau residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke observasi lainnya (Kuncoro, 2001: 112). Masalah heteroskedastisitas lebih sering muncul dalam data cross section dari pada data time series(Kuncoro, 2001: 112; Setiaji, 2004: 17). Karena dalam data cross section menunjukkan obyek yang berbeda dan waktu yang berbeda pula. Antara obyek satu dengan yang lainnya tidak ada saling keterkaitan, begitu pula dalam hal waktu. Sedangkan data time series, antara observasi satu dengan yang lainnya saling mempunyai kaitan. Ada trend yang cenderung sama. Sehingga variance residualnya juga cenderung sama.
·         Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang ”perfect” atau eksak di antara variabel penjelas yang dimasukkan ke dalam model. Tingkat kekuatan hubungan antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna.
3.      a) asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis regresi linear berganda yang berbasis ordinary least square (OLS). Jadi analisis regresi yang tidak berdasarkan OLS tidak memerlukan persyaratan asumsi klasik, misalnya regresi logistik atau regresi ordinal.
 b) asumsi-asumsi yang ditetapkan :
·         Asumsi 1: Linear regression Model. Model regresi merupakan hubungan linear dalam parameter. Y = a + bX +e Untuk model regresi Y = a + bX + cX2 + e .Walaupun variabel X dikuadratkan, ini tetap merupakan regresi yang linear dalam parameter sehingga OLS masih dapat diterapkan.
·         Asumsi 2: Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in repeated sampling).
·         Asumsi 3: Variabel pengganggu e memiliki rata-rata nol (zero mean of disturbance). Artinya, garis regresi pada nilai X tertentu berada tepat di tengah. Bisa saja terdapat error yang berada di atas garis regresi atau di bawah garis regresi, tetapi setelah keduanya dirata-rata harus bernilai nol.
·         Asumsi 4: Homoskedastisitas, atau variabel pengganggu e memilikivariance yang sama sepanjang observasi dari berbagai nilai X. Ini berarti data Y pada setiap X memiliki rentangan yang sama. Jika rentangannya tidak sama, maka disebut heteroskedastisitas.
·         Asumsi 5: Tidak ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No autocorrelation between the disturbance).
·         Asumsi 6: Variabel X dan disturbance e tidak berkorelasi. Ini berarti kita dapat memisahkan pengaruh X atas Y dan pengaruh e atas Y. Jika X dan e berkorelasi maka pengaruh keduanya akan tumpang tindih (suli dipisahkan pengaruh masing-masing atas Y). Asumsi ini pasti
terpenuhi jika X adalah variabel non random atau non stochastic.
·         Asumsi 7: Jumlah observasi atau besar sampel (n) harus lebih besar dari jumlah parameter yang diestimasi. Bahkan untuk memenuhi asumsi yang lain, sebaiknya jumlah n harus cukup besar. Jika jumlah parameter sama atau bahkan lebih besar dari jumlah observasi, maka persamaan regresi tidak akan bisa diestimasi.
·         Asumsi 8: Variabel X harus memiliki variabilitas. Jika nilai X selalu sama sepanjang observasi maka tidak bisa dilakukan regresi.
·         Asumsi 9: Model regresi secara benar telah terspesifikasi. Artinya, tidak ada spesifikasi yang bias, karena semuanya telah terekomendasi atau sesuai dengan teori.
·         Asumsi 10. Tidak ada multikolinearitas antara variabel penjelas. Jelasnya kolinear antara variabel penjelas tidak boleh sempurna atau tinggi.
c) Tidak semua asumsi perlu lakukan pengujian karena Karena tidak semua data dapat diperlakukan dengan regresi. Jika data yang diregresi tidak memenuhi asumsiasumsi yang telah disebutkan, maka regresi yang diterapkan akan menghasilkan estimasi yang bias. Jika hasil regresi telah memenuhi asumsi-asumsi regresi maka nilai estimasi yang diperoleh akan bersifat BLUE, yang merupakan singkatan dari: Best, Linear, Unbiased, Estimator.
d) Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data yang diteliti, baik itu data jenis runtut waktu (time series) ataupun data kerat silang (cross section). Hanya saja masalah autokorelasi lebih sering muncul pada data time series, karena sifat data time series ini sendiri lekat dengan kontinyuitas dan adanya sifat ketergantungan antar dataSementara pada data cross section hal itu kecil kemungkinan terjadi. Autokorelasi akan muncul apabila ada ketergantungan atau adanya kesalahan pengganggu yang secara otomatis mempengaruhi data berikutnya.
e) Autokorelasi timbul sebab:
1. Kesalahan dalam pembentukan model. model yang digunakan untuk menganalisis regresi tidak didukung oleh teori-teori yang relevan dan mendukung. 2. Tidak memasukkan variabel yang penting, yaitu variabel yang diperkirakan signifikan mempengaruhi variabel Y.
3. Manipulasi data. Tidak sesuai dengan data yang sebenarnya.
4. Menggunakan data yang tidak empiris. Jika data yang digunakan tersebut tidak didukung oleh realita.
f) Cara mendeteksi masalah autokorelasi :
1. Uji Durbin – Watson (DW Test), digunakan untuk mendeteksi adanya serial korelasi.
2. Menggunakan metode LaGrange Multiplier (LM), teknik regresi yang memasukan variabel lag sehingga terdapat variabel tambahan (data lag dari variabel dependen) yang dimasukkan dalam model. Sebagai kunci untuk mengetahui berapa autokorelasi muncul dilihat dari signifikan tidaknya variabel lag tersebut.
g) Konsekuensi dari adanya masalah autokorelasi dalam model yaitu sbb: nilai t hitung akan menjadi bias pula, karena nilai t diperoleh dari hasil bagi Sb terhadap b (t = b/sb). Berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti (misleading).
h) Heteroskedastisitas adalah Uji heteroskedastisitas digunakan untuk mengetahui ada atau tidaknya penyimpangan asumsi klasik heteroskedastisitas yaitu adanya ketidaksamaan varian dari residual untuk semua pengamatan pada model regresi. Heteroskedastisitas merupakan salah satu faktor yang menyebabkan model regresi linier sederhana tidak efisien dan akurat, juga mengakibatkan penggunaan metode kemungkinan maksimum dalam mengestimasi parameter (koefisien) regresi akan terganggu.
i) Heteroskedastisitas timbul karena kesalahan atau residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke observasi lainnya.
j) Pengujian heteroskedastisitas menggunakan uji grafik dengan membandingkan sebaran antara nilai prediksi variabel terikat dengan residualnya yang output pendeteksiannya akan tertera berupa sebaran data pada scatter plot. Pengujian heteroskedastisitas menggunakan uji Arch dengan melakukan regresi atas residual dengan model e2 = a + bŶ2 + u. Jika R2 x N lebi besar dari chi-squaretabel maka standar error mengalami heteroskedastisitas, jika R2 x N lebih kecil dari chi-square tabel maka standar error bebas dari masalah heteroskedastisitas / homoskedastis.
k) Konsekuensi dari adanya masalah heteroskedastisitas dalam model adalah Analisis regresi menganggap kesalahan (error) bersifat homoskedastis, yaitu asumsi bahwa residu atau deviasi dari garis yang paling tepat muncul serta random sesuai dengan besarnya variabel-variabel independen (Arsyad, 1994:198). Asumsi regresi linier yang berupa variance residual yang sama, menunjukkan bahwa standar error (Sb) masing-masing observasi tidak mengalami perubahan, sehingga Sb nya tidak bias. Jika nilai Sb mengecil, maka nilai t cenderung membesar. Hal ini akan berakibat bahwa nilai t mungkin mestinya tidak signifikan, tetapi karena Sb nya bias, maka t menjadi signifikan. Sebaliknya, jika Sb membesar, maka nilai t akan mengecil. Nilai t yang seharusnya signifikan, bisa jadi ditunjukkan menjadi tidak signifikan. Ketidakmenentuan dari Sb ini dapat menjadikan hasil riset yang mengacaukan.
l)  Multikolinearitas adalah suatu keadaan dimana terjadi korelasi linear yang ”perfect” atau eksak di antara variabel penjelas yang dimasukkan ke dalam model. Tingkat kekuatan hubungan antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna.
m) Multikolinearitas timbul karena variabel penjelas memiliki banyak sifat-sifat yang sama dan serupa sehingga hamper tidak dapat lagi dibedakan tingkat pengaruhnya terhadap Y, maka tingkat kolinearnya dapat dikatakan serius, atau perfect, atau sempurna. Sedangkan Tidak berklinear jika antara variabel penjelas tidak mempunyai sama sekali kesamaan.
n) Cara mendeteksi masalah multikolinearitas yaitu dengan menganalisis matrix korelasi dengan Pearson Correlation atau dengan Spearman’s Rho Correlation, melakukan regresi partial dengan teknik auxilary regression, atau dapat pula dilakukan dengan mengamati nilai variance inflation factor (VIF). Cara mendeteksi ada tidaknya multikolinieritas dengan menghitung nilai korelasi antar variabel dengan menggunakan Spearman’s Rho Correlation dapat dilakukan apabila data dengan skala ordinal.
o)  Konsekuensi dari adanya masalah multikolinearitas dalam model yaitu Apabila belum terbebas dari masalah multikolinieritas menyebabkan nilai koefisienstandar errornya (Sb) cenderung bias. artinya tidak dapat ditentukan kepastian nilainya sehingga berpengaruh terhadap nilai t.
p) Normalitas adalah Sebuah uji yang dilakukan dengan tujuan untuk menilai sebaran data pada sebuah kelompok data atau variabel apakah sebaran data tersebut berdistribusi normal ataukah tidak.
q) Normalitas timbul karena ditimbulkan dari adanya ketidaknormalan data seperti bias pada nilai t hitung dan nilai F hitung dapat dihindari. Sebaliknya, bila dilakukan analisis regresi terlebih dulu, dimana nilai t dan F baru diketahui, yang kemudian baru dilakukan normalitas data, sedangkan ternyata hasilnya tidak normal maka analisis regresi harus diulang lagi. karena pengujian terhadap keduanya diturunkan dari asumsi bahwa data Y atau e berdistribusi normal. nilai t dan F diturunkan dari asumsi bahwa data Y atau e berdistribusi normal.
r)  Cara mendeteksi masalah normalitas yaitu sbb:
·         Menggunakan metode numerik yang membandingkan nilai statistik, antara nilai   median dengan nilai mean
·         Menggunakana formula Jarque Bera (JB test)
·         Mengamati sebaran data dengan melakukan hitungan-hitungan berapa prosentase data observasi dan berada diarea mana.
s)  Konsekuensi dari adanya masalah normalitas dalam model yaitu Pengujian normalitas ini berdampak pada nilai t dan F karena pengujian terhadap keduanya diturunkan dari asumsi bahwa data Y atau e berdistribusi normal.

t)  Cara menangani jika data ternyata tidak normal adalah diperlukan upaya untuk mengatasi seperti: memotong data yang out liers, memperbesar sampel, atau melakukan transformasi data.


Tidak ada komentar:

Posting Komentar