uniba.ac.id
EKONOMETRIKA
Disusun untuk memenuhi tugas Ujian Akhir Semester (UAS)
![]() |
PEMBIMBING
: Dr. Supawi Pawenang SE, MM.
Di
susun oleh:
Wakhid
Nurrochman Sudibyo (2014020010)
Nama
blog: https://wakhidnurrochman.blogspot.co.id/
JURUSAN EKONOMI MANAJEMEN
UNIVERSITAS ISLAM BATIK SURAKARTA
(UNIBA)
TAHUN 2017
BAB IV
REGRESI LINIER BERGANDA
A.
Pengertian
Regresi Linear Berganda
Di dalam regresi linear berganda terdapat 3
(tiga) variabel yaitu satu variabel Y dan jumlah variabel X nya lebih dari 1
(satu) variabel. Artinya, variabel X bisa berjumlah 2, 3, atau lebih. Jumlah X
yang lebih dari satu tersebut terkenal dengan istilah Regresi Linier Berganda
atau multiple linier regression.
Sebagai misal, munculnya inflasi tentu tidak
hanya dipengaruhi oleh bunga deposito (budep) saja seperti yang telah
diterangkan di atas, tetapi sangat mungkin dipengaruhi oleh faktor lain seperti
perubahan nilai tukar (kurs), jumlah uang beredar, kelangkaan barang, dan
lain-lain. Inflasi dapat digolongkan sebagai inflasi karena tarikan permintaan
dan inflasi desakan biaya. Inflasi tarikan permintaan terjadi apabila
masyarakat banyak memegang uang. Tentu secara singkat dapat diartikan bahwa
terdapat jumlah kelebihan jumlah uang beredar yang ada di masyarakat. Selain
itu dapat pula disebabkan ekspektasi masyarakat akibat adanya perubahan nilai
tukar uang. untuk semakin memperjelas perihal terjadinya inflasi, dapat dicoba
menambah satu variabel penduga (X2) yaitu Kurs, yang menggambarkan nilai tukar
IDR terhadap USD, pada kurun waktu yang sama dengan data sebelumnya yaitu
antara Januari 2001 hingga Oktober
2002. Karena jumlah variabel X tidak lagi satu
melainkan sudah dua, maka analisa yang akan digunakan adalah analisa regresi
linier berganda.
Perubahan model dari bentuk single ke
dalam bentuk multiple mengalami beberapa perubahan, meliputi:
1) jumlah variabel penjelasnya bertambah,
sehingga spesifikasi model dan data terjadi penambahan.
2) rumus penghitungan nilai b mengalami
perubahan,
3) jumlah degree of freedom dalam
menentukan nilai t juga berubah.
B. Model Regresi Linier Berganda
Penulisan model regresi linier berganda
merupakan pengembangan dari model regresi linier tunggal. Perbedaannya hanya
terdapat pada jumlah variabel X saja. Dalam regresi linier tunggal hanya satu
X, tetapi dalam regresi linier berganda variabel X lebih dari satu. Model
regresi linier umumnya dituliskan sebagai berikut:
Populasi: Y = A + B1X1 + B2X2 + B3X3 + ………+
BnXn + e Atau Y = B0 + B1X1 + B2X2 + B3X3 + ………+ BnXn + e
Sampel : Y = a + b1X1 + b 2X2 + b 3X3 + ………+ b
nXn + e Atau Y = b0 + b1X1 + b 2X2 + b 3X3 + ………+ bnXn + e
Apabila kita ingin menganalisis pengaruh Budep
dan Kurs terhadap Inflasi dengan mengacu model Yale, maka notasi model menjadi
seperti berikut:
populasi: Y = B1.23 + B12.3X2i + B13.2X3i + e
Sampel : Y = b1.23 + b12.3X2i + b13.2X3i + e
C. Penghitungan Nilai Parameter
Secara matematis, fungsi minimalisasi sum
of square ditunjukkan dalam rumus:

Untuk mendapatkan estimasi least
square b0, b1,b2 minimum, dapat dilakukan melalui cara turunan parsial
(partially differentiate) dari formula di atas, sebagai berikut:

Jadikan nilai-nilai turunan parsial di atas
menjadi sama dengan 0 (nol), dengan cara membagi dengan angka 2, hingga
menjadi:

Untuk menyederhanakan rumus paling atas
dilakukan pembagian dengan n, sehingga memperoleh rumus baru sebagai berikut:

maka b1 dan b2 dapat dicari dengan rumus:

Telah dikemukaan di atas bahwa pencarian nilai
b pada single linier berbeda dengan multiple linier.
Perbedaan ini muncul karena jumlah variabel penjelasnya bertambah. Semakin
banyaknya variabel X ini maka kemungkinan-kemungkinan yang menjelaskan model
juga mengalami pertambahan.
Guna mengetahui seberapa besar
kontribusi X1 terhadap perubahan Y, tentu perlu untuk melakukan kontrol
pengaruh dari X2. Begitu pula, untuk mengetahui kontribusi X2, maka perlu juga
melakukan control terhadap X1. Misalnya kita hendak mengontrol pengaruh linier
X2 ketika melakukan pengukuran dampak dari perubahan X1 terhadap Y, maka dapat
melakukan langkah-langkah sebagai berikut:
Tahap pertama: lakukan regresi Y terhadap X2.
Y = b0 + b2 X2 + e1
Dimana e1 merupakan residual, yang besarnya:
e1 = Y – b0 – b2X2
= Y-Yˆ
Tahap kedua: lakukan regresi X1 terhadap X2
X1 = b0 + b2 X2 + e2
Dimana e1 merupakan residual, yang besarnya:
e2 = X1 – b0 – b2X2
= X1-Xˆ
Tahap ketiga: lakukan regresi e1 terhadap e2
e1 = a0 + a1e2 +e3
Besarnya a1 pada tahap ketiga inilah yang merupakan
nilai pasti atau net effect dari perubahan satu unit X1
terhadap Y, atau menunjukkan kemiringan (slope) garis Y atas variabel
X1. Dengan memanfaatkan data yang telah tersedia, kita dapat pula menentukan
nilai b1 variabel Budep maupun b2 variabel Kurs.


Nilai b0, b1, dan b2 dapat ditentukan, melalui
pencarian menggunakan rumus-rumus sebagai berikut:
Rumus untuk mencari nilai b1 (pada model
multiple regression) adalah:

Nilai dari parameter b1 dan b2 merupakan nilai
dari suatu sampel. Nilai b1 dan b2 tergantung pada jumlah sampel yang ditarik.
Penambahan atau pengurangan akan mengakibatkan perubahan rentangan nilai b.
Perubahan rentang nilai b1 dan b2 diukur dengan standar error.
Semakin besar standar error mencerminkan nilai b sebagai
penduga populasi semakin kurang representatif. Dan sebaliknya. Perbandingan
antara nilai b dan standar error ini memunculkan nilai t, yang
dapat dirumuskan sebagai berikut:

dimana:
b = nilai parameter
Sb = standar error dari b.
Jika b sama dengan 0 (b=0) atau
Sb bernilai sangat besar, maka nilai t akan
sama dengan atau mendekati 0 (nol). Untuk dapat melakukan uji t, perlu
menghitung besarnya standar error masing-masing parameter (
baik b0, b1, b2), seperti diformulakan Gujarati (1995:198-199) sebagai berikut:

Nilai e adalah standar error yang
terdapat dalam persamaan regresi.
Perhatikan persamaan regresi:
Y = b0 + b1X1 + b2 X2 + e
atau
Inflasi = b0 + b1Budep + b2 Kurs + e
Secara matematis, dari persamaan regresi di
atas nilai e dapat diperoleh, dengan cara mengubah posisi tanda persamaan
hingga menjadi:
eY- (b0 + b1X1 + b2 X2
standar error b0, b1, b2, dapat dicari menggunakan rumus
yang ada hingga hasil penghitungannya tertera sebagai berikut:



Setelah diketahui semua nilai standar
error (Sb0, Sb1, Sb2) melalui penggunaan rumus-rumus di atas, maka
nilai t untuk masing-masing parameter dapat diperoleh, karena nilai
t merupakan hasil bagi antara b dengan Sb. Pencarian masing-masing nilai t
dapat dirumuskan sebagai berikut:

Untuk dapat mengetahui apakah signifikan atau
tidak nilai t hitung tersebut, maka perlu membandingkan dengan nilai t tabel.
Apabila nilai t hitung lebih besar dibandingkan dengan nilai t tabel, maka
variabel penjelas tersebut signifikan. Sebaliknya, jika nilai t hitung lebih
kecil dari tabel, maka variabel penjelas tersebut tidak signifikan. Karena
nilai tb=5% dengan df 19 yang besarnya 2,093, maka dapat dipastikan
bahwa variabel budep secara individual signifikan mempengaruhi inflasi.
Sedangkan nilaia1 adalah sebesar 7,938, yang berarti lebih
besar dibanding nilai tabel pada tb =5% dengan df 19 yang besarnya
2,093, maka dapat dipastikan bahwa variabel Kurs secara individual tidak
signifikan mempengaruhi inflasi. Pengujian kedua nilai t dapat dijelaskan dalam
bentuk gambar sebagai berikut:a2 yang besarnya 1,284 adalah lebih kecil
dibandingkan dengan nilai t table pada

D. Koefisien Determinasi (R2)
Koefisien determinasi pada dasarnya digunakan
untuk mengkur goodness of fit dari persamaan regresi, melalui
hasil pengukuran dalam bentuk prosentase yang menjelaskan determinasi variabel
penjelas (X) terhadap variabel yang dijelaskan (Y). Koefisien determinasi dapat
dicari melalui hasil bagi dari total sum of square (TSS) atau
total variasi Y terhadap explained sum of square (ESS) atau
variasi yang dijelaskan Y. Dengan demikian kita dapat mendefinisikan lagi R2
dengan arti rasio antara variasi yang dijelaskan Y dengan total variasi Y.
Rumus tersebut adalah sebagai berikut:

Total variasi Y (TSS) dapat diukur menggunakan
derajat deviasi dari masing-masing observasi nilai Y dari rata-ratanya. Hasil
pengukuran ini kemudian dijumlahkan hingga mencakup seluruh observasi. Jadi,
rumus di atas dapat pula dituliskan menjadi sebagai berikut:

dimana:
Yˆ (baca: Y cap) adalah nilai perkiraan Y atau
estimasi garis regresi.
Y (baca: Y bar) adalah nilai Y rata-rata.
Hasil hitungan Y cap individual
maupun total, beserta ekstensinya diperlukan untuk menyesuaikan dengan rumus
mencari R2.
E. Uji F
Pengujian secara serentak dilakukan dengan
teknik analisis of variance(ANOVA) melalui pengujian
nilai F hitung yang dibandingkan dengan nilai F tabel. Oleh karena itu disebut
pula dengan uji F. Pada prinsipnya, teknik ANOVA digunakan untuk menguji
distribusi atau variansi means dalam variabel penjelas apakah
secara proporsional telah signifikan menjelaskan variasi dari variabel yang
dijelaskan. Untuk memastikan jawabannya, maka perlu dihitung rasio antara
variansi means (variance between means) yang dibandingkan dengan
variansi di dalam kelompok variabel (variance between group). Hasil
pembandingan keduanya itu (rasio antara variance between means terhadapvariance
between group) menghasilkan nilai F hitung, yang kemudian dibandingkan
dengan nilai F tabel. Jika nilai F hitung lebih besar dibanding nilai F tabel,
maka secara serentak seluruh variabel penjelas yang ada dalam model signifikan
mempengaruhi variabel terikat Y. Sebaliknya, jika nilai F hitung lebih kecil
dibandingkan dengan nilai F tabel, maka tidak secara serentak seluruh variabel
penjelas yang ada dalam model signifikan mempengaruhi variabel terikat Y. Atau
secara ringkas dapat dituliskan sebagai berikut:
F £F (k 1);(n k atau H0àberarti tidak
signifikan à)
diterima
F> F (k 1);(n k atau H0
ditolakàberarti signifikan à)
H0 diterima atau ditolak, adalah merupakan
suatu keputusan jawaban terhadap hipotesis yang terkait dengan uji F, yang
biasanya dituliskan dalam kalimat sebagai berikut:
H0 : b1 = b2 = 0 Variabel penjelas secara
serentak tidak signifikan mempengaruhi variabel yang
dijelaskan.
0 Variabel penjelas secara serentak signifikan
mempengaruhi variabel yang ¹ b2 ¹H0 : b1
dijelaskan.
Karena uji F adalah membandingkan antara nilai
F hitung dengan nilai F tabel, maka penting untuk mengetahui bagaimana mencari
nilai F hitung ataupun nilai F tabel.
Nilai F hitung dapat dicari dengan menggunakan
rumus sebagai berikut:

Tugas:
1. Rangkuman tersebut diatas
2. Kesimpulan:
· Di dalam regresi linear berganda terdapat 3
(tiga) variabel yaitu satu variabel Y dan jumlah variabel X nya lebih dari 1
(satu) variabel. Artinya, variabel X bisa berjumlah 2, 3, atau lebih. Jumlah X
yang lebih dari satu tersebut terkenal dengan istilah Regresi Linier Berganda
atau multiple linier regression. Model dari regresi linear
berganda yaitu sebagai berikut :
Populasi: Y = A + B1X1 + B2X2 + B3X3 + ………+
BnXn + e Atau Y = B0 + B1X1 + B2X2 + B3X3 + ………+ BnXn + e
Sampel : Y = a + b1X1 + b 2X2 + b 3X3 + ………+ b
nXn + e Atau Y = b0 + b1X1 + b 2X2 + b 3X3 + ………+ bnXn + e
· Koefisien determinasi pada dasarnya digunakan
untuk mengkurgoodness of fit dari persamaan regresi, melalui hasil
pengukuran dalam bentuk prosentase yang menjelaskan determinasi variabel
penjelas (X) terhadap variabel yang dijelaskan (Y). Koefisien determinasi dapat
dicari melalui hasil bagi dari total sum of square (TSS) atau
total variasi Y terhadap explained sum of square (ESS) atau
variasi yang dijelaskan Y. Dengan rumus sbb :

· Pengujian secara (Uji F) serentak dilakukan
dengan teknik analisis of variance (ANOVA) melalui
pengujian nilai F hitung yang dibandingkan dengan nilai F tabel. Oleh karena
itu disebut pula dengan uji F. Pada prinsipnya, teknik ANOVA digunakan untuk
menguji distribusi atau variansi means dalam variabel penjelas
apakah secara proporsional telah signifikan menjelaskan variasi dari variabel
yang dijelaskan
3. a. Regresi linear berganda adalah hubungan secara linear antara dua atau lebih
variabel independen (X1, X2,….Xn) dengan
variabel dependen (Y). Analisis ini untuk mengetahui arah hubungan antara
variabel independen dengan variabel dependen apakah masing-masing variabel
independen berhubungan positif atau negatif dan untuk memprediksi nilai dari
variabel dependen apabila nilai variabel independen mengalami kenaikan atau
penurunan. Data yang digunakan biasanya berskala interval atau rasio.
b. Model dari regresi linear berganda yaitu
sebagai berikut :
Populasi: Y = A + B1X1 + B2X2 + B3X3 + ………+
BnXn + e Atau Y = B0 + B1X1 + B2X2 + B3X3 + ………+ BnXn + e
Sampel : Y = a + b1X1 + b 2X2 + b 3X3 + ………+ b
nXn + e Atau Y = b0 + b1X1 + b 2X2 + b 3X3 + ………+ bnXn + e
c.
Y’ = Variabel
dependen (nilai yang diprediksikan)
X1 dan X2 = Variabel
independen
a = Konstanta
(nilai Y’ apabila X1, X2…..Xn = 0)
b
= Koefisien regresi (nilai peningkatan ataupun
penurunan)
d. Konstanta menunjukkan titik potong
regresi pada sumbu Y. Konstanta bertanda + (positif) titik potongnya berada di
sebelah atas titik origin (0), sedangkan konstanta yang bertanda – (negatif)
titik potongnya di sebelah bawah titik origin.
e. *Pada single linier regression terdapat
dua variabel yaitu (variabel X dan Y), sedangkan multiple linier
regression satu variabel Y dan variabel X nya lebih dari satu variabel
*Pencarian nilai b pada single linier berbeda
dengan multiple linier. Dalamsingle linier kemungkinan
perubahan variabel lain tidak terjadi tetapi dalam multiple linier terjadi
perubahan
*Pencarian nilai t mempunyai kesamaan dengan model regresi linier
sederhana, hanya saja pencarian Sb nya yang berbeda
f. Analisis regresi linear sederhana hanya
melibatkan dua variabel saja yaitu satu variabel dependen atau variabel
tergantung dan satu variabel independen atau variabel bebas. Sedangkan,
analisis linear berganda melibatkan lebih dari dua variabel independen atau
bebas.
g. Rumus untuk mencari nilai b pada model regresi
linier berganda berbeda dengan model regresi linier sederhana, Karena jumlah
variabel penjelasnya bertambah. Semakin banyaknya variabel X maka
kemungkinan-kemungkinan menjelaskan model juga mengalami pertambahan. Dalam
single linier kemungkinan perubahan variabel lain tidak terjadi, tetapi
dalam multiple linier hal itu terjadi. Misalnya, Jika terjadi
perubahan pada X1, meskipun X2 konstan, akan mampu merubah nilai harapan dari
Y. Begitu pula, perubahan pada X2, meskipun X1 konstan, akan mampu merubah
nilai harapan dari Y. Perubahan yang terjadi pada X1 atau X2 tentu
mengakibatkan perubahan nilai harapan Y atau E(Y/X1,X2) yang berbeda.
h. Pencarian nilai t tidak mengalami
perubahan karena karena nilai t merupakan hasil bagi antara b dengan Sb.
i. Derajat
signifikansi yang digunakan adalah 0,05. Apabila nilai signifikan lebih kecil
dari derajat kepercayaan maka kita menerima hipotesis alternatif, yang
menyatakan bahwa suatu variabel independen secara parsial mempengaruhi variabel
dependen.
j. Untuk
mengetahui apakah variabel-variabel independen secara simultan berpengaruh
signifikan terhadap variabel dependen.
k. Apabila
nilai F hasil perhitungan lebih besar daripada nilai F menurut tabel maka
hipotesis alternatif, yang menyatakan bahwa semua variabel independen secara
simultan berpengaruh signifikan terhadap variabel dependen.
l. rumus dalam mencari koefisien
determinasi pada model regresi linier berganda berbeda dengan regresi linier
sederhana karena pada regresi linier sederhana R2 mengukur
seberapa jauh kemampuan model dalam menerangkan variasi variabel terikat,
besarnya nilai koefisien determinasi adalah di antara nol dan satu (0<R2<1).
Sedangkan regresi linier berganda R2 digunakan untuk
mengukur goodness of fit dari persamaan regresi melalui hasil
pengukuran dalam bentuk prosentase yang menjelaskan determinasi variabel
penjelas (X) terhadap variabel yang dijelaskan (Y). Koefisien determinasi dapat
dicari melalui hasil bagi dari total sum of square (TSS) atau
total variasi Y terhadap explained sum of square (ESS) atau
variasi yang dijelaskan Y. Dengan demikian kita dapat
mendefinisikan lagi R2 dengan arti rasio antara variasi yang dijelaskan Y
dengan total variasi Y.
m. variabel penjelas dapat dianggap sebagai
prediktor terbaik dalam menjelaskan Y sebagai berikut : Koefisien determinasi
pada dasarnya digunakan untuk mengkur goodness of fit dari
persamaan regresi, melalui hasil pengukuran dalam bentuk prosentase yang
menjelaskan determinasi variabel penjelas (X) terhadap variabel yang dijelaskan
(Y). Koefisien determinasi dapat dicari melalui hasil bagi dari total
sum of square (TSS) atau total variasi Y terhadap explained
sum of square (ESS) atau variasi yang dijelaskan Y. Dengan demikian
kita dapat mendefinisikan lagi R2 dengan arti rasio antara variasi yang
dijelaskan Y dengan total variasi Y. Total variasi Y (TSS) dapat diukur
menggunakan derajat deviasi dari masing-masing observasi nilai Y dari
rata-ratanya. Hasil pengukuran ini kemudian dijumlahkan hingga mencakup seluruh
observasi.
BAB V
UJI ASUMSI KLASIK
Tidak semua data dapat diperlakukan dengan
regresi. Jika data yang diregresi tidak memenuhi asumsi-asumsi yang telah
disebutkan, maka regresi yang diterapkan akan menghasilkan estimasi yang bias.
Jika hasil regresi telah memenuhi asumsi-asumsi regresi maka nilai estimasi
yang diperoleh akan bersifat BLUE, yang merupakan singkatan dari:Best,
Linear, Unbiased, Estimator.
Hasil regresi dikatakan Best apabila
garis regresi yang dihasilkan guna melakukan estimasi atau peramalan dari
sebaran data, menghasilkan error yang terkecil. Perlu
diketahui bahwa error itu sendiri adalah perbedaan antara
nilai observasi dan nilai yang diramalkan oleh garis regresi. Jika garis
regresi telah Best dan disertai pula oleh kondisi tidak bias (unbiased),
maka estimator regresi akan efisien. Linear mewakili linear dalam model, maupun
linear dalam parameter. Linear dalam model artinya model yang digunakan dalam
analisis regresi telah sesuai dengan kaidah model OLS dimana variabel-variabel
penduganya hanya berpangkat satu. Sedangkan linear dalam parameter menjelaskan
bahwa parameter yang dihasilkan merupakan fungsi linear dari sampel. Secara
jelas bila diukur dengan nilai rata-rata. Unbiased atau tidak
bias, Suatu estimator dikatakan unbiased jika nilai harapan
dari estimator b sama dengan nilai yang benar dari b. Artinya, nilai rata-rata
b = b. Bila rata-rata b tidak sama dengan b, maka selisihnya itu disebut dengan
bias. Estimator yang efisien dapat ditemukan apabila ketiga kondisi di atas
telah tercapai. Karena sifat estimator yang efisien merupakan hasil konklusi
dari ketiga hal sebelumnya itu.
Asumsi-asumsi seperti
yang telah dituliskan dalam bahasan OLS di depan, adalah asumsi yang
dikembangkan oleh Gauss dan Markov, yang kemudian teori tersebut terkenal
dengan sebutan Gauss-Markov Theorem. Serupa dengan asumsi-asumsi tersebut,
Gujarati (1995) merinci 10 asumsi yang menjadi syarat penerapan OLS,yaitu:
· Asumsi 1: Linear regression Model.
Model regresi merupakan hubungan linear dalam parameter. Y = a + bX +e Untuk
model regresi Y = a + bX + cX2 + e .Walaupun variabel X dikuadratkan, ini tetap
merupakan regresi yang linear dalam parameter sehingga OLS masih dapat
diterapkan.
· Asumsi 2: Nilai X adalah tetap dalam sampling
yang diulang-ulang (X fixed in repeated sampling).
· Asumsi 3: Variabel pengganggu e memiliki
rata-rata nol (zero mean of disturbance). Artinya, garis regresi pada
nilai X tertentu berada tepat di tengah. Bisa saja terdapat error yang
berada di atas garis regresi atau di bawah garis regresi, tetapi setelah
keduanya dirata-rata harus bernilai nol.
· Asumsi 4: Homoskedastisitas, atau variabel
pengganggu e memilikivariance yang sama sepanjang observasi dari
berbagai nilai X. Ini berarti data Y pada setiap X memiliki rentangan yang sama.
Jika rentangannya tidak sama, maka disebut heteroskedastisitas.
· Asumsi 5: Tidak ada otokorelasi antara
variabel e pada setiap nilai xi dan ji (No autocorrelation between the
disturbance).
· Asumsi 6: Variabel X dan disturbance e
tidak berkorelasi. Ini berarti kita dapat memisahkan pengaruh X atas Y dan
pengaruh e atas Y. Jika X dan e berkorelasi maka pengaruh keduanya akan tumpang
tindih (suli dipisahkan pengaruh masing-masing atas Y). Asumsi ini pasti
terpenuhi jika X adalah variabel non random
atau non stochastic.
· Asumsi 7: Jumlah observasi atau besar sampel
(n) harus lebih besar dari jumlah parameter yang diestimasi. Bahkan untuk
memenuhi asumsi yang lain, sebaiknya jumlah n harus cukup besar. Jika jumlah
parameter sama atau bahkan lebih besar dari jumlah observasi, maka persamaan
regresi tidak akan bisa diestimasi.
· Asumsi 8: Variabel X harus memiliki
variabilitas. Jika nilai X selalu sama sepanjang observasi maka tidak bisa
dilakukan regresi.
· Asumsi 9: Model regresi secara benar telah
terspesifikasi. Artinya, tidak ada spesifikasi yang bias, karena semuanya telah
terekomendasi atau sesuai dengan teori.
· Asumsi 10. Tidak ada multikolinearitas antara
variabel penjelas. Jelasnya kolinear antara variabel penjelas tidak boleh
sempurna atau tinggi.
Penyimpangan masing-masing asumsi tidak
mempunyai impak yang sama terhadap regresi. Sebagai contoh, adanya penyimpangan
atau tidak terpenuhinya asumsi multikolinearitas (asumsi 10) tidak berarti
mengganggu, sepanjang uji t sudah signifikan. Hal ini disebabkan oleh
membesarnya standar error pada kasus multikolinearitas,
sehingga nilai t, b, Sb, menjadi cenderung kecil. Jika nilai t masih
signifikan, maka multikolinearitas tidak perlu diatasi. Akan tetapi, jika terjadi
penyimpangan pada asumsi heteroskedastisitas atau pada autokorelasi,
penyimpangan tersebut dapat menyebabkan bias pada Sb, sehingga t menjadi tidak
menentu.
Secara teoretis model OLS akan menghasilkan
estimasi nilai parameter model penduga yang sahih bila dipenuhi asumsi
Tidak ada Autokorelasi, Tidak AdaMultikolinearitas, dan Tidak
ada Heteroskedastisitas. Apabila seluruh asumsi klasik tersebut telah
terpenuhi maka akan menghasilkan hasil regresi yang best, linear, unbias,
efficient of estimation (BLUE).
A. Uji Autokorelasi
A.1. Pengertian autokorelasi
Autokorelasi adalah keadaan dimana variabel
gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada
periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data yang
diteliti, baik itu data jenis runtut waktu (time series) ataupun data
kerat silang (cross section). Hanya saja masalah autokorelasi lebih
sering muncul pada data time series, karena sifat
data time series ini sendiri lekat dengan kontinyuitas dan
adanya sifat ketergantungan antar data. Sementara pada data cross
section hal itu kecil kemungkinan terjadi.
Autokorelasi akan muncul apabila ada
ketergantungan atau adanya kesalahan pengganggu yang secara otomatis
mempengaruhi data berikutnya. Jika terdapat ketergantungan, dalam bahasa
matematisnya dituliskan sebagai berikut:
E(ui, uj) 0; i j
Sebaliknya, jika tidak terdapat ketergantungan
atau tidak adanya kesalahan pengganggu yang secara otomatis mempengaruhi data
berikutnya maka masalah autokorelasi tidak akan muncul. Hal seperti itu dalam
bahasa matematisnya dituliskan sebagai berikut:
E(ui, uj) = 0; i j
A.2. Sebab-sebab Autokorelasi
Berikut beberapa sebab-sebab autokorelasi:
1. Kesalahan dalam pembentukan model
2. Tidak memasukkan variabel yang penting.
Variabel penting yang dimaksudkan di sini adalah variabel yang diperkirakan
signifikan mempengaruhi variabel Y.
3. Manipulasi data. Misalnya dalam penelitian kita ingin
menggunakan data bulanan, namun data tersebut tidak tersedia.
4. Menggunakan data yang tidak empiris. Jika data semacam ini
digunakan, terkesan bahwa data tersebut tidak didukung oleh realita.
A.3. Akibat
Autokorelasi
Uraian-uraian di atas mungkin saja mengajak
kita untuk bertanya tentang apa dampak dari autokorelasi yang timbul.
Pertanyaan seperti ini tentu saja merupakan sesuatu yang wajar, karena kita
tentu mempunyai pilihan apakah mengabaikan adanya autokorelasi ataukah akan
mengeliminasinya. Meskipun ada autokorelasi, nilai parameter estimator (b1,
b2,…,bn) model regresi tetap linear dan tidak bias dalam memprediksi B
(parameter sebenarnya). Akan tetapi nilai variance tidak
minimum dan standard error(Sb1, Sb2) akan bias. Akibatnya adalah nilai
t hitung akan menjadi bias pula, karena nilai t diperoleh dari hasil bagi Sb
terhadap b (t = b/sb). Berhubung nilai Sb bias maka nilai t juga akan bias atau
bersifat tidak pasti (misleading).
A.4. Pengujian Autokorelasi
Terdapat beberapa cara untuk mendeteksi ada
tidaknya autokorelasi, antara lain melalui:
1. Uji Durbin-Watson (DW Test).
Digunakan untuk mendeteksi adanya serial
korelasi dikembangkan oleh ahli statistik (statisticians) Durbin dan
Watson. Formula yang digunakan untuk mendeteksi terkenal pula dengan sebutan
Durbin- Watson d statistic, yang dituliskan sebagai berikut:

DW < dL = terdapat atokorelasi positif
dL< DW <dU = tidak dapat disimpulkan (inconclusive)
dU > DW >4-dU = tidak terdapat
autokorelasi
4-dU < DW <4-dL = tidak dapat
disimpulkan (inconclusive)
DW > 4-dL = terdapat autokorelasi negative
Dimana
DW = Nilai Durbin-Watson d statistik
dU = Nilai batas atas (didapat dari tabel)
dL = Nilai batas bawah (didapat dari tabel)
Ketentuan-ketentuan daerah hipotesis pengujian
DW dapat diwujudkan dalam bentuk gambar sebagai berikut:

2. Menggunakan metode LaGrange Multiplier
(LM).
LM sendiri merupakan teknik regresi yang
memasukkan variabel lag. Sehingga terdapat variabel tambahan yang dimasukkan
dalam model. Variabel tambahan tersebut adalah data Lag dari variabel dependen.
Dengan demikian model dalam LM menjadi sebagai berikut:
Y = β0 + β 1X1+ β 2 X2 + β 3 Yt-1+ β 4 Yt-2 +
e
Variabel Yt-1 merupakan
variabel lag 1 dari Y.
Variabel Yt-2 merupakan
variabel lag 2 dari Y.
B. Uji Normalitas
Tujuan dilakukannya uji normalitas adalah
untuk menguji apakah variabel penganggu (e) memiliki distribusi normal atau
tidak. Pengujian normalitas data dapat dilakukan sebelum ataupun setelah
tahapan analisis regresi. Hanya saja pengalaman menunjukkan bahwa pengujian
normalitas yang dilakukan sebelum tahapan regresi lebih efisien dalam waktu.
Sangat beralasan kiranya, karena jika asumsi normalitas data telah dipenuhi
terlebih dulu, maka dampak yang mungkin akan ditimbulkan dari adanya
ketidaknormalan data seperti bias pada nilai t hitung dan nilai F hitung dapat
dihindari. Sebaliknya, bila dilakukan analisis regresi terlebih dulu, dimana
nilai t dan F baru diketahui, yang kemudian baru dilakukan normalitas data,
sedangkan ternyata hasilnya tidak normal maka analisis regresi harus diulang
lagi. Pengujian normalitas ini berdampak pada nilai t dan F karena pengujian
terhadap keduanya diturunkan dari asumsi bahwa data Y atau e berdistribusi
normal. Beberapa cara dapat dilakukan untuk melakukan uji normalitas, antara
lain:
1) Menggunakan metode numerik yang
membandingkan nilai statistik, yaitu antara nilai median dengan
nilai mean. Data dikatakan normal (simetris) jika perbandingan
antara mean dan median menghasilkan nilai
yang kurang lebih sama. Atau apabila nilai mean jika dikurangi
nilai median menghasilkan angka nol. Cara ini disebut ukuran
tendensi sentral (Kuncoro, 2001: 41).
2) Menggunakan formula Jarque Bera (JB test),
yang rumusnya tertera sebagai berikut:

3) Mengamati sebaran data, dengan melakukan
hitungan-hitungan berapa prosentase data observasi dan berada di area mana.
Untuk menentukan posisi normal dari sebaran data, langkah awal yang dilakukan
adalah menghitung standar deviasi. Standar deviasi dapat dicari melalui rumus
sebagai berikut:

Data yang tidak normal juga dapat dibedakan
dari tingkat kemencengannya (skewness). Jika data cenderung menceng ke
kiri disebut positif skewness, dan jika data cenderung menceng ke
kanan disebut negatif skewness. Data dikatakan normal jika datanya
simetris. Lihat gambar berikut:

C. Uji Heteroskedastisitas
C.1. Pengertian Heteroskedastisitas
Heteroskedastisitas muncul apabila kesalahan
atau residual dari model yang diamati tidak memiliki varians yang konstan dari
satu observasi ke observasi lainnya (Kuncoro, 2001: 112). Masalah
heteroskedastisitas lebih sering muncul dalam data cross section dari
pada data time series (Kuncoro, 2001: 112; Setiaji, 2004: 17).
Karena dalamdata cross section menunjukkan obyek yang berbeda
dan waktu yang berbeda pula. Antara obyek satu dengan yang lainnya
tidak ada saling keterkaitan, begitu pula dalam hal waktu. Sedangkan data time
series, antara observasi satu dengan yang lainnya saling mempunyai kaitan.
Ada trend yang cenderung sama. Sehingga variance residualnya
juga cenderung sama.
C.2. Konsekuensi Heteroskedastisitas
Analisis regresi menganggap kesalahan (error)
bersifat homoskedastis, yaitu asumsi bahwa residu atau deviasi dari garis yang
paling tepat muncul serta random sesuai dengan besarnya variabel-variabel
independen (Arsyad, 1994:198). Asumsi regresi linier yang berupa
variance residual yang sama, menunjukkan bahwa
standar error (Sb) masing-masing observasi tidak mengalami
perubahan, sehingga Sb nya tidak bias. Jika nilai Sb mengecil, maka nilai t
cenderung membesar. Hal ini akan berakibat bahwa nilai t mungkin mestinya tidak
signifikan, tetapi karena Sb nya bias, maka t menjadi signifikan. Sebaliknya,
jika Sb membesar, maka nilai t akan mengecil. Nilai t yang seharusnya
signifikan, bisa jadi ditunjukkan menjadi tidak signifikan. Ketidakmenentuan
dari Sb ini dapat menjadikan hasil riset yang mengacaukan.
C.3. Pendeteksian Heteroskedastisitas
Untuk mendeteksi ada tidaknya
heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti uji grafik,
uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji
Whyte menggunakan Lagrange Multiplier (Setiaji, 2004: 18) Pengujian
heteroskedastisitas menggunakan uji grafik, dapat dilakukan dengan
membandingkan sebaran Ditunjukkan pula oleh Gozali, 2001. Antara nilai prediksi
variabel terikat dengan residualnya, yang output pendeteksiannya
akan tertera berupa sebaran data pada scatter plot. Dengan
menggunakan alat bantu komputer teknik ini sering dipilih, karena alasan
kemudahan dan kesederhanaan cara pengujian, juga tetap mempertimbangkan valid
dan tidaknya hasil pengujian. Pengujian heteroskedastisitas menggunakan uji
Arch, dilakukan dengan cara melakukan regresi atas residual, dengan model yang
dapat dituliskan e2 a + bYˆ 2 + u .
Dari hasil regresi tersebut dihitung nilai R2. Nilai R2 tadi dikalikan dengan
jumlah sampel (R2 x N). Hasil perkalian ini kemudian dibandingkan dengan
nilai chi-square (X2) pada derajat kesalahan tertentu. Dengan
df=1 (ingat, karena hanya memiliki satu variabel bebas). Jika R2 x N lebih
besar dari chi-square (X2) tabel, maka standar
error mengalami heteroskedastisitas. Sebaliknya, jika R2 x N lebih
kecil dari chi-square (X2) tabel, maka standar
error telah bebas dari masalah heteroskedastisitas, atau telah
homoskedastis.
D. Uji Multikolinieritas
D.1. Pengertian Multikolinearitas
Multikolinieritas adalah suatu keadaan dimana
terjadi korelasi linear yang ”perfect” atau eksak di antara
variabel penjelas yang dimasukkan ke dalam model. Tingkat kekuatan hubungan
antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan
sempurna.

D.2. Konsekuensi Multikolinearitas
Pengujian multikolinearitas merupakan tahapan
penting yang harus dilakukan dalam suatu penelitian, karena apabila belum
terbebas dari masalah multikolinearitas akan menyebabkan nilai koefisien
regresi (b) masing-masing variabel bebas dan nilai standar error-nya
(Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian nilainya,
sehingga akan berpengaruh pula terhadap nilai t (Setiaji, 2004: 26). Logikanya
adalah seperti ini, jika antara X1 dan X2 terjadi kolinearitas sempurna
sehingga data menunjukkan bahwa X1=2X2, maka nilai b1 dan b2 akan tidak dapat
ditentukan hasilnya, karena dari formula OLS sebagaimana dibahas terdahulu,

D.3. Pendeteksian Multikolinearitas
Terdapat beragam cara untuk menguji
multikolinearitas, di antaranya: menganalisis matrix korelasi dengan Pearson
Correlation atau dengan Spearman’s Rho Correlation,
melakukan regresi partial dengan teknik auxilary regression, atau
dapat pula dilakukan dengan mengamati nilai variance inflation
factor (VIF). Cara mendeteksi ada tidaknya
multikolinieritas dengan menghitung nilai
korelasi antar variabel dengan menggunakanSpearman’s Rho Correlation dapat
dilakukan apabila data dengan skala ordinal (Kuncoro, 2001: 114). Sementara
untuk data interval atau nominal dapat dilakukan dengan PearsonCorrelation.
Selain itu metode ini lebih mudah dan lebih sederhana tetapi tetap memenuhi
syarat untuk dilakukan. Pengujian multikolinearitas menggunakan angka korelasi
dimaksudkan untuk menentukan ada tidaknya multikolinearitas. Mengacu pendapat
Pindyk dan Rubinfeld22, yang mengatakan bahwa apabila korelasi antara dua
variabel bebas lebih tinggi dibanding korelasi
salah satu atau kedua variabel bebas tersebut
dengan variabel terikat. Juga pendapat Gujarati (1995:335) yang mengatakan
bahwa bila korelasi antara dua variabel bebas melebihi 0,8 maka
multikolinearitas menjadi masalah yang serius. Gujarati juga menambahkan bahwa,
apabila korelasi antara variabel penjelas tidak lebih besar dibanding korelasi
variabel terikat dengan masing-masing variabel penjelas, maka dapat dikatakan
tidak terdapat masalah yang serius. Dengan demikian, dapat disimpulkan bahwa
apabila angka korelasi lebih kecil dari 0,8 maka dapat dikatakan telah terbebas
dari masalah multikolinearitas. Dalam kaitan adanya kolinear yang tinggi
sehingga menimbulkan tidak terpenuhinya asumsi terbebas dari masalah
multikolinearitas, dengan mempertimbangkan sifat data dari cross
section, maka bila tujuan persamaan hanya sekedar untuk keperluan prediksi,
hasil regresi dapat ditolerir, sepanjang nilai t signifikan.
Tugas:
1. Rangkuman seperti tersebut diatas
2. Kesimpulan :
· Di dalam asumsi klasik tidak semua data dapat
diperlakukan dengan regresi. Jika data yang diregresi tidak memenuhi
asumsi-asumsi yang telah disebutkan, maka regresi yang diterapkan akan
menghasilkan estimasi yang bias. Jika hasil regresi telah memenuhi
asumsi-asumsi regresi maka nilai estimasi yang diperoleh akan bersifat BLUE,
yang merupakan singkatan dari: Best, Linear, Unbiased, Estimator.
· Autokorelasi adalah keadaan dimana variabel
gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada
periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data yang
diteliti, baik itu data jenis runtut waktu (time series) ataupun data
kerat silang (cross section). Hanya saja masalah autokorelasi lebih
sering muncul pada data time series, karena sifat
data time series ini sendiri lekat dengan kontinyuitas dan
adanya sifat ketergantungan antar data. Sementara pada data cross
section hal itu kecil kemungkinan terjadi. Autokorelasi akan muncul
apabila ada ketergantungan atau adanya kesalahan pengganggu yang secara
otomatis mempengaruhi data berikutnya.
· Tujuan dilakukannya uji normalitas adalah
untuk menguji apakah variabel penganggu (e) memiliki distribusi normal atau
tidak. Pengujian normalitas data dapat dilakukan sebelum ataupun setelah
tahapan analisis regresi. Hanya saja pengalaman menunjukkan bahwa pengujian
normalitas yang dilakukan sebelum tahapan regresi lebih efisien dalam waktu.
· Heteroskedastisitas muncul apabila kesalahan
atau residual dari model yang diamati tidak memiliki varians yang konstan dari
satu observasi ke observasi lainnya (Kuncoro, 2001: 112). Masalah
heteroskedastisitas lebih sering muncul dalam data cross section dari
pada data time series(Kuncoro, 2001: 112; Setiaji, 2004: 17).
Karena dalam data cross section menunjukkan obyek
yang berbeda dan waktu yang berbeda pula. Antara obyek satu dengan
yang lainnya tidak ada saling keterkaitan, begitu pula dalam hal
waktu. Sedangkan data time series, antara observasi satu dengan
yang lainnya saling mempunyai kaitan. Ada trend yang cenderung sama.
Sehingga variance residualnya juga cenderung sama.
· Multikolinieritas adalah suatu keadaan dimana
terjadi korelasi linear yang ”perfect” atau eksak di antara
variabel penjelas yang dimasukkan ke dalam model. Tingkat kekuatan hubungan
antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna.
3. a) asumsi klasik adalah persyaratan statistik yang
harus dipenuhi pada analisis regresi linear berganda yang berbasis ordinary
least square (OLS). Jadi analisis regresi yang tidak berdasarkan OLS tidak
memerlukan persyaratan asumsi klasik, misalnya regresi logistik atau regresi
ordinal.
b) asumsi-asumsi
yang ditetapkan :
· Asumsi 1: Linear regression Model.
Model regresi merupakan hubungan linear dalam parameter. Y = a + bX +e Untuk
model regresi Y = a + bX + cX2 + e .Walaupun variabel X dikuadratkan, ini tetap
merupakan regresi yang linear dalam parameter sehingga OLS masih dapat
diterapkan.
· Asumsi 2: Nilai X adalah tetap dalam sampling
yang diulang-ulang (X fixed in repeated sampling).
· Asumsi 3: Variabel pengganggu e memiliki
rata-rata nol (zero mean of disturbance). Artinya, garis regresi pada
nilai X tertentu berada tepat di tengah. Bisa saja terdapat error yang
berada di atas garis regresi atau di bawah garis regresi, tetapi setelah
keduanya dirata-rata harus bernilai nol.
· Asumsi 4: Homoskedastisitas, atau variabel
pengganggu e memilikivariance yang sama sepanjang observasi dari
berbagai nilai X. Ini berarti data Y pada setiap X memiliki rentangan yang
sama. Jika rentangannya tidak sama, maka disebut heteroskedastisitas.
· Asumsi 5: Tidak ada otokorelasi antara
variabel e pada setiap nilai xi dan ji (No autocorrelation between the
disturbance).
· Asumsi 6: Variabel X dan disturbance e
tidak berkorelasi. Ini berarti kita dapat memisahkan pengaruh X atas Y dan
pengaruh e atas Y. Jika X dan e berkorelasi maka pengaruh keduanya akan tumpang
tindih (suli dipisahkan pengaruh masing-masing atas Y). Asumsi ini pasti
terpenuhi jika X adalah variabel non random
atau non stochastic.
· Asumsi 7: Jumlah observasi atau besar sampel
(n) harus lebih besar dari jumlah parameter yang diestimasi. Bahkan untuk
memenuhi asumsi yang lain, sebaiknya jumlah n harus cukup besar. Jika jumlah
parameter sama atau bahkan lebih besar dari jumlah observasi, maka persamaan
regresi tidak akan bisa diestimasi.
· Asumsi 8: Variabel X harus memiliki
variabilitas. Jika nilai X selalu sama sepanjang observasi maka tidak bisa
dilakukan regresi.
· Asumsi 9: Model regresi secara benar telah
terspesifikasi. Artinya, tidak ada spesifikasi yang bias, karena semuanya telah
terekomendasi atau sesuai dengan teori.
· Asumsi 10. Tidak ada multikolinearitas antara
variabel penjelas. Jelasnya kolinear antara variabel penjelas tidak boleh
sempurna atau tinggi.
c) Tidak semua asumsi perlu lakukan pengujian
karena Karena tidak semua data dapat diperlakukan dengan regresi. Jika data
yang diregresi tidak memenuhi asumsiasumsi yang telah disebutkan, maka regresi
yang diterapkan akan menghasilkan estimasi yang bias. Jika hasil regresi telah
memenuhi asumsi-asumsi regresi maka nilai estimasi yang diperoleh akan bersifat
BLUE, yang merupakan singkatan dari: Best, Linear, Unbiased, Estimator.
d) Autokorelasi adalah keadaan dimana
variabel gangguan pada periode tertentu berkorelasi dengan variabel gangguan
pada periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data
yang diteliti, baik itu data jenis runtut waktu (time series) ataupun
data kerat silang (cross section). Hanya saja masalah autokorelasi lebih
sering muncul pada data time series, karena sifat
data time series ini sendiri lekat dengan kontinyuitas dan
adanya sifat ketergantungan antar data. Sementara pada data cross
section hal itu kecil kemungkinan terjadi. Autokorelasi akan muncul
apabila ada ketergantungan atau adanya kesalahan pengganggu yang secara
otomatis mempengaruhi data berikutnya.
e) Autokorelasi timbul sebab:
1. Kesalahan dalam pembentukan model. model yang digunakan
untuk menganalisis regresi tidak didukung oleh teori-teori yang relevan dan
mendukung. 2. Tidak memasukkan variabel yang penting, yaitu
variabel yang diperkirakan signifikan mempengaruhi variabel Y.
3. Manipulasi data. Tidak sesuai dengan data yang sebenarnya.
4. Menggunakan data yang tidak empiris. Jika data yang
digunakan tersebut tidak didukung oleh realita.
f) Cara mendeteksi
masalah autokorelasi :
1. Uji Durbin – Watson (DW Test), digunakan untuk mendeteksi adanya
serial korelasi.
2. Menggunakan metode LaGrange Multiplier (LM), teknik regresi yang
memasukan variabel lag sehingga terdapat variabel tambahan (data lag dari
variabel dependen) yang dimasukkan dalam model. Sebagai kunci untuk mengetahui berapa
autokorelasi muncul dilihat dari signifikan tidaknya variabel lag tersebut.
g) Konsekuensi dari adanya masalah
autokorelasi dalam model yaitu sbb: nilai t hitung akan menjadi bias pula,
karena nilai t diperoleh dari hasil bagi Sb terhadap b (t = b/sb). Berhubung
nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti (misleading).
h) Heteroskedastisitas adalah Uji
heteroskedastisitas digunakan untuk mengetahui ada atau tidaknya penyimpangan
asumsi klasik heteroskedastisitas yaitu adanya ketidaksamaan varian dari
residual untuk semua pengamatan pada model regresi. Heteroskedastisitas
merupakan salah satu faktor yang menyebabkan model regresi linier sederhana
tidak efisien dan akurat, juga mengakibatkan penggunaan metode kemungkinan
maksimum dalam mengestimasi parameter (koefisien) regresi akan terganggu.
i) Heteroskedastisitas timbul karena kesalahan atau residual dari
model yang diamati tidak memiliki varians yang konstan dari satu observasi ke
observasi lainnya.
j) Pengujian heteroskedastisitas menggunakan
uji grafik dengan membandingkan sebaran antara nilai prediksi variabel terikat
dengan residualnya yang output pendeteksiannya akan tertera berupa sebaran data
pada scatter plot. Pengujian heteroskedastisitas menggunakan uji
Arch dengan melakukan regresi atas residual dengan model e2 =
a + bŶ2 + u. Jika R2 x N lebi besar
dari chi-squaretabel maka standar error mengalami
heteroskedastisitas, jika R2 x N lebih kecil dari chi-square tabel
maka standar error bebas dari masalah heteroskedastisitas /
homoskedastis.
k) Konsekuensi dari adanya masalah
heteroskedastisitas dalam model adalah Analisis regresi menganggap kesalahan (error)
bersifat homoskedastis, yaitu asumsi bahwa residu atau deviasi dari garis yang
paling tepat muncul serta random sesuai dengan besarnya variabel-variabel
independen (Arsyad, 1994:198). Asumsi regresi linier yang berupa variance
residual yang sama, menunjukkan bahwa standar error (Sb)
masing-masing observasi tidak mengalami perubahan, sehingga Sb nya tidak bias.
Jika nilai Sb mengecil, maka nilai t cenderung membesar. Hal ini akan berakibat
bahwa nilai t mungkin mestinya tidak signifikan, tetapi karena Sb nya bias,
maka t menjadi signifikan. Sebaliknya, jika Sb membesar, maka nilai t akan
mengecil. Nilai t yang seharusnya signifikan, bisa jadi ditunjukkan menjadi
tidak signifikan. Ketidakmenentuan dari Sb ini dapat menjadikan hasil riset
yang mengacaukan.
l) Multikolinearitas adalah suatu
keadaan dimana terjadi korelasi linear yang ”perfect” atau eksak di
antara variabel penjelas yang dimasukkan ke dalam model. Tingkat kekuatan
hubungan antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear,
dan sempurna.
m) Multikolinearitas timbul karena variabel
penjelas memiliki banyak sifat-sifat yang sama dan serupa sehingga hamper tidak
dapat lagi dibedakan tingkat pengaruhnya terhadap Y, maka tingkat kolinearnya
dapat dikatakan serius, atau perfect, atau sempurna. Sedangkan Tidak berklinear
jika antara variabel penjelas tidak mempunyai sama sekali kesamaan.
n) Cara mendeteksi masalah multikolinearitas
yaitu dengan menganalisis matrix korelasi dengan Pearson
Correlation atau dengan Spearman’s Rho Correlation,
melakukan regresi partial dengan teknik auxilary regression, atau
dapat pula dilakukan dengan mengamati nilai variance inflation
factor (VIF). Cara mendeteksi ada tidaknya multikolinieritas dengan
menghitung nilai korelasi antar variabel dengan menggunakan Spearman’s
Rho Correlation dapat dilakukan apabila data dengan skala ordinal.
o) Konsekuensi dari adanya masalah
multikolinearitas dalam model yaitu Apabila belum terbebas dari masalah
multikolinieritas menyebabkan nilai koefisienstandar errornya (Sb)
cenderung bias. artinya tidak dapat ditentukan kepastian nilainya sehingga berpengaruh
terhadap nilai t.
p) Normalitas adalah Sebuah uji yang dilakukan
dengan tujuan untuk menilai sebaran data pada sebuah kelompok data atau
variabel apakah sebaran data tersebut berdistribusi normal ataukah tidak.
q) Normalitas timbul karena ditimbulkan dari
adanya ketidaknormalan data seperti bias pada nilai t hitung dan nilai F hitung
dapat dihindari. Sebaliknya, bila dilakukan analisis regresi terlebih dulu,
dimana nilai t dan F baru diketahui, yang kemudian baru dilakukan normalitas
data, sedangkan ternyata hasilnya tidak normal maka analisis regresi harus
diulang lagi. karena pengujian terhadap keduanya diturunkan dari asumsi bahwa
data Y atau e berdistribusi normal. nilai t dan F diturunkan dari asumsi bahwa data
Y atau e berdistribusi normal.
r) Cara
mendeteksi masalah normalitas yaitu sbb:
· Menggunakan metode numerik yang membandingkan
nilai statistik, antara nilai median dengan nilai mean
· Menggunakana formula Jarque Bera (JB test)
· Mengamati sebaran data dengan melakukan
hitungan-hitungan berapa prosentase data observasi dan berada diarea mana.
s) Konsekuensi dari adanya masalah
normalitas dalam model yaitu Pengujian normalitas ini berdampak pada nilai t
dan F karena pengujian terhadap keduanya diturunkan dari asumsi bahwa data Y
atau e berdistribusi normal.
t) Cara
menangani jika data ternyata tidak normal adalah diperlukan upaya untuk
mengatasi seperti: memotong data yang out liers, memperbesar
sampel, atau melakukan transformasi data.