Uji Asumsi Klasik
Uji asumsi klasik adalah persyaratan
statistik yang harus dipenuhi pada analisis regresi linear berganda yang berbasis ordinary
least square (OLS). Jadi analisis regresi yang tidak berdasarkan OLS tidak
memerlukan persyaratan asumsi klasik, misalnya regresi logistik atau regresi ordinal.
Demikian juga tidak semua uji asumsi klasik
harus dilakukan pada analisis regresi linear, misalnya uji multikolinearitas
tidak dilakukan pada analisis regresi linear sederhana dan uji autokorelasi
tidak perlu diterapkan pada data cross sectional.
Uji asumsi klasik juga tidak perlu dilakukan
untuk analisis regresi linear yang bertujuan untuk menghitung nilai pada
variabel tertentu. Misalnya nilai return saham yang dihitung dengan market
model, atau market adjusted model. Perhitungan nilai return yang diharapkan
dapat dilakukan dengan persamaan regresi, tetapi tidak perlu diuji asumsi
klasik.
Uji asumsi klasik yang sering digunakan yaitu
uji multikolinearitas, uji heteroskedastisitas, uji normalitas, uji autokorelasi
dan uji linearitas. Tidak ada ketentuan yang pasti tentang urutan uji mana dulu
yang harus dipenuhi. Analisis dapat dilakukan tergantung pada data yang ada.
Sebagai contoh, dilakukan analisis terhadap semua uji asumsi klasik, lalu
dilihat mana yang tidak memenuhi persyaratan. Kemudian dilakukan perbaikan pada
uji tersebut, dan setelah memenuhi persyaratan, dilakukan pengujian pada uji
yang lain.
1.
Uji Normalitas
Uji normalitas adalah untuk melihat apakah nilai residual
terdistribusi normal atau tidak. Model regresi yang baik adalah memiliki
nilai residual yang terdistribusi normal. Jadi uji normalitas bukan dilakukan
pada masing-masing variabel tetapi pada nilai residualnya. Sering terjadi
kesalahan yang jamak yaitu bahwa uji normalitas dilakukan pada masing-masing
variabel. Hal ini tidak dilarang tetapi model regresi memerlukan normalitas
pada nilai residualnya bukan pada masing-masing variabel penelitian.
Pengertian normal secara sederhana dapat
dianalogikan dengan sebuah kelas. Dalam kelas siswa yang bodoh sekali dan
pandai sekali jumlahnya hanya sedikit dan sebagian besar berada pada kategori
sedang atau rata-rata. Jika kelas tersebut bodoh semua maka tidak normal, atau
sekolah luar biasa. Dan sebaliknya jika suatu kelas banyak yang pandai maka
kelas tersebut tidak normal atau merupakan kelas unggulan. Pengamatan data yang
normal akan memberikan nilai ekstrim rendah dan ekstrim tinggi yang sedikit dan
kebanyakan mengumpul di tengah. Demikian juga nilai rata-rata, modus dan median
relatif dekat.
Uji normalitas dapat dilakukan dengan uji histogram,
uji normal P Plot, uji Chi Square, Skewness dan Kurtosis atau uji Kolmogorov
Smirnov. Tidak ada metode yang paling baik atau paling tepat. Tipsnya
adalah bahwa pengujian dengan metode grafik sering menimbulkan perbedaan
persepsi di antara beberapa pengamat, sehingga penggunaan uji normalitas dengan
uji statistik bebas dari keragu-raguan, meskipun tidak ada jaminan bahwa pengujian
dengan uji statistik lebih baik dari pada pengujian dengan metode grafik.
Jika residual tidak normal tetapi dekat
dengan nilai kritis (misalnya signifikansi Kolmogorov Smirnov sebesar 0,049) maka dapat dicoba dengan
metode lain yang mungkin memberikan justifikasi normal. Tetapi jika jauh dari
nilai normal, maka dapat dilakukan beberapa langkah yaitu: melakukan
transformasi data, melakukan trimming data outliers atau menambah data observasi. Transformasi
dapat dilakukan ke dalam bentuk Logaritma natural, akar kuadrat, inverse, atau
bentuk yang lain tergantung dari bentuk kurva normalnya, apakah condong ke
kiri, ke kanan, mengumpul di tengah atau menyebar ke samping kanan dan kiri.
2.
Uji Multikolinearitas
Uji multikolinearitas adalah untuk melihat ada atau tidaknya korelasi yang tinggi antara variabel-variabel bebas dalam suatu
model regresi linear berganda. Jika ada korelasi yang tinggi di antara
variabel-variabel bebasnya, maka hubungan antara variabel bebas terhadap
variabel terikatnya menjadi terganggu. Sebagai ilustrasi, adalah model regresi
dengan variabel bebasnya motivasi, kepemimpinan dan kepuasan kerja dengan
variabel terikatnya adalah kinerja. Logika sederhananya adalah bahwa model
tersebut untuk mencari pengaruh antara motivasi, kepemimpinan dan kepuasan
kerja terhadap kinerja. Jadi tidak boleh ada korelasi yang tinggi antara
motivasi dengan kepemimpinan, motivasi dengan kepuasan kerja atau antara
kepemimpinan dengan kepuasan kerja.
Alat statistik yang sering dipergunakan untuk
menguji gangguan multikolinearitas adalah dengan variance inflation factor
(VIF), korelasi pearson antara variabel-variabel bebas, atau dengan melihat
eigenvalues dan condition index (CI).
Beberapa alternatif cara untuk mengatasi
masalah multikolinearitas adalah sebagai berikut:
1.
Mengganti
atau mengeluarkan variabel yang mempunyai korelasi yang tinggi.
2.
Menambah
jumlah observasi.
3.
Mentransformasikan
data ke dalam bentuk lain, misalnya logaritma natural, akar kuadrat atau bentuk
first difference delta.
3.
Uji Heteroskedastisitas
Uji heteroskedastisitas adalah untuk melihat apakah terdapat ketidaksamaan
varians dari residual satu ke pengamatan ke pengamatan yang lain. Model regresi yang
memenuhi persyaratan adalah di mana terdapat kesamaan varians dari residual
satu pengamatan ke pengamatan yang lain tetap atau disebut homoskedastisitas.
Deteksi heteroskedastisitas dapat dilakukan
dengan metode scatter plot dengan memplotkan nilai ZPRED (nilai prediksi)
dengan SRESID (nilai residualnya). Model yang baik didapatkan jika tidak
terdapat pola tertentu pada grafik, seperti mengumpul di tengah, menyempit
kemudian melebar atau sebaliknya melebar kemudian menyempit. Uji statistik yang
dapat digunakan adalah uji Glejser, uji Park atau uji White.
Beberapa alternatif solusi jika model menyalahi asumsi heteroskedastisitas adalah dengan mentransformasikan ke dalam bentuk logaritma, yang hanya dapat dilakukan jika semua data bernilai positif. Atau dapat juga dilakukan dengan membagi semua variabel dengan variabel yang mengalami gangguan heteroskedastisitas.
4.
Uji Autokorelasi
Uji autokorelasi adalah untuk melihat apakah terjadi korelasi
antara suatu periode t dengan periode sebelumnya (t -1). Secara sederhana
adalah bahwa analisis regresi adalah untuk melihat pengaruh antara variabel
bebas terhadap variabel terikat, jadi tidak boleh ada korelasi antara observasi
dengan data observasi sebelumnya. Sebagai contoh adalah pengaruh antara tingkat
inflasi bulanan terhadap nilai tukar rupiah terhadap dollar. Data tingkat
inflasi pada bulan tertentu, katakanlah bulan Februari, akan dipengaruhi oleh
tingkat inflasi bulan Januari. Berarti terdapat gangguan autokorelasi pada
model tersebut. Contoh lain, pengeluaran rutin dalam suatu rumah tangga. Ketika
pada bulan Januari suatu keluarga mengeluarkan belanja bulanan yang relatif
tinggi, maka tanpa ada pengaruh dari apapun, pengeluaran pada bulan Februari
akan rendah.
Uji autokorelasi hanya dilakukan pada data time series (runtut waktu) dan tidak perlu dilakukan
pada data cross section seperti pada kuesioner di mana pengukuran semua
variabel dilakukan secara serempak pada saat yang bersamaan. Model regresi pada
penelitian di Bursa Efek Indonesia di mana periodenya lebih dari satu tahun
biasanya memerlukan uji autokorelasi.
Beberapa uji statistik yang sering
dipergunakan adalah uji Durbin-Watson, uji dengan Run Test dan jika data
observasi di atas 100 data sebaiknya menggunakan uji Lagrange Multiplier.
Beberapa cara untuk menanggulangi masalah autokorelasi adalah dengan
mentransformasikan data atau bisa juga dengan mengubah model regresi ke dalam
bentuk persamaan beda umum (generalized difference equation). Selain itu juga
dapat dilakukan dengan memasukkan variabel lag dari variabel terikatnya menjadi
salah satu variabel bebas, sehingga data observasi menjadi berkurang 1.
5.
Uji Linearitas
Uji linearitas dipergunakan untuk melihat apakah model yang dibangun mempunyai
hubungan linear atau tidak. Uji ini jarang digunakan pada berbagai
penelitian, karena biasanya model dibentuk berdasarkan telah teoritis bahwa
hubungan antara variabel bebas dengan variabel terikatnya adalah linear.
Hubungan antar variabel yang secara teori bukan merupakan hubungan linear
sebenarnya sudah tidak dapat dianalisis dengan regresi linear, misalnya masalah
elastisitas.
Jika
ada hubungan antara dua variabel yang belum diketahui apakah linear atau tidak,
uji linearitas tidak dapat digunakan untuk memberikan adjustment bahwa hubungan
tersebut bersifat linear atau tidak. Uji linearitas digunakan untuk
mengkonfirmasikan apakah sifat linear antara dua variabel yang
diidentifikasikan secara teori sesuai atau tidak dengan hasil observasi yang
ada. Uji linearitas dapat menggunakan uji Durbin-Watson, Ramsey Test atau uji
Lagrange Multiplier.









