Regresi Linier Berganda dan Sederhana dengan R

Halo semua, tutorial kali ini adalah bagaimana melakukan regresi linier sederhana dan regresi linier berganda dengan pemrograman R kita sertai dengan contohnya.

Contoh #1

Data untuk video di atas dapat didownload di link ini.

Contoh #2

Contoh #2 ini kita akan menggunakan data yang berasal dari penelitian kami yang di terbitkan di Jurnal Manajemen dan Kewirausahaan, silahkan download data tabel12reg.xlsx. Seperti biasa kita akan melakukan import data ke dalam RStudio terlebih dahulu sebelum memulai pengaolahan data. Model regresi kita adalah seperti pada gambar di bawah ini,

Langkah pertama adalah dapat kita lakukan perintah operasi regresi linier sederhana dan berganda dari data kita dan model gambar di atas sebagai berikut,

Menyusun model Regresi Linier Sederhana

Misal persamaan regresi linier sederhana kita adalah:
SMP = a + b.KM + e
di mana a adalah konstanta dan b koefisien regresi, nama variabel yang akan kita gunakan dalam perintah R harus sesuai dengan nama kolom dalam tabel12reg kita, maka perintah nya seperti di bawah ini,

> regModelku <- lm(SMP~KM, data = table12reg)

Menyusun model Regresi Linier Berganda

Misal persamaan regresi linier berganda kita adalah:
SMP = a +b1.KM + b2.CI + e
di mana a adalah konstanta, b1 dan b2 adalah koefisien regresinya, nama variabel yang akan kita gunakan dalam perintah R harus sesuai dengan nama kolom dalam tabel12reg kita, maka perintah nya seperti di bawah ini,

> regModelku <- lm(SMP~KM+CI, data = table12reg) 

Uji Asumsi Regresi Linier

Sebelum membahas hasil uji regresi linier berganda kita perlu melakukan uji asumsi regresi linier untuk menguji nomalitas, multikolinieritas, heterokedastisitas, autokorelasi dan linieritas dari model regresi kita.

Uji asumsi Normalitas

Pengujian residual dari model regresi apakah berdistribusi normal maka dilakukan uji Normalitas, dengan perintah di bawah ini,

> par(mfrow=c(2,2))
> plot(regModelku) 

maka di windows Plot akan muncul grafik seperti di bawah ini,

Kita lihat pada grafik Normal Q-Q (pojok kanan atas) menunjukkan point-point data berada disekitar garis lurus, maka dapat dikatakan terdistribusi normal, sehingga dapat dikatakan model regresi memenuhi asumsi Normalitas.

Uji asumsi Multikolinieritas

Pengujian korelasi antar variabel independent untuk melihat tidak adanya korelasi erat antar variabel independent dapat dilakukan melihat nilai VIF dengan perintah vif() dalam package car (anda mungkin perlu menginstal terlebih dahulu package ini), seperti di bawah ini,

> library(car)
> vif(regModelku) 

     KM       CI
 1.529073 1.529073

kita lihat bahwa nilai VIF untuk KM dan CI berada di bawah 2, maka dapat dikatakan tidak terjadi Multikolinieritas dan model kita memenuhi asumsi Multikolinieritas.

Uji asumsi Heteroskedastisitas

Mengukur apakah terjadi ketidaksamaan varians residual (Heteroskedastisitas) dari data-data pengukuran dapat kita lakukan dengan melihat sebaran pada grafik Residuals vs Vitted dengan perintah yang sama pada uji Normalitas.

> par(mfrow=c(2,2))
> plot(regModelku) 

maka di windows Plot akan muncul grafik seperti di bawah ini,

kita lihat pada grafik Residuals vs Fitted (pojok kiri atas) bahwa data-data tersebar dan tidak membentuk satu pola tertentu, sehingga dapat dikatakan tidak terjadi perbedaan varians residual dan model kita memenuhi uji asumsi Heteroskedastisitas.

Uji asumsi Autokorelasi

Uji autokorelasi dilakukan untuk menguji apakah ada pengaruh dari data terdahulu kepada data yang baru, uji ini dilakukan untuk data time series, dengan menggunakan perintah dwtest() dalam package lmtest (anda mungkin perlu menginstal terlebih dahulu package ini) dengan perintah di bawah ini,

> library(lmtest)
> dwtest(regModelku) 

Durbin-Watson test
data:  regModelku
DW = 1.9522, p-value = 0.3891
alternative hypothesis: true autocorrelation is greater than 0

dari hasil uji di atas, dengan nilai Durbin-Watson test p-value lebih dari 0.05 maka dapat dikatakan bahwa tidak terjadi pengaruh antar data sebelum dan terbaru, dapat dikatakan asumsi tidak ada Autokorelasi antar data model regresi terpenuhi.

Uji asumsi Linieritas

Pengujian hubungan linier antara variabel dependent dan independent dilakukan untuk memenuhi asumsi adanya hubungan linier antar variabel tersebut, dengan perintah crPlots() dari package conf (anda mungkin perlu menginstal terlebih dahulu package ini) di bawah ini,

> library(conf)
> crPlots(regModelku) 

maka di windows Plot akan muncul grafik seperti di bawah ini,

dari grafik di atas tampak bahwa posisi 2 (dua) garis warna berbeda (garis putus-putus dan garis sambung) berada pada posisi yang hampir berdempet, artinya variabel independent memiliki linieritas dengan variabel dependent, dapat dikatakan asumsi Lineritas model regresi terpenuhi.

Membaca hasil Regresi Linier Berganda

Tahap akhir dari proses regresi linier berganda adalah intepretasi hasil nya dapat dilakukan dengan perintah di bawah ini,

> summary(regModelku) 
 
Call:
lm(formula = SMP ~ KM + CI, data = table12reg)

Residuals:
    Min      1Q  Median      3Q     Max 
-6.8578 -0.9147  0.0728  1.0631  5.1673 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept)  1.35207    0.82306   1.643  0.10265    
KM           0.10416    0.03865   2.695  0.00789 ** 
CI           0.74446    0.07008  10.622  < 2e-16 ***

Signif. codes:  
0 '***' 0.001 '**' 0.01 '*' 0.05 ‘.’ 0.1 ‘ ’ 1
Residual standard error: 2.005 on 142 degrees of freedom
Multiple R-squared:  0.6235,    Adjusted R-squared:  0.6182 
F-statistic: 117.6 on 2 and 142 DF,  p-value: < 2.2e-16

dari tabel hasil uji di atas didapat persamaan regresi linier berganda kita adalah

SMP = 1.35207 + 0.10416KM + 0.74446CI + e

Kita dapat menyatakan hasil pengujian model regresi linier berganda di atas bahwa pengaruh KM dan CI ke SMP adalah signifikan dengan nilai p-value pada kolom Pr(>|t|) lebih kecil dari 0.05, setiap peningkatan satu satuan KM akan memberikan peningkatan sebesar 0.104 pada SMP, dan setiap peningkatan satu satuan pada CI akan memberikan peningkatan sebesar 0.744 pada SMP. Model kita memiliki nilai Adj. R2 sebesar 0.6182 atau variabel KM dan CI mampu menjelaskan 61.82% dari faktor-faktor yang mempengaruhi SMP. Pada uji F-statistic didapat p-value < 2.2e-16 jauh lebih kecil dari 0.05 menunjukkan model regresi sangat baik.

Analisis Moderasi dengan R

Artikel berikut akan memberikan contoh bagaimana pengujian sebuah variabel sebagai variabel moderasi. Metode dalam artikel ini akan mengacu pada buku Hayes (2018) dengan pendekatan regresi linier. Pada contoh ini kita akan menggunakan data tabel12reg.xlsx yang terdiri atas 145 data sample, data dapat di-download di sini, data terlebih dahulu di-import ke dalam RStudio dengan cara di video ini. Proses regresi linier dengan pemrograman R dapat dilihat pada tutorial sebelumnya di artikel ini.

Misal model penelitian kita seperti di bawah ini, kita akan menguji apakah variabel Z menjadi moderator pengaruh variabel X ke Y.

Proses pengujian moderasi akan menggunakan pengujian regresi linier berganda di mana model di atas akan diuji dengan regresi linier berganda dengan mengubah model menjadi seperti gambar di bawah ini.

model regresinya adalah: Y = c + b1.X + b2.Z + b3.X.Z + e, dalam bukunya, Hayes (2018) menjelaskan bahwa variabel Z akan menjadi moderator yang kuat jika nilai b3 signifikan pada model regresi di atas.

Kita lakukan proses regresi dengan perintah di bawah ini,

 > modelkita <- lm(SMP~KM*CI, data = table12reg)
 > summary(modelkita) 

 Call:
 lm(formula = SMP ~ KM * CI, data = table12reg)

 Residuals:
     Min      1Q  Median      3Q     Max 
 -6.9826 -0.8869  0.0943  1.0341  4.8728 

 Coefficients:
              Estimate Std. Error t value Pr(>|t|)    
 (Intercept) -2.340687   2.111058  -1.109  0.26942    
 KM           0.314829   0.117498   2.679  0.00825 ** 
 CI           1.022098   0.162034   6.308 3.42e-09 ***
 KM:CI       -0.015295   0.008065  -1.897  0.05994 .  
 ----
 Signif. codes:  
 0 '***' 0.001 '**' 0.01 '*' 0.05 ‘.’ 0.1 ‘ ’ 1

 Residual standard error: 1.987 on 141 degrees of freedom
 Multiple R-squared:  0.6328,    Adjusted R-squared:  0.625 
 F-statistic: 81.01 on 3 and 141 DF,  p-value: < 2.2e-16

dari pengujian regresi linier di atas kita dapatkan nilai b3 sebesar -0.01529 dan tidak signifikan pada model (p-value 0.05994), sehingga dapat disimpulkan bahwa variabel Z (competitive intelligene) tidak menjadi moderator bagi pengaruh variabel X (knowledge management) pada variabel Y (strategic management process).

Simple slopes test

Kita akan melakukan pengujian simple slopes test, untuk melihat bagaimana setiap perubahan pada nilai varibel moderasi (Z) akan memberikan perubahan pada pengaruh variabel independent (X) ke variabel dependent (Y). Simple slopes test dapat dilakukan dengan perintah plotSlops() dan testSlopes() yang ada pada package rockchalk.

 > library(rockchalk) 
 > uji.slopes <- plotSlopes(modelkita, plotx="KM", modx="CI", n=3, modxVals="std.dev.")
 > hasil.uji.slopes <- testSlopes(uji.slopes)
   
Values of CI INSIDE this interval:
        lo         hi 
-145.08827   15.36297 
cause the slope of (b1 + b2*CI)KM to be statistically significant 

perintah plotSlopes() di atas akan menghasilkan grafik di bawah ini, tiga garis menunjukkan perubahan nilai Y dengan perubahan X dan Z, dimana nilai Z dimasukkan pada perintah plotSlops() otomatis digunakan tiga nilai Z yaitu mean, mean-SD dan mean+SD.

Lanjutkan dengan perintah di bawah ini untuk melihat hasil simple slopes test,

 > round(hasil.uji.slopes$hypotests,4)
 
        "CI"  slope Std. Error t value Pr(>|t|)
 (m-sd) 10.59 0.1529     0.0461  3.3150   0.0012
 (m)    13.54 0.1077     0.0383  2.8093   0.0057
 (m+sd) 16.49 0.0626     0.0441  1.4189   0.1581 

dari hasil di atas dapat kita lihat bahwa beberapa nilai variabel moderasi akan menghasilkan persamaan linier pengaruh variabel independent ke variabel dependent dengan nilai p-values yang tidak signifikan, saat nilai variabel moderasi = m, p-values nya 0.0057, saat saat nilai variabel moderasi = m+sd, p-values nya 0.1581. Menunjukkan tidak konsisten/signifikannya variabel competitive intelligence dalam memoderasi pengaruh knowledge management ke strategic management process.

Kita dapat membuat variasi pengujian simple slopes test dengan baris perintah di bawah ini,

> uji.slopes <- plotSlopes(modelkita, plotx="KM", modx="CI", n=5, modxVals="quantile")

bagaimana hasilnya? kami tunggu feedback nya ya, semoga lancar semua.

References
Hayes, A. F. (2018). Introduction to Mediation, Moderation, and Conditional Process Analysis, Second Edition: A Regression-Based Approach. New York: Guilford Publications.

Analisis Mediasi dengan R

Artikel ini akan memberikan contoh bagaimana melakukan analisis mediasi dengan pemrograman R. Pada contoh ini kita akan menggunakan data tabel12reg.xlsx yang dapat di-download di sini, dapat terlebih dahulu di-import ke dalam RStudio dengan cara di video ini. Proses regresi linier dengan pemrograman R dapat dilihat pada tutorial sebelumnya di artikel ini. Metode analisis mediasi ini akan menggunakan metode yang dikembangkan oleh Baron & Kenny (1986) yang berbasis pada analisis regresi linier sederhana dan regresi linier berganda.

Misal kita memiliki model di bawah ini, kita akan menguji apakah variabel M menjadi mediator pengaruh variabel X ke Y.

ada 3 tahap analisis mediasi yang akan dilakukan

#Tahap1
Pengujian regresi linier sederhana variabel X ke Y,

diharapakan ada pengaruh signifikan X ke Y, namun ada beberapa pendapat yang menyatakan tidak terlalu penting untuk melakukan #Tahap1 ini selama ada teori yang kuat terkait variabel X dan Y ini,

#Tahap1
> model.0 <- lm(SMP~KM, data = table12reg)
> summary(model.0) 

 Call:
 lm(formula = SMP ~ KM, data = table12reg)
 
 Residuals:
     Min      1Q  Median      3Q     Max 
 -6.6226 -1.5486 -0.0423  1.6861  9.8711 
 
 Coefficients:
             Estimate Std. Error t value Pr(>|t|)    
 (Intercept)  6.40061    0.89703   7.135 4.45e-11 ***
 KM           0.34567    0.04173   8.284 7.76e-14 ***
 Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 ‘.’ 0.1 ‘ ’ 1
 
 Residual standard error: 2.677 on 143 degrees of freedom
 Multiple R-squared:  0.3243,    Adjusted R-squared:  0.3196 
 F-statistic: 68.63 on 1 and 143 DF,  p-value: 7.76e-14

dari proses #Tahap1 didapat bahwa variabel X memiliki tingkat signifikansi dengan p-value 7.76e-14 pada variabel Y.

#Tahap2
Pengujian regresi linier sederhana variabel X ke M,

variabel X harus berpengaruh signifikan ke M untuk bisa melanjutkan pengujian mediasi.

#Tahap2
> model.M <- lm(CI~KM, data = table12reg)
> summary(model.M) 

 Call:
 lm(formula = CI ~ KM, data = table12reg)

 Residuals:
     Min      1Q  Median      3Q     Max 
 -5.4035 -1.8647  0.1085  1.1085  9.5965 

 Coefficients:
             Estimate Std. Error t value Pr(>|t|)    
 (Intercept)   6.7815     0.8018   8.458 2.89e-14 ***
 KM            0.3244     0.0373   8.698 7.28e-15 ***
 Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 ‘.’ 0.1 ‘ ’ 1

 Residual standard error: 2.393 on 143 degrees of freedom
 Multiple R-squared:  0.346,    Adjusted R-squared:  0.3414 
 F-statistic: 75.66 on 1 and 143 DF,  p-value: 7.276e-15

dari proses #Tahap2 didapatkan bahwa variabel Knowledge Management (X) berpengaruh signifikan pada variabel Competitive intelligence (M) dengan nilai p-value 7.28e-15.

#Tahap3
Pengujian regresi linier berganda variabel X dan M ke Y,

pada pengujian #Tahap3, M harus signifikan pada Y, jika signifikansi X terhadap Y turun, maka M adalah variabel mediasi sebagian pengaruh X pada Y, jika variabel X berpengaruh tidak signifikan pada Y, maka M adalah sebagai mediator penuh X pada Y.

#Tahap3
#multiple regression
> model.Y <- lm(SMP~KM+CI, data = table12reg)
> summary(model.Y)
 
 Call:
 lm(formula = SMP ~ KM + CI, data = table12reg)
 Residuals:
     Min      1Q  Median      3Q     Max 
 -6.8578 -0.9147  0.0728  1.0631  5.1673
 
 Coefficients:
             Estimate Std. Error t value Pr(>|t|)    
 (Intercept)  1.35207    0.82306   1.643  0.10265    
 KM           0.10416    0.03865   2.695  0.00789 ** 
 CI           0.74446    0.07008  10.622  < 2e-16 ***
 Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 ‘.’ 0.1 ‘ ’ 1

 Residual standard error: 2.005 on 142 degrees of freedom
 Multiple R-squared:  0.6235,    Adjusted R-squared:  0.6182 
 F-statistic: 117.6 on 2 and 142 DF,  p-value: < 2.2e-16

dari hasil pengujian pada #Tahap3 kita dapatkan bahwa variabel M berpengaruh signifikan pada variabel Y (p-value < 2e-16) dan signifikansi variabel X pada variabel Y mengalami penurunan dimana nilai p-value menjadi 0.00789, dibandingkan sebelum ada varibel M (proses #Tahap1) dengan p-value adalah 7.76e-14. Pengujian pada 3 tahapan di atas memberikan kesimpulan bahwa variabel M menjadi mediator sebagian pengaruh variabel X kepada variabel Y.

References
Baron, R. M., & Kenny, D. A. (1986). The moderator–mediator variable distinction in social psychological research: Conceptual, strategic, and statistical considerations. Journal of Personality and Social Psychology, 5, 1173-1182.

Uji Beda (Paired & Unpaired Sample t-Test) dengan R

Paired Sample t-Test

Artikel ini memberikan contoh analisis uji Beda data berpasangan bisanya digunakan untuk uji beda rata-rata dua data dari sumber yang sama dengan perlakuan/karakteristik yang berbeda pada masing-masing kelompok data, berikut ini adalah contoh data nilai math waktu SD dan SMA (sederajat) dari 22 orang mahasiswa, misal nama datanya adalah dataPaired.xlsx, kita lakukan import data terlebih dahulu ke RStudio.

tingkatnilaimath
mathSD8
mathSD7
mathSD7
mathSD9
mathSD7
mathSD9
mathSD9
mathSD5
mathSD5
mathSD8
mathSD5
mathSD5
mathSD8
mathSD9
mathSD5
mathSD8
mathSD7
mathSD7
mathSD9
mathSD4
mathSD10
mathSD3
mathSMA5
mathSMA6
mathSMA7
mathSMA9
mathSMA8
mathSMA8
mathSMA8
mathSMA5
mathSMA8
mathSMA7
mathSMA6
mathSMA6
mathSMA8
mathSMA8
mathSMA5
mathSMA3
mathSMA9
mathSMA7
mathSMA7
mathSMA6
mathSMA6
mathSMA7

Sebelum dilakukan t-test, kita akan menguji beberapa asumsi yang harus dipenuhi dari data kita, yaitu apakah data merupakan data berpasangan? apakah data besar atau kecil? jika kecil apakah selisih kedua kelompok data berdistribusi normal?

Asumsi #1 apakah data berpasangan, iya karena dua kelompok data berasal dari satu kelompok sumber yang sama.

Asumsi #2, karena data berjumlah sedikit, n<30 maka perlu dilakukan uji normalitas, kita lakukan dengan Shapiro-Wilk normality test, dengan perintah di bawah ini,

#compute the difference

> selisihnilai <- with(dataPaired,nilaimath[tingkat == "mathSD"] - nilaimath[tingkat == "mathSMA"])

#Shapiro-Wilk normality test for the differences

> shapiro.test(selisihnilai)

Shapiro-Wilk normality test
data: selisihnilai
W = 0.96213, p-value = 0.5335

Hasil di atas menunjukkan nilai p-value 0.5335 lebih besar dari significance level 0.05 yang artinya distribusi dari selisih kedua data berdistribusi normal, sehingga asumsi normalitas terpenuhi.

Langkah selanjutnya kita akan menguji hipotesis di bawah ini,

h0: tidak ada perbedaan signifikan rata-rata nilai di masa SD dengan masa SMA

ha: ada perbedaan signifikan rata-rata nilai di masa SD dengan masa SMA

Setelah data kita import ke RStudio, maka kita gunakan perintah di bawah ini untuk analisis uji beda rata-rata,

> ttestKita <- t.test(nilaimath ~ tingkat, data = dataPaired, paired = TRUE)
> ttestKita
       Paired t-test
 
data:  nilaimath by tingkat
t = 0.50422, df = 21, p-value = 0.6194
alternative hypothesis: true difference in means is not equal to 0
95 percent confidence interval:
 -0.7100959  1.1646413
sample estimates:
mean of the differences 
               0.2272727 

Hasil pengujian di atas menunjukkan nilai p-value sebesar 0.6194, lebih besar dari significance level alpha = 0.05. sehingga dapat dinyatakan kita menerima null hypothesis (h0) dan menyimpulkan bahwa tidak ada perbedaan signifikan nilai math mahasiswa sewaktu SD dan SMA.

Unpaired Sample t-Test

Kita akan membahas Unpaired Sample t-Test dengan contoh di bawah ini, tabel dataWisatawan.xlsx adalah data wisatawan yang datang ke kotaA dan kotaB tahun selama 10 tahun seperti di bawah ini,

kotawisatawan
kotaA8322
kotaA11248
kotaA11365
kotaA12172
kotaA15384
kotaA14405
kotaA19029
kotaA17286
kotaA10080
kotaA17676
kotaB8000
kotaB6500
kotaB13889
kotaB13580
kotaB14200
kotaB16869
kotaB16870
kotaB15366
kotaB11674
kotaB16417

Seperti biasa setelah data di import ke RStudio, sebelum dilakukan unpaired sample t-test, kita akan menguji beberapa asumsi yang harus dipenuhi dari data kita, yaitu:

Asumsi #1, apakah data merupakan data yang tidak saling berpasangan? ya, karena data merupakan data kunjungan wisatawan di dua kota yang berbeda,

Asumsi #2, apakah kedua kelompok data berdistribusi normal? maka akan dilakukan uji normalitas dengan Shapiro-Wilk test, dengan perintah di bawah ini,

#Shapiro-Wilk normality test for kotaA
> with(dataWisatawan, shapiro.test(wisatawan[kota == "kotaA"]))

Shapiro-Wilk normality test
data: wisatawan[kota == "kotaA"]
W = 0.952, p-value = 0.6922

#Shapiro-Wilk normality test for kotaB
> with(dataWisatawan, shapiro.test(wisatawan[kota == "kotaB"]))

Shapiro-Wilk normality test
data: wisatawan[kota == "kotaB"]
W = 0.86963, p-value = 0.09898

Hasil pengujian diatas didapat kedua nilai p-values lebih besar dari significance level 0.05 yang menunjukkan distribusi data tidak berbeda dari normal distribution, dengan kata lain asumsi normalitas terpenuhi.

Asumsi #3, apakah varians kedua data adalah sama? akan dilakukan pengujian F-test untuk menguji homogeneity pada variances, dengan function var.test() seperti di bawah ini,

> variancetest <- var.test(wisatawan ~ kota, data = dataWisatawan)
> variancetest

F test to compare two variances
data: wisatawan by kota
F = 0.98779, num df = 9, denom df = 9, p-value = 0.9857
alternative hypothesis: true ratio of variances is not equal to 1
95 percent confidence interval:
0.2453523 3.9768252
sample estimates:
ratio of variances
0.9877871

Nilai p-value dari F-test adalah 0.9857, lebih besar dari significance level alpha = 0.05, menunjukkan tidak ada perbedaan signifikan antara variance kedua data, sehingga kita dapat lanjutkan ke tahap t-test dengan perintah di bawah ini,

> ttestKita <- t.test(wisatawan ~ kota, data = dataWisatawan, var.equal = TRUE)
> ttestKita

Two Sample t-test
data: wisatawan by kota
t = 0.22344, df = 18, p-value = 0.8257
alternative hypothesis: true difference in means is not equal to 0
95 percent confidence interval:
-3026.625 3747.025
sample estimates:
mean in group kotaA mean in group kotaB
13696.7 13336.5

Nilai p-value hasil pengujian sebesar 0.8257 yang lebih besar dari nilai significance level alpha = 0.05 menunjukkan bahwa tidak ada perbedaan signifikan kunjungan wisatawan antara keduanya kotaA dan kotaB.

Analisis Faktor (PCA) dengan R

Principal Component Analysis (PCA) adalah salah satu metode statistik multivariat yang memungkinkan kita untuk melihat pola maupun variasi dalam data. PCA digunakan untuk menganalisis satu kelompok data hasil pengamatan yang dihasilkan dari indikator penelitian yang banyak untuk menghasilkan beberapa gagasan atau komponen utama, yang tidak berkorelasi satu sama lain dan menjelaskan variasi dalam data. PCA memungkinkan untuk digunakan dalam proses reduksi data kompleks menjadi kelompok dimensi untuk mengungkapkan struktur/komponen dominan dalam pengamatan dan kelompok data. Kita lihat langsung contohnya pada pemrograman R, data yang akan saya gunakan adalah data hasil penelitian saya yang sudah dipublikasikan dengan judul Knowledge management key factors: an empirical research on small and medium-sized enterprises in Indonesia, data penelitian ini dapat didownload di sini.

Kita akan menggunakan perintah principal() dari package psych untuk melakukan proses PCA, langkah awal seperti biasa adalah dengan melakukan import data file kita ke RStudio, data di contoh kita kali ini diberi nama datapca, data kita berada pada kolom 1 sampai 31, lakukan proses PCA dengan perintah di bawah ini,

   > library(psych)
   > pcaKu <- principal(datapca[1:31])
   > pcaKu[["values"]]
    [1] 16.7152235  2.2354955  1.3553517  1.0842009  1.0137432
    [6]  0.7397658  0.6195730  0.5542447  0.5267381  0.4924132
   [11]  0.4473847  0.4109380  0.3939930  0.3789867  0.3564000
   [16]  0.3380990  0.3244409  0.3017411  0.2854721  0.2630089
   [21]  0.2604172  0.2459034  0.2260510  0.2106246  0.2048379
   [26]  0.2032162  0.1879858  0.1625772  0.1570976  0.1553930
   [31]  0.1486821 

dari langkah di atas kita lihat bahwa ada 5 faktor utama dengan nilai eigenvalues di atas 1, dapat kita nyatakan akan ada lima faktor utama dari data kita, kita akan terapkan jenis rotation oblimin pada contoh ini. Langkah selanjutnya adalah dengan perintah di bawah ini,

 > pcaKu <- principal(datapca[1:31],nfactors=5,rotate="oblimin")
 > pcaKu[["loadings"]] 
 Loadings:
        TC1    TC2    TC4    TC3    TC5   
 var1                        0.889       
 var2                 0.144  0.829       
 var3   0.541                0.439 -0.121
 var4   0.851                0.141 -0.128
 var5   0.520         0.493        -0.258
 var6   0.408  0.580                     
 var7   0.307  0.591  0.116        -0.226
 var8   0.684  0.167         0.175       
 var9   0.152  0.722 -0.159  0.153       
 var10  0.333  0.654 -0.175              
 var11  0.373  0.136  0.506  0.117 -0.159
 var12                0.718  0.164       
 var13  0.273  0.512                0.234
 var14  0.702  0.177                     
 var15  0.689  0.150                     
 var16  0.351  0.246  0.423         0.116
 var17 -0.268  0.894  0.263              
 var18  0.152  0.106  0.271  0.230  0.499
 var19  0.315  0.130                0.557
 var20  0.103         0.670         0.297
 var21  0.655         0.206         0.234
 var22         0.733                0.306
 var23  0.740 -0.134  0.194         0.125
 var24  0.613                       0.332
 var25  0.131         0.642  0.130       
 var26  0.747         0.214              
 var27  0.840  0.130                     
 var28  0.413  0.162  0.170  0.144  0.334
 var29  0.805         0.131              
 var30  0.495         0.472              
 var31  0.756                       0.126 
               TC1   TC2   TC4   TC3   TC5
 SS loadings    7.936 3.518 2.720 1.927 1.345
 Proportion Var 0.256 0.113 0.088 0.062 0.043
 Cumulative Var 0.256 0.369 0.457 0.519 0.563

dari hasil di atas kita dapat tentukan indikator pada setiap komponen utama yang kita dapatkan, tahapan yang cukup menantang selanjutnya adalah memberikan nama untuk faktor utama yang didapat, tentu perlu analisis mendalam terhadap setiap kelompok faktor yang didapat, pemberian nama harus mampu menggambarkan karakter khusus dari setiap komponen/faktor nya.

Pada hasil penelitian kami di atas, 5 komponen utama (loading Bold) itu kami namakan sebagai 1. knowledge-preneur leadership; component 2. techno-preneur Harmony; component 3. organisational K-partnership; component 4. knowledge-preneur employee; dan component 5. socialisation palisade. Penjelasan detail setiap komponen dapat dibaca lebih jelas di artikel penelitian kami di sini. Selamat mencoba PCA.

Uji Validitas dan Reliabilitas Instrumen dengan R

Artikel ini akan membahas contoh bagaimana melakukan pengujian validitas dan reliabilitas instrumen kuesionair sebelum digunakan untuk mengumpulkan data sample penelitian.

Misalkan kita akan menguji 2 variabel yang bernama KnowledgePreneur Leadership (KPL) yang memiliki 7 indikator dan Technopreneur Harmony (TPH) dengan 5 indikator, kita telah mengumpulkan beberapa data awal untuk pengujian, dengan data tabel9 di bawah ini ada 23 data pengujian yang dikumpulkan, langkah berikutnya adalah import data kita ke data frame di R, jika anda adalah pengguna awal R, silahkan dapat melihat artikel tutorial kami sebelumnya mengenai proses import data ke R,

respKPL1KPL2KPL3KPL4KPL5KPL6KPL7TPH1TPH2TPH3TPH4TPH5
1534553535234
2555555555554
3556565564554
4655564566666
5656666643644
6545243552554
7324343564342
8666666664456
9653363555566
10323533311233
11555555555555
12666666666544
13554645666656
14655665544444
15555535553335
16555555555555
17655635622666
18556656555546
19554655444454
20666656666665
21443634333333
22554654665655
23554654555544

Pengujian Validitas Instrumen variabel KPL

Pengujian validitas instrumen kita akan lakukan dengan pengukuran korelasi antar indikator dengan total untuk tiap variabelnya. Pengukuran korelasi akan menggunakan fungsi cor() dan bantuan package dplyr untuk fungsi select() dengan perintah di bawah ini,

Pengujian validitas pada variabel KPL

> library(dplyr)
> cor(select(table9, KPL1, KPL2, KPL3, KPL4, KPL5, KPL6, KPL7, sumKPL))
  
             KPL1      KPL2      KPL3      KPL4      KPL5
   KPL1   1.0000000 0.8321850 0.5585926 0.2948178 0.6108004
   KPL2   0.8321850 1.0000000 0.6000601 0.4752553 0.5095512
   KPL3   0.5585926 0.6000601 1.0000000 0.2519275 0.4598479
   KPL4   0.2948178 0.4752553 0.2519275 1.0000000 0.1079729
   KPL5   0.6108004 0.5095512 0.4598479 0.1079729 1.0000000
   KPL6   0.5431911 0.7651682 0.7801599 0.6733389 0.3321937
   KPL7   0.6623912 0.5851437 0.6114632 0.1696273 0.4171469
   sumKPL 0.8299236 0.8937834 0.7958107 0.5829337 0.6417921
               KPL6      KPL7    sumKPL
   KPL1   0.5431911 0.6623912 0.8299236
   KPL2   0.7651682 0.5851437 0.8937834
   KPL3   0.7801599 0.6114632 0.7958107
   KPL4   0.6733389 0.1696273 0.5829337
   KPL5   0.3321937 0.4171469 0.6417921
   KPL6   1.0000000 0.4871728 0.8720856
   KPL7   0.4871728 1.0000000 0.7133480
   sumKPL 0.8720856 0.7133480 1.0000000 

kita dapatkan bahwa korelasi setiap indikator untuk variabel KPL adalah di atas 0.5 (yang di bold), hal ini menunjukkan hubungan yang kuat antara indikator dengan variabel KPL atau dapat dikatakan setiap indikator yang kita gunakan untuk mengukur variabel KPL sudah valid.

Pengujian Reliabilitas Instrumen variabel KPL

Pengujian reliabilitas instrumen kita akan lakukan dengan pengukuran Cronbach’s α dari data, analisis Reliability akan memerlukan tambahan fungsi alpha() dari package psych (mungkin perlu diinstal terlebih dahulu), selanjutnya uji reliabilitas dilakukan dengan perintah di bawah ini,

> library(dplyr)
> library(psych)
> alpha(select(table9,KPL1,KPL2,KPL3,KPL4,KPL5,KPL6,KPL7)) 
 
 Reliability analysis 
 Call: alpha(x = select(table9, KPL1, KPL2, KPL3, KPL4, KPL5, KPL6,
     KPL7))
 raw_alpha std.alpha G6(smc) average_r S/N   ase mean   sd
       0.87      0.88    0.93      0.51 7.3 0.041  4.9 0.77
  median_r
      0.54
 lower alpha upper     95% confidence boundaries
 0.8 0.87 0.95
 
Reliability if an item is dropped:
      raw_alpha std.alpha G6(smc) average_r S/N alpha se var.r
 KPL1      0.84      0.85    0.90      0.48 5.6    0.050 0.040
 KPL2      0.83      0.84    0.89      0.46 5.2    0.056 0.039
 KPL3      0.85      0.86    0.89      0.50 5.9    0.050 0.043
 KPL4      0.89      0.89    0.92      0.58 8.4    0.036 0.019
 KPL5      0.88      0.88    0.94      0.55 7.4    0.040 0.037
 KPL6      0.83      0.85    0.86      0.48 5.5    0.054 0.039
 KPL7      0.86      0.87    0.93      0.52 6.5    0.046 0.043
      med.r
 KPL1  0.49
 KPL2  0.49
 KPL3  0.51
 KPL4  0.59
 KPL5  0.59
 KPL6  0.51
 KPL7  0.54
 
Item statistics
       n raw.r std.r r.cor r.drop mean   sd
 KPL1 23  0.83  0.84  0.84   0.77  5.1 0.87
 KPL2 23  0.89  0.89  0.90   0.84  4.7 1.06
 KPL3 23  0.80  0.80  0.79   0.71  4.7 1.01
 KPL4 23  0.58  0.56  0.51   0.42  5.2 1.13
 KPL5 23  0.64  0.64  0.56   0.50  4.8 1.07
 KPL6 23  0.87  0.86  0.87   0.81  4.6 1.08
 KPL7 23  0.71  0.74  0.67   0.62  5.1 0.85
 
Non missing response frequency for each item
         2    3    4    5    6 miss
 KPL1 0.00 0.09 0.04 0.52 0.35    0
 KPL2 0.09 0.04 0.09 0.65 0.13    0
 KPL3 0.00 0.13 0.26 0.35 0.26    0
 KPL4 0.04 0.09 0.00 0.35 0.52    0
 KPL5 0.00 0.17 0.13 0.39 0.30    0
 KPL6 0.00 0.22 0.17 0.39 0.22    0
 KPL7 0.00 0.09 0.04 0.57 0.30    0

dari hasil pengujian di atas kita lihat nilai raw_alpha sebesar 0.87 menunjukkan nilai reliabilitas yang sudah cukup bagus untuk indikator variabel KPL.

Pengujian di atas menunjukkan bahwa instrumen variabel KPL sudah layak digunakan untuk pengumpulan data sample penelitian. Bagaimana dengan variabel TPH, silahkan anda mencobanya, jika langkah anda tepat maka seharusnya akan didapat: Korelasi TPH1 0.7746555, TPH2 0.7686643, TPH3 0.8262377, TPH4 0.7754025, TPH5 0.7032110, dan Cronbach’s α 0.82

Demikian tutorial untuk pengujian instrumen penelitian anda, selamat mencoba, sukses selalu.

Intro to R Programing

Literasi Data
Literasi data menjadi salah satu literasi utama yang harus dimiliki oleh generasi mendatang untuk bisa maju bersama di tingkat global, kemampuan tata kelola pengetahuan yang dihasilkan dari pengolahan data menjadi salah satu aset utama organisasi (Sundiman, 2017).

Mengapa R?
Pertama kali dikembangkan oleh Robert Gentleman dan Ross Ihaka tahun 1993

  • Terus dikembangkan hingga saat ini
  • Memiliki paket pengolahan statistic sangat lengkap
  • Gratis dan bebas digunakan

Sumber instalasi R
www.r-project.org atau repo.bppt.go.id/cran/

Instalasi RStudio
RStudio is integrated development environment (IDE) for R
www.rstudio.com

Berikut ini adalah video kami di Youtube Pemrograman R untuk Pemula

References
Sundiman, D. (2017). Human Resource Management in the Enhancement Processes of Knowledge Management. Binus Business Review, 8(3), 167-173. doi:https://doi.org/10.21512/bbr.v8i3.3708