BAB III METODE PENELITIAN 3.1 Jenis dan Sumber Data Data yang digunakan dalam penelitian ini berasal dari data sekunder dengan jenis data bulanan mulai tahun 2004 sampai dengan tahun 2011 (bulan September). Data yang dikumpulkan berupa data jasa pelayanan pelabuhan, yaitu jasa labuh, jasa tambat, jasa air kapal, jasa dermaga, jasa penumpukan, jasa listrik, jasa air umum, dan pendapatan Pelabuhan Sunda Kelapa. Sumber data diperoleh dari publikasi Sistem Informasi Operasional Pelabuhan (Simoppel) PT. (Persero) Pelabuhan Indonesia II Cabang Sunda Kelapa. 3.2 Metode Analisis Metode analisis yang digunakan dalam penelitian ini terdiri dari analisis deskriptif, analisis komponen utama, analisis faktor, dan analisis regresi linier berganda dari faktor-faktor yang terbentuk. Pengolahan data pada penelitian ini dilakukan dengan menggunakan paket program komputer yaitu Microsoft Excel 2010 dan SPSS 19.0 for windows. 3.2.1. Analisis Deskriptif Analisis deskriptif digunakan untuk mendapat gambaran dan penjelasan mengenai perkembangan jasa labuh, jasa tambat, jasa air kapal, jasa dermaga, jasa penumpukan, jasa listrik, jasa air umum, dan pendapatan Pelabuhan Sunda
15 Kelapa. Pada tahapan ini pembahasan dilakukan dengan mengamati data yang tersedia berdasarkan kondisi dan fenomena yang terjadi di Pelabuhan Sunda Kelapa dalam periode pengamatan tahun 2004-2011, disertai beberapa argumen untuk menjelaskan fenomena yang ada. Analisis ini dilakukan melalui analisis grafik yang berisi data-data yang telah dikumpulkan. 3.2.2. Analisis Komponen Utama Penelitian dengan menggunakan banyak variabel sulit untuk dapat langsung menarik kesimpulan. Untuk menganalisa dengan cara yang lebih mudah tanpa mengurangi atau menghilangkan informasi yang berharga dari data yang diperoleh, maka digunakan analisis komponen utama. Metode ini ditemukan oleh Pearson (1901) yang kemudian dikembangkan oleh Hotteling (1993). Menurut Widarjono (2010) analisis komponen utama merupakan teknik analisis statistik untuk mentransformasi variabel-variabel asli yang masih saling berkorelasi satu dengan yang lain menjadi satu set variabel baru yang tidak berkorelasi lagi. Variabel-variabel baru itu disebut sebagai komponen utama yang merupakan kombinasi linier dari variabel-variabel asli. Keragaman total adalah: Var = λ 1 + λ 2 + + λ p dimana λ 1 + λ 2 + + λ p adalah akar ciri komponen utama. Besarnya proporsi dari varian total populasi yang dapat diterangkan oleh komponen utama ke-j adalah: Proporsi j = λj λ1 + λ2 + + λp 100% ; j = 1,2,,p
16 sehingga nilai proporsi dari varian total yang dapat diterapkan oleh komponen utama secara bersama-sama adalah semaksimal mungkin dengan meminimalisasi informasi yang hilang. Meskipun jumlah komponen utama berkurang dari variabel asal tetapi informasi yang diberikan tidak berubah. Menurut Widarjono (2010), pemilihan komponen utama yang digunakan adalah jika nilai akar cirinya lebih dari 1 (λ j > 1). Jika ukuran dari variabel asal tidak sama, maka setiap nilai pengamatan ditransformasikan ke nilai baku Z (distandardisasi). Langkah selanjutnya dalam analisis ini adalah melakukan pengujian terhadap matriks korelasi yang digunakan untuk melihat keeratan hubungan antara variabel satu dengan yang lainnya. Ada dua macam pengujian yang dapat dilakukan terhadap matriks korelasi, yaitu: a. Uji Bartlett Jika sebagian besar dari koefisien korelasi kurang 0,5 maka dilakukan uji Bartlett. Uji tersebut digunakan untuk melihat apakah matriks uji korelasinya bukan merupakan matriks identitas. Urutan pengujiannya sebagai berikut: 1. Hipotesis H 0 : matriks korelasi merupakan matriks identitas H 1 : matriks korelasi bukan merupakan matriks identitas 2. Statistik Uji 2 χ obs = (N 1) (2p + 5) ln R 6 dimana: N = jumlah observasi p = jumlah variabel R = determinan matriks korelasi
17 3. Keputusan 2 Pengujian Bartlett akan menolak H 0 jika nilai χ obs > χ tabel (Widarjono, 2010) b. Uji Kaiser Meyer Olkin Syarat utama dari analisis faktor adalah terdapatnya hubungan linier antara variabel-variabel yang akan dianalisis. Selanjutnya untuk mengetahui apakah data layak dianalisis dengan analisis faktor digunakan nilai statistik Kaiser Mayer Olkin (KMO) untuk mengukur kecukupan samplingnya. Adapun formula untuk menghitung KMO sebagai berikut: KMO = i=j r ij 2 r 2 ij + a 2 ij dimana: r ij = koefisien korelasi a ij = koefisien korelasi parsial Nilai KMO yang kecil mengindikasikan bahwa penggunaan analisis faktor harus dipertimbangkan kembali, karena korelasi antar variabel tidak dapat diterangkan oleh variabel lain. Widarjono (2010) menetapkan karateristik pengukuran nilai KMO sebesar: 0,90 < KMO 1,00 data sangat baik untuk analisis faktor 0,80 < KMO 0,90 data baik untuk analisis faktor 0,70 < KMO 0,80 data agak baik untuk analisis faktor 0,60 < KMO 0,70 data lebih dari cukup untuk analisis faktor 0,50 < KMO 0,60 data cukup untuk analisis faktor KMO 0,50 data tidak layak untuk analisis faktor
18 3.2.3. Analisis Faktor Analisis faktor adalah salah satu metode statistik multivariat yang mencoba menerangkan hubungan antara sejumlah variabel-variabel yang saling bebas (independent) antara satu dengan yang lain sehingga bisa dibuat satu atau lebih kumpulan variabel yang lebih sedikit dari jumlah variabel awal. Adapun tujuan dari analisis faktor antara lain: 1. Membuat ringkasan data (data summarization) yaitu untuk mengidentifikasi struktur hubungan antar variabel dengan menguji keterkaitan antar variabel. Sebagai contoh jika ada 10 variabel yang independen satu dengan yang lain, dengan analisis faktor mungkin bisa diringkas menjadi 3 kumpulan variabel baru (new set of variables). Kumpulan variabel tadi disebut faktor, dimana faktor tersebut mencerminkan variabel-variabel aslinya. 2. Data reduction, analisis faktor juga dapat digunakan untuk: a. Mengidentifikasi variabel yang representatif dari sejumlah kumpulan variabel yang banyak digunakan untuk analisis multivariat selanjutnya. b. Menyusun sekumpulan variabel baru yang lebih sedikit jumlahnya untuk mengganti sekumpulan variabel asli, dimana variabel tersebut memiliki sifat sebagai berikut (Widarjono, 2010). i. Mampu menetapkan semaksimal mungkin keragaman data ii. Antar faktor saling bebas iii. Setiap faktor dapat diinterpresentasikan dengan lebih jelas Pada penelitian ini isian data sangat bervariasi dalam satuan, dalam artian ada variabel dengan satuan jutaan gross register ton (labuh) sampai satuan ribuan
19 m 3 (air umum). Perbedaan yang sangat mencolok akan menyebabkan bias dalam analisis faktor sehingga data asli harus ditransformasi (standardisasi) sebelum bisa dianalisis. Proses standardisasi data bisa dilakukan dengan mentransformasi data kebentuk z-score (Santoso, 2010). 3.2.4. Analisis Regresi Linier Berganda Analisis regresi linier berganda merupakan salah satu metode analisis yang sesuai jika masalah penelitian meliputi sebuah variabel tak bebas (dependent variable) yang dianggap berhubungan dengan dua atau lebih variabel bebas (independent variable). Analisis regresi linier berganda dalam penelitian ini dilakukan untuk mengetahui kontribusi masing-masing faktor yang terbentuk dari hasil analisis komponen utama dan analisis faktor terhadap pendapatan pelabuhan. Data yang digunakan dalam analisis regresi linier berganda adalah data kuantitatif, baik untuk variabel bebas maupun tak bebas. Pemakaian data kualitatif pada variabel bebas dimungkinkan dengan mengubahnya menjadi variabel boneka (dummy variable). 3.2.4.1. Penyusunan Model Bentuk umum untuk model regresi dengan variabel tak bebas pendapatan pelabuhan dan variabel bebas merupakan faktor yang terbentuk dalam analisis sebelumnya adalah: Y i = β 0 + β 1 JL i + β 2 JT i + β 3 JD i + β 4 JP i + β 5 JAK i + β 6 JAU i + β 7 JLS i + β 8 D i + ε i Y i = β 0 + β 1 F 1i + β 2 F 2i + β 3 D i + ε i
20 dimana: Y i β 0 β 1,, β 8 JL i JT i = pendapatan pelabuhan (rupiah) = konstanta (intercept) = koefisien regresi = jasa labuh (gross register ton/grt) = jasa tambat (GRT/ETM) JD i = jasa dermaga (ton/m 3 ) JP i = jasa penumpukan (ton/m 3 /hari) JAK i = jasa air kapal (m 3 ) JAU i = jasa air umum (m 3 ) JLS i = jasa listrik (kwh) F 1i = faktor 1 F 2i = faktor 2 D i = perubahan tarif (dummy variable) ε i = kesalahan pengganggu i = periode waktu (2004,2005,,2011) 3.2.4.2. Pemeriksaan Asumsi Model Asumsi-asumsi yang harus dipenuhi oleh suatu model regresi linier berganda antara lain sebagai berikut (Gujarati, 1997):
21 1. E( ε i ǀ X i ) = 0, untuk i = 1,2,3,,n Artinya rata-rata kesalahan pengganggu sama dengan nol atau ε i menyatakan variabel-variabel lain yang memengaruhi P i akan tetapi tidak terwakili dalam model. 2. Cov (ε i, ε j ) = 0; i j Artinya tidak ada korelasi antara kesalahan pengganggu yang satu dengan yang lainnya. 3. Var (ε i ) = σ 2 Artinya setiap kesalahan pengganggu mempunyai varian yang sama atau mempunyai penyebaran yang sama (homokedastisitas). 4. ε i N (0,σ 2 ) Artinya untuk setiap kesalahan pengganggu mengikuti distribusi normal dengan rata-rata 0 dan varian σ 2. 5. Tidak ada multikolinieritas, yaitu tidak ada hubungan linier yang pasti antara variabel-variabel bebas. Uji statistik yang digunakan meliputi uji simultan (uji F) dan uji parsial (uji t). Asumsi-asumsi yang disyaratkan dan harus diuji adalah uji normalitas, uji autokorelasi, uji heterokedastisitas dan uji multikolinieritas.
22 3.2.4.3. Teknik Pemeriksaan Asumsi Model Beberapa teknik pemeriksaan asumsi model regresi berganda antara lain sebagai berikut: 1. Uji Normalitas Uji normalitas adalah uji kesalahan pengganggu atau error apakah mengikuti distribusi normal dengan rata-rata nol dan varian σ 2. Asumsi normalitas diuji dengan menggunakan diagram pencar peluang normal antara probabilita kumulatif residu dengan probabilita kumulatif normal. Jika sebaran identik dengan garis lurus pada normal plot maka asumsi kenormalan terpenuhi (Gujarati, 1997). 2. Uji Multikolinieritas Multikolinieritas artinya terjadinya hubungan linier antara variabel bebas. Dalam model regresi linier yang mencakup lebih dari dua variabel, sering terjadi multikolinieritas. Jika dari hasil pengujian statistiknya, didapatkan R 2 besar, F-test besar, dan t-test juga besar, berarti tidak terjadi multikolinieritas. Kalaupun terjadi, maka derajat multikolinieritasnya rendah sehingga bisa diabaikan. Jadi tingginya kolinieritas, tidak memungkinkan untuk memisahkan pengaruh parsial dan variabel bebas terhadap variabel tak bebas (Y). Atau dapat dikatakan bahwa kehadiran bersama variabel-variabel bebas akan mempunyai pengaruh bersama terhadap Y (joint effect), tetapi jika berdiri sendiri-sendiri, masing-masing secara individu tidak mempunyai pengaruh terhadap Y.
23 Untuk mengetahui adanya multikolinieritas pada suatu model regresi dengan teori L.R. Klein, menggunakan konsep VIF (Variance Inflation Factors). Nilai VIF diperoleh dengan rumus: VIF = 1 = 1 2 Tolerance 1 R j 2 R j adalah koefisien determinasi yang dihasilkan dengan meregresikan variabel penjelas ke-j dengan variabel lainnya. Semakin tinggi nilai R 2 j, VIF akan semakin besar. Suatu model regresi jika memiliki nilai VIF melebihi 5 maka perlu diperhatikan masalah multikolinieritas diantaranya dengan teknik analisis komponen utama dan analisis faktor. 3. Uji Autokorelasi Autokorelasi adalah korelasi antar variabel serangkaian observasi yang diurutkan menurut waktu (seperti dalam data deret waktu) atau ruang (seperti data cross section). Akibat adanya autokorelasi dalam model regresi akan menyebabkan penaksir yang digunakan tidak lagi efisien meskipun penaksir tetap unbiased dan konsisten, selain itu penaksir akan memberikan gambaran yang menyimpang dari nilai populasi yang sebenarnya. Uji untuk mendeteksi apakah hasil regresi melanggar asumsi autokorelasi atau tidak, dilakukan dengan melihat nilai statistik Durbin- Watson (DW). Pengujian hipotesis: H 0 : tidak terdapat autokorelasi H 1 : terdapat autokorelasi
24 Statistik uji: Keputusan: d = n t=2 (e t e t 1 ) 2 n e2 t t=2 d < d L d > 4 d L d U < d < 4 d U d L < d < d U : tolak H 0 (terdapat autokorelasi positif) : tolak H 0 (terdapat autokorelasi negative) : terima H 0 (tidak terdapat autokorelasi) : pengujian tidak meyakinkan 4 d U < d < 4 - d L : pengujian tidak meyakinkan 4. Uji Heterokedastisitas Asumsi yang penting dari model regresi linier adalah bahwa gangguan (disturbance) yang muncul dalam fungsi regresi adalah homokedastisitas, yaitu gangguan tadi mempunyai varian yang sama. Adanya heterokedastisitas mengakibatkan penaksir tidak lagi efisien walaupun penaksir tersebut tetap tak bias dan konsisten, artinya mempunyai varian yang lebih besar dari varian minimum. Untuk mendeteksi apakah telah terjadi heterokedastisitas dapat dilakukan dengan membuat plot data antara nilai-nilai prediksi (ZPRED = Regerssion Standardized Predicted Value) pada sumbu X dengan nilai residualnya (ZRESID = Regression Standardized Predicted Value) pada sumbu Y. Jika ditemukan ada pola tertentu, maka mengindikasikan adanya heterokedastisitas. Jika tidak ada pola yang jelas serta titik-titik menyebar di atas dan di bawah angka nol pada sumbu Y maka dapat dikatakan bahwa tidak terdapat heterokedastisitas (Gujarati, 1997).
25 3.2.4.4. Pengujian terhadap Model Regresi Pengujian yang dilakukan meliputi pengujian: 1. Pengujian Parameter Model Regresi Pengujian penduga parameter dilakukan untuk mengetahui keberatian penduga parameter. Apabila hipotesisnya ditolak, maka penduga parameter tersebut berarti (signifikan). 1.1. Uji F Uji ini dilakukan untuk mengetahui apakah variabel bebas secara simultan mempunyai pengaruh yang signifikan terhadap variabel tak bebas. Pengujian hipotesis: H 0 : β 1 = β 2 = = β p = 0, secara simultan tidak ada variabel bebas yang berpengaruh signifikan terhadap variabel tak bebas. H 1 : βj 0; (j = 1,2,,p), minimal ada satu variabel bebas ke-j yang berpengaruh signifikan terhadap variabel tak bebas. Statistik Uji: = y i 2 /[(p+1) 1] JKS/[n (p+1)] e 2 i /[n (p+1)] F hit = JKR/[(p+1) 1] dimana: JKR = Jumlah Kuadrat Regresi JKS = Jumlah Kuadrat Sisa p+1 = banyaknya parameter termasuk konstanta n α = banyaknya sampel = tingkat kesalahan yang masih diterima (taraf uji) Keputusan: jika F hit > F tabel, maka H 0 ditolak.
26 1.2. Uji t Uji ini dilakukan untuk mengetahui apakah variabel bebas secara parsial mempunyai pengaruh yang signifikan terhadap variabel tak bebas. Pengujian hipotesis: Statistik uji: H 0 : β j = 0, tidak ada pengaruh yang signifikan dari variabel bebas ke-j terhadap variabel tak bebas H 1 : βj 0, ada pengaruh yang signifikan dari variabel bebas ke-j terhadap variabel tak bebas. t hit = β j se(β j ) ; dimana se(β j) = standar error (β j ) Keputusan: jika t hit > t tabel atau t hit < -t tabel, maka H 0 ditolak 2. Koefisien Determinasi (R 2 ) Koefisien determinasi digunakan untuk menilai kemampuan model regresi yaitu proporsi keragaman variabel tak bebas yang dapat ditunjukkan oleh model regresi melalui variabel bebasnya. R 2 = JKR JKT atau R2 = 1 JKT JKS = 1 e i 2 JKT 2 y i Koefisien determinasi memiliki dua sifat penting, yaitu: a. Koefisien determinasi (R 2 ) merupakan besaran nonnegatif. b. Batasnya adalah 0 R 2 1. Jika R 2 bernilai 1 berarti suatu kecocokan sempurna, sedangkan R 2 yang bernilai 0 berarti tidak ada hubungan antara variabel tak bebas dengan variabel yang menjelaskannya.
27 Dalam membandingkan dua model regresi atau lebih menggunakan R 2, maka harus diperhitungkan banyaknya variabel bebas yang ada dalam model regresi. Hal tersebut dapat dilakukan dengan mempertimbangkan koefisien determinasi alternatif yaitu koefisien determinasi yang disesuaikan (R 2 adjusted). Istilah disesuaikan berarti disesuaikan dengan derajat bebasnya (df). Koefisien determinasi yang disesuaikan dirumuskan sebagai berikut: 2 R adj = 1 JKS n p 1 JKT n 1 = 1 e i 2 /(n p 1) y i 2 /(n 1) 3.2.4.5. Pemilihan Model Regresi Terbaik Untuk mendapatkan model regresi terbaik dari variabel-variabel yang diteliti digunakan metode eliminasi backward. Eliminasi backward adalah salah satu prosedur pemilihan model regresi terbaik dalam regresi dengan eliminasi variabel bebas yang membangun model secara bertahap. Langkahlangkahnya sebagai berikut: 1. Masukkan semua variabel bebas ke dalam model regresi. 2. Menghitung nilai F parsial untuk masing-masing variabel bebas dan menguji F parsial tersebut. 3. Membandingkan nilai F parsial dengan F tabel pada α tertentu, jika F parsial terkecil lebih kecil dari F tabel maka variabel bebas tersebut dikeluarkan dari persamaan.
28 4. Menyusun kembali model regresi tanpa mengikutsertakan variabel bebas yang telah dikeluarkan, kemudian ulangi langkah 2. 5. Proses pengurangan variabel bebas berhenti jika tidak ada nilai F parsial < F tabel, yang berarti telah didapat model regresi terbaik.