BAB 3 DATA DAN METODOLOGI PENELITIAN
|
|
|
- Yandi Gunawan
- 9 tahun lalu
- Tontonan:
Transkripsi
1 BAB 3 DATA DAN METODOLOGI PENELITIAN 3.1 Pengantar Di dalam penelitian ini akan dijelaskan secara detil mengenai data penelitian dan hal-hal yang terkait dengan data-data yang akan digunakan dalam penelitian ini. Pada bab ini juga akan dijelaskan sumber data, deskripsi dari sifat data penelitian dan metodologi pengukuran risiko operasional. Metodologi penelitian juga meliputi langkah-langkah penelitian dan flowchart langkah-langkah penelitian. 3.2 Sumber Data Data yang digunakan dalam penelitian ini adalah data LGE overbooking yang merupakan data primer. Data primer berasal dari unit akuntansi PT Garuda Indonesia Kantor Cabang, Bandara Soekarno-Hatta. Data diunduh dari sistem SAP. Data yang digunakan merupakan data harian mulai tahun 2004 sampai dengan tahun 2006 (36 bulan). Data ini merupakan data laporan irregularities harian yang diinput secara harian oleh unit akuntansi. Selanjutnya untuk memudahkan penelitian, data harian ini ditransformasi menjadi data bulanan. Untuk data sekunder diperoleh dari sumber-sumber literatur, bahan pustaka dan situs internet. Data yang digunakan pada penelitian ini merupakan loss given event (LGE) irregular operations berupa kejadian aktual overbooking. Kejadian overbooking ini merupakan LGE yang terjadi pada semua type aircraft, dengan tidak melihat ukuran pesawat baik narrow body ataupun wide body. 3.3 Deskripsi Data Pada Tabel 3.1 adalah deskripsi dari sifat data penelitian yang merupakan langkah awal dari penelitian. Deskripsi ini meliputi perhitungan central tendency dan dispersion, seperti: mean, median, deviation standard. Untuk lebih mewakili karakteristik dari distribusi, deskripsi meliputi: skewness dan kurtosis. Tabel 3.1 Universitas Indonesia Penghitungan beban overbooking..., Indra Pramono, 41 Program Pascasarjana, 2008
2 42 Deskripsi Statistik LGE Overbooking Pada PT Garuda Indonesia Summary Statistics Frekuensi IROPS Severitas (Rp) Mean 4, Standard Error 0, Median 4, Mode 1 - Standard Deviation 3, Sample Variance 10, Kurtosis (0,45736) 14 Skewness 0, Range Minimum 0 0 Maximum Sum Count Sumber: Aktual IROPS diolah, penghitungan dengan software Excel Table 3.1 berisi deskripsi statistik dari kejadian overbooking. Tabel ini memuat penjelasan untuk frekuensi kejadian overbooking, dimana nilai skewness adalah 0,66 dan kurtosis -0,45 sehingga distribusi kejadian overbooking bukan merupakan distribusi normal. Distribusi normal bernilai skewness nol dan kurtosis adalah tiga. Nilai mean distribusi kejadian overbooking sebesar 4,055 lebih besar dari standar deviasi yang bernilai 3,17. Hal ini berarti, bahwa distribusi frekuensi kejadian overbooking dapat berbentuk negative binomial, geometric atau poisson. Dengan bentuk distribusi positively skewed karena nilai skewness adalah 0,66 (>0), sedangkan puncak distribusi berbentuk platykurtic karena nilai kurtosis - 0,45 (<3). Deskripsi statistik untuk distribusi severitas irregular operations untuk kejadian overbooking pada Tabel 3.1 dapat dijelaskan bahwa distribusi severitas kejadian overbooking adalah tidak normal. Hal ini ditunjukan dengan nilai skewness diatas nol dan kurtosis lebih dari tiga. Dengan mengacu kepada nilai median ( ) yang lebih kecil dari nilai mean ( ), berarti bahwa distribusi severitas kejadian overbooking dapat berupa antara lain distribusi: Pearson, Lognormal, Weibull dan Exponential. 3.4 Metodologi Penelitian
3 43 Metodologi penelitian akan menjabarkan tahap demi tahap langkah yang diterapkan dalam penelitian. Pada tahap ini akan dilakukan penelitian untuk menjawab pertanyaan penelitian yang dilakukan melalui lima tahapan yakni; pengumpulan data, penentuan karakteristik distribusi frekuensi kerugian, penentuan karakteristik distribusi kerugian severitas, pengujian Goodness of fit (GoF), dan penghitungan dengan model Aggregating OpVaR (Aggregation OpVaR) Pengumpulan Data Data yang berasal dari berbagai sumber dikumpulkan dalam bentuk softcopy, kemudian dipilah-pilah berdasarkan jenis-jenis kejadian, jumlah frekuensi dan nilai severitasnya. Data kemudian diinput pada komputer untuk dilakukan pemisahan antara data harian dengan bulanan. Data overbooking dimasukan kedalam database pengumpulan data dengan bantuan software MS Excel Selanjutnya dilakukan pengurutan data selama 36 bulan, sesuai dengan frekuensi serta kerugiannya, dimana urutan bulan terkecil yakni Jan-2004 diurutkan dan Des-2006 menjadi terakhir Penentuan Karakteristik Distribusi Frekuensi Overbooking Overbooking merupakan kejadian merugikan loss given event yang bersifat random, dimana tidak ada satupun perusahaan penerbangan yang dapat menentukan dengan pasti kapan akan terjadinya. Distribusi probabilitas sesuai untuk pengukuran risiko operasional karena menggambarkan nilai dan probabilitas yang muncul secara random (acak), nilai yang muncul harus dapat melingkupi dari semua kemungkinan yang muncul di suatu kejadian atau total seluruh probabilitas adalah 1 atau 100%. Dengan distribusi probabilitas, frekuensi kejadian dapat diketahui yang akan terjadi di masa depan (future) berdasarkan suatu tingkat kepercayaan tertentu (confidence level) yang sesuai dengan parameter statistik. Probabilitas distribusi ini dapat digunakan sebagai referensi dalam pengambilan keputusan yang terkait dengan kebijakan perusahaan.
4 44 Distribusi frekuensi kejadian overbooking karena merupakan kejadian random yang bersifat discrete diduga dapat berbentuk distribusi Negative Binomial, Geometric, IntUniform dan Poisson. Sementara itu distribusi severitas yang bersifat continue diduga berbentuk distribusi Exponential, Pearson dan Weibull. Distribusi probabilitas menunjukkan probabilitas yang diperoleh dari setiap nilai variabel yang mungkin diperoleh dari suatu uji statistik dan menurutnya distribusi probabilitas memiliki sifat-sifat berikut: 1. Nilai probabilitas paling besar sama dengan 1, paling kecil sama dengan 0, tidak boleh ada angka negatif dan tidak boleh lebih dari Hubungan atau penjumlahan semua probabilitas dalam satu ruang sampel akan bernilai 1, karena mencangkup semua kemungkinan. 3. Distribusi probabilitas dapat berupa descrete atau continue. 4. Sesuai dengan pola peristiwa, dikenal distribusi probabilitas bervariasi satu atau univariat dan distribusi probabilitas bervariasi dua atau bivariat dan kalau distribusi probabilitas bervariasi banyak disebut multivariat. Dari pengelompokan data yang telah dikumpulkan dalam database, selanjutnya dilakukan uji statistik formal dengan Chi-Square. Chi-Square adalah uji distribusi dengan melakukan tabulasi dari variabel yang ada menjadi masingmasing kategori. Uji ini berkaitan dengan dua karakteristik dari distribusi dasar yakni cummulative distribution function (CDF) dan probability distribution function (PDF). Menurut Muslich (hlm. 59, 2007) test Chi-Square didasarkan pada PDF distribusi yang diasumsikan. Jika distribusi yang diasumsikan ini benar, maka nilai PDF harus mendekati PDF dari data yang dievaluasi. Selanjutnya, berdasarkan PDF dari distribusi yang diasumsikan dihitung nilai Chi-Square-nya. Jika nilai Chi-Square dari distribusi yang diasumsikan lebih kecil dari nilai Chi- Square pada uji statistik maka distribusi yang diasumsikan tersebut adalah benar. Pembuatan frekuensi distribusi kerugian atau frequency of loss distribution irregular operations dan GoF (Goodness of Fit) dilakukan melalui test formal statistik Chi-Square dilakukan dengan tahap-tahap berikut: 1. Membuat Kelas Data
5 45 Membuat kelas data untuk kejadian overbooking dilakukan dengan cara menyusun kelompok data loss event data base overbooking selama 36 bulan ( ) berdasarkan nilai yang terkecil hingga nilai yang terbesar (ascending). 2. Membuat Interval End Membuat interval end data kejadian overbooking dengan cara melakukan penghitungan jarak data mulai dari data yang terkecil hingga data terbesar disesuaikan dengan banyaknya kelas data interval dan disamping itu frekuensi distribusi kerugian haruslah bilangan discrete atau bulat positif. 3. Menghitung Kumulatif dari Probabilitas Menghitung kumulatif probabilitas kejadian overbooking dilakukan dengan cara menghitung dari masing-masing kelas data kejadian overbooking yang harus disesuaikan dengan parameter distribusi yang akan dilakukan pengujian. Fungsi Excel: =poisson(interval data=interval end, mean, true) dengan nilai kumulatif probabilitas untuk kelas data terakhir = Menghitung Probabilitas Menghitung nilai probabilitas kejadian overbooking dilakukan dengan cara menghitung probabilitas kelas data ke-1 sama dengan kumulatif probabilitas kelas data ke-1. Selanjutnya, probabilitas kelas data ke-2 merupakan hasil dari kumulatif probabilitas kelas data ke-2 dikurangi dengan kumulatif probabilitas kelas data ke-1. Dan probabilitas kelas data ke-3 merupakan hasil dari kumulatif probabilitas kelas data ke-3 dikurangi dengan kumulatif probabilitas kelas data ke-2. Lakukan hal ini sehingga seluruh kelas data terpenuhi. Selanjutnya, dilakukan penjumlahan atas semua nilai probabilitas = Menghitung Data yang Diharapkan (Expected Data) Menghitung data kejadian overbooking yang diharapkan atau expected data dari setiap dilakukan dengan cara mengalikan perhitungan pada point 4 dengan total pengamatan, sehingga penjumlahan total data yang diharapkan harus sama dengan total data yang diamati.
6 46 6. Menentukan Data yang Diamati (Observed Data) Menghitung nilai data kejadian overbooking yang diharapkan atau expected data value diawali dengan menentukan nilai frekuensi kumulatif. Fungsi Excel: =frequency(data_array=data sorted,bins_array=interval end). Jumlah kelas dari frekuensi kumulatif sama dengan point 1 atau kelas data. Dan nilai frekuensi kumulatif kelas terakhir sama dengan total data yang diamati. Selanjutnya menghitung frekuensi cell, dimana nilainya untuk kelas data ke-1 sama dengan nilai frekuensi kumulatif kelas data ke-1. Nilai frekuensi kumulatif kelas data ke-2 dihasilkan dari penjumlahan frekuensi kumulatif kelas data ke-2 dengan frekuensi kumulatif kelas data ke-1. Hasil perhitungan pada tahap ini tidak boleh negatif. 7. Menentukan Derajat Kebebasan Menghitung derajat kebebasan (degree of freedom) dilakukan dengan cara menjumlahkan banyaknya kelas data baris (n) dengan jumlah parameter yang diukur (k) dikurangi dengan angka 1. Fungsi Excel untuk menghitung Chi-Square CV =chiinv(probability=α, deg_freedom) 8. Menghitung Nilai Chi-Square Test Menghitung Chi-Square Test dilakukan dengan cara mengurangi nilai observasi dari masing-masing kelas data kejadian overbooking dengan masing-masing nilai kelas data yang diharapkan. Hasil ini kemudian dipangkatkan dengan angka dua, dimana hasil dari pangkat dua ini kemudian dibagi dengan nilai yang diharapkan dari masing-masing kelas data. Selanjutnya dilakukan penjumlahan sehingga menghasilkan nilai Chi-Square, nilai ini kemudian dibandingkan dengan nilai Chi-Square pada frekuensi distribusi kerugian kelas interval. Selanjutnya hasil dari test formal statistik ini dibandingkan dengan hasil uji visual melalui teknik PP Plot (Probability Plot) dengan bantuan ver 4.5. Terakhir, untuk penentuan karakteristik distribusi frekuensi overbooking,
7 47 hasil dari kedua uji distribusi di atas akan dibandingkan dengan hasil uji statistik nonparametric menggunakan uji One Sample Kolmogorov-Smirnov. Test Kolmogorov-Smirnov adalah test statistik yang modelnya tidak menetapkan syarat khusus mengenai parameter populasi yang merupakan induk sampel penelitian. Test satu sampel Kolmogorov-Smirnov adalah test yang melihat tingkat kesesuaian antara distribusi serangkaian nilai sampel atau skor yang diobservasi dengan suatu distribusi teoritisnya. Test ini pada prinsipnya mencangkup penghitungan distribusi frekuensi kumulatif yang akan terjadi dibawah distribusi teoritisnya, dan membandingkannya dengan distribusi kumulatif hasil pengamatan. Test formal statistik untuk uji distribusi Kolmogorov-Smirnov dengan bantuan software SPSS ver 11 dilakukan dengan tahapan seperti berikut: 1. Menyiapkan Data Menyiapkan data yang akan di simulasikan atau di run di SPSS, data berupa kuantitatif dari frekuensi kejadian overbooking. 2. Memindahkan Data Memindahkan data LGE overbooking dari Excel ke SPSS dengan fungsi copy dan paste 3. Menamakan Data Menamakan data dengan overbooking 4. Melakukan Analisa Data Melakukan analisa data kejadian overbooking dengan meng-klik icon analyze pada front page 5. Melakukan Penghitungan Data Melakukan penghitungan data kejadian overbooking dengan meng-klik icon Nonparametric Tests 6. Melakukan Pemilihan Fungsi Simulasi Memilih one sample K-S 7. Memilih Data yang akan disimulasi (test variable list) Memilih data yang akan disimulasi yakni overbooking klik 8. Memilih Test Distribution Memilih uji distribusi yang akan dilakukan, klik Poisson
8 48 9. Melakukan Simulasi atau me-run Data Setelah memilih Test Distribution klik Ok 10. Mengecek Hasil Simulasi Mengecek hasil simulasi berupa descriptive statistic dengan membandingkan nilai Asymp.Sig (2-tailed) dengan 0,05. Bilamana nilai Asymp.Sig (2-tailed) lebih besar dari 0,05 maka data kejadian overbooking adalah benar termasuk distribusi Poisson Pengujian karakteristik distribusi ini dilakukan untuk menjawab pertanyaan bagaimana karakteristik distribusi frekuensi yang diperlukan untuk menghitung beban overbooking dan hipotesis penelitian sebagai berikut: H0: Karakteristik distribusi frekuensi overbooking mengikuti pola distribusi Poisson. H1: Karakteristik distribusi frekuensi overbooking tidak mengikuti pola distribusi Poisson. Bilamana uji terakhir ini menghasilkan H0 tidak ditolak, yakni dimana nilai Asymp.Sig (2-tailed) lebih besar dari 0,05, maka sesuai hipotesis penelitian, distribusi frekuensi data LGE overbooking adalah benar Poisson (H0 diterima) Penentuan Karakteristik Distribusi Severitas Overbooking Penentuan karakteristik distribusi severitas kerugian atau severity of loss distribution atas kejadian overbooking dilakukan sebagaimana ketika membuat distribusi frekuensi kerugian, namun perbedaannya terletak pada saat penentuan interval end dan data yang diamati. Penentuan karakteristik distribusi kerugian severitas ditentukan melalui uji distribusi dengan teknik PP Plot (Probability Plot) atau QQ Plot (Quantile Plot) dengan bantuan ver 4.5 dan terakhir dengan menggunakan test formal statistik dengan Anderson Darling. Data severitas dapat berupa bilangan bulat desimal yang bernilai positif karena datanya berupa countinous distribution, dan hipotesis penelitian ini distribusi kerugian severitas LGE overbooking ini diasumsikan adalah distribusi Weibull.
9 49 Menurut Muslich (hlm. 68, 2007) test karakteristik distribusi severitas kerugian operasional dapat mempergunakan Anderson Darling. Dan menurutnya, uji ini sesuai untuk menguji distribusi Weibull. Uji distribusi dengan Anderson Darling adalah untuk menguji sebuah sampel data yang berasal dari sebuah populasi dengan distribusi yang spesifik. Uji Anderson Darling menggunakan distribusi spesifik dalam menghitung critical value (CV). Test ini memiliki kelebihan sensitivitas lebih baik, namun dengan kelemahan CV harus dihitung untuk setiap distribusi. Hasil uji visual melalui teknik PP Plot (Probability Plot) dengan bantuan ver 4.5 dibandingkan dengan hasil uji distribusi dengan Anderson Darling. Test formal statistik untuk uji distribusi Anderson Darling dengan bantuan software MS Excell 2003 dilakukan dengan tahapan seperti berikut: Tahap I 1. Membuat urutan Data Data di urutkan terlebih dahulu dari yang terkecil hingga terbesar (ascending). Fungsi Excel: sort (A-Z). 2. Membuat rank Membuat kolom rank sesuai jumlah data, mulai dari 1,2.. hingga n data. 3. Menghitung P(x) Menghitung P(x), fungsi Excel: =(rank i 0,3)/(rank n 0,3). 4. Menghitung ln untuk 1-P(x) Menghitung dengan fungsi Excel: =ln(1/(1-p(x))). 5. Menghitung ln untuk ln 1-P(x) Menghitung dengan fungsi Excel: =ln(=ln(1/(1-p(x)))). 6. Menghitung ln data. Menghitung ln Data dengan fungsi Excel: =ln(data) 7. Menghitung parameter seperti: intercept dengan fungsi Excel: =intercept(data x, data y), menghitung slope dengan fungsi Excel: =slope(data x, data y), menghitung beta dimana beta= slope, menghitung alpha dengan fungsi Excel: =exp(intercept/slope). Tahap II
10 50 1. Membuat rank Membuat kolom rank sesuai jumlah data, mulai dari 1,2.. hingga n data 2. Membuat urutan Data Data di urutkan dari nilai terkecil hingga terbesar. 3. Mengitung Z i score Menghitung Z i score dengan fungsi Excel: =(data/alpha)^beta 4. Menghitung exponential Z i Menghitung exponential Z i dengan fungsi Excel: =exp(z i ) 5. Menghitung 1- exponential Z i Menghitung 1- exponential Z i dengan fungsi Excel: =1-(=exp(Z i )) 6. Menghitung ln dari 1- exponential Z i Menghitung ln 1- exponential Z i dengan fungsi Excel: =ln (1-(=exp(Z i ))) 7. Menghitung Z (n+i+1) Menghitung Z(n+i=1) dengan cara menempatkan nilai Z i secara terbalik urutannya. 8. Menghitung (1-2)/n Menghitung (1-2)/n dengan fungsi Excel: =(1-2*data)/n data 9. Menghitung selisih dengan fungsi Excel: = ln (1-(=exp(Z i ))) (Z (n+i+1)) 10. Menghitung perkalian dengan fungsi Excel: =(1-2)/n* ln (1-(=exp(Z i ))) (Z (n+i+1)) 11. Menjumlahkan kolom pada point 10 Menjumlah kolom pada point 10 untuk menentukan nilai AD dengan fungsi Excel: =sum(data)-n 12. Menghitung nilai AD* Menghitung nilai AD* dengan fungsi Excel: =((1+0,2/sqrt(n))*AD) 13. Menghitung OSL (Observed significance Level) Menghitung OSL dengan fungsi Excel: = 1/(((1+exp(- 0,1+1,24*ln(AD*)+4,48*(AD*))))) 14. Membandingkan nilai OSL dengan CV 0,05, jika nilai OSL > dari CV, maka terima H0, distribusi data adalah Weibull
11 51 Pengujian karakteristik distribusi ini dilakukan untuk menjawab pertanyaan bagaimana karakteristik distribusi severitas yang diperlukan untuk menghitung beban overbooking dan hipotesis penelitian sebagai berikut: H0: Karakteristik distribusi severitas overbooking mengikuti pola distribusi Weibull. H1: Karakteristik distribusi severitas overbooking tidak mengikuti pola distribusi Weibull. Bilamana uji terakhir ini menghasilkan H0 tidak ditolak, yakni dimana nilai OSL lebih besar dari CV 0,05, maka sesuai hipotesis penelitian, distribusi severitas LGE overbooking adalah benar Weibull (H0 diterima) Penghitungan Beban Overbooking dengan Model Aggregation OpVaR Pengukuran estimasi loss merupakan suatu hal yang sangat penting dalam manajemen risiko operasional. Pengukuran estimasi loss akan memberikan nilai yang berguna untuk penentuan capital charge, yakni alokasi modal yang dibutuhkan perusahaan untuk menutup kerugian risiko operasional. Advanced Measurement Approach (AMA) merupakan metode pengukuran yang paling sophisticated, metode pengukuran internal ini dikembangkan dari perusahaan dan bukan dari regulator (Basel). Ada beberapa model pengukuran berdasarkan metoda AMA. Menurut Muslich (hlm.14, 2007), model pengukuran AMA dapat dipergunakan untuk perusahaan non-bank. Metoda AMA meliputi model pengukuran: (1) Internal Measurement Approach (IMA); (2) Loss Distribution Approach (LDA); (3) Scoreboard Approach (SA) Dari ketiga model pengukuran ini, untuk perusahaan penerbangan akan menggunakan metode LDA. Dasar penggunaaan model pengukuran LDA karena model ini tidak mensyaratkan factor gamma (γ). Factor gamma dipergunakan pada model IMA untuk menghitung capital charge. Berbeda dengan Bank yang telah mengatur besaran (γ) melalui Komite Basel berdasarkan standar rata-rata industri perbankan secara keseluruhan, industri penerbangan belum memiliki badan regulator yang bertindak sebagai penentu nilai (γ).
12 52 Model SA juga tidak dipergunakan sebagai cara pengukuran risiko operasional pada perusahaan penerbangan dengan pertimbangan, bahwa SA lebih cocok diterapkan di bank. SA membutuhkan ketentuan untuk initial level of operational risk capital pada setiap lini bisnis, suatu lini yang telah ditentukan oleh Bank for International Settlement (BIS). Industri penerbangan hanya mengenal dua lini bisnis yakni: (1) regular (scheduled airlines) dan (2) charter airline, dimana masing-masing sejauh ini belum menentukan initial level of operational risk capital. Model LDA lebih bisa diterapkan pada perusahaan penerbangan, karena LDA menghitung angka capital charge langsung dalam korelasinya dengan besaran expected loss (Ali, hlm. 272, 2006). LDA menurut Muslich (hlm. 103, 2007) didasarkan pada informasi data kerugian operasional internal. Data kerugian operasional dikelompokkan dalam distribusi frekuensi kejadian dan data distribusi severitas kerugian operasional yang terjadi dalam kurun waktu yang tetap (sekurang-kurangnya 2 sampai 5 tahun kebelakang). Pendekatan LDA yang membagi dua sumber risiko ini memiliki kelebihan yakni dapat memberikan wawasan kedalam sebab dan akibat kerugian, sehingga memungkinkan perusahaan melakukan estimasi kerugian untuk 1 tahun yang akan datang. LDA pada umumnya melibatkan estimasi dari bentuk distribusi frekuensi loss event dan severitas dengan menggunakan asumsi distribusi Poisson dan Mixed Poisson serta distribusi Lognormal atau Exponential untuk severitas. Pendekatan LDA terdiri atas dua model yakni: Actuarial dan Aggregation. Pézier (hlm. 1, 2003) berpendapat bahwa model Aggregation dapat digunakan dengan pertimbangan perusahaan yang menginginkan penelitian yang memiliki penggunaan sumber daya (misal; waktu, biaya, tempat) yang lebih efisien, untuk periode jangka pendek dan kondisi normal. Pengukuran risiko kerugian dengan menggunakan model Aggregation merupakan salah satu model yang paling modern yang ada pada saat ini. Hal ini telah diaplikasikan pada dunia perbankan sesuai dengan ketentuan BCBS. Sebagaimana diketahui, industri perbankan adalah industri yang paling concern pada manajemen risiko. Pendekatan model ini menggunakan data kerugian internal perusahaan dan merupakan key point atau raw data yang utama.
13 53 Berdasarkan Basel, operational risk capital yang diminta adalah unexpected loss yang berada pada total loss distribution menggunakan confidence level 99.9% dengan periode waktu tertentu. Pendekatan dengan model Aggregation ini dapat menentukan jenis kerugian yang terkait dengan risiko operasional dalam hal adalah irregular operations yang merupakan jenis risiko yang disebabkan oleh faktor eksternal. Karenanya dapat dihasilkan estimasi kemungkinan/probabilitas terjadinya kerugian tersebut (probability of loss event). Disamping itu juga dapat memberikan estimasi besarnya proporsi dari suatu transaksi yang memicu kerugian (loss given event). Dan dengan adanya parameter itu, selanjutnya expected loss (EL) dapat diperkirakan. Secara statistik, pengukuran kuantitas risiko operasional berupa frekuensi dan severitas harus mengacu kepada random order dimana expected frequency dilambangkan dengan N.p. Dimana N adalah jumlah dari kejadian dan p adalah probabilitas dari data kerugian yang ada pada perusahaan. Model aggregating akan menghitung nilai yang akan dipakai untuk melakukan estimasi risiko atau Value at Risk (VaR). Jorion (2002) berpendapat bahwa VaR adalah merupakan rangkuman dari kerugian maksimum yang diperkirakan dari suatu interval tertentu, VaR summarizes the expected maximum loss (or worst loss) over a target horizon within a given confidence interval VaR adalah pengukuran terhadap likelihood of loss yang terburuk yang masih mampu diterima oleh suatu perusahaan pada interval tertentu dalam pasar normal dan pada kondisi yang dapat dipercaya (Butler, 1999). Artinya VaR digunakan untuk pengukuran risiko secara kuantitatif yang dilakukan untuk mengestimasikan potensi kerugian maksimum yang dapat diterima oleh suatu perusahaan pada waktu yang akan datang (future). Model Aggregation merupakan model yang sejenis dengan model actuarial dimana keduanya akan mengukur risiko kerugian operasional yang bersumber dari gabungan dua distribusi yang frekuensi kejadian dan severitas kejadian dari
14 54 kejadian yang bersifat acak, namun pada Aggregation distribusi frekuensi diasumsikan sebagai Poisson dan distribusi severitas diasumsikan Lognormal, Exponential atau Weibull. Data distribusi frekuensi kejadian operasional adalah data yang bersifat discrete (bulat bukan pecahan) dimana proses stochastic data secara umumnya dapat bersifat; Poisson, mixed Poisson, Cox, sementara untuk data distribusi severitas bersifat kontinyu yang berbentuk distribusi Exponential, Weibull, Lognormal atau Pareto (ibid). Model Aggregation yang merupakan gabungan atau kombinasi dari distribusi frekuensi kerugian operasional dengan distribusi kerugian operasional. Kurva loss distribution diatas mewakili jarak dari kemungkinan total kerugian operasional yang sesuai dengan jenis aktivitas bisnis dan pada periode waktu yang tertentu yang telah ditentukan sebelumnya. Distribusi ini kemudian menjadi dasar penentuan kebutuhan capital charge sesuai dengan percentile yang diinginkan. Penentuan percentile menjadi ekspresi dari kebijakan risiko dari perusahaan, dimana apabila semakin tinggi percentile-nya berarti kebutuhan capital charge juga semakin tinggi untuk melindungi dari terjadinya unexpected loss. Artinya, apabila distribusi merefleksikan periode waktu yang akan datang katakanlah, satu tahun dengan 99,9 percentile, perusahaan harus dapat menyediakan sejumlah modal untuk melindungi dirinya dari kerugian total dalam setahun yang begitu tinggi yang diperkirakan akan muncul sekali dalam 1000 tahun. Model Aggregation pada prinsipnya sama dengan model aktuarial, namun pada Aggregation data kerugian operasional disusun berdasarkan distribusi frekuensi serta kerugiannya. Untuk menghitung konversi VaR dalam rentang periode yang berbeda, Jorion merumuskan: VaR t2 = VaR t1 t 2 /t 1...(3.1) Penghitungan beban overbooking dapat dilakukan setelah frekuensi dan severitas mendapatkan distribusinya yang paling tepat, selanjutnya dilakukan simulasi Aggregation Monte Carlo dengan menggunakan software VBA (Visual
15 55 Basic Application), sehingga menghasilkan Aggregation kerugian severitas. Dari hasil simulasi ini akan dilakukan pengukuran risiko dengan OpVaR. Adapun langkah-langkah untuk melakukan Aggregation dengan software VBA : 1. Menetapkan parameter distribusi yang telah fit untuk distribusi kejadian overbooking baik untuk frekuensi dan severitas sesuai dengan uji distibusi GoF diatas. Untuk distribusi Poisson, distribusinya berupa lambda (λ) dan distribusi Weibull, parameternya adalah alpha (α) dan beta (β). 2. Melakukan simulasi aggregated loss distribution Menentukan nilai parameter untuk distribusi frekuensi LGE overbooking dengan parameter Poisson, maka masukan distribusinya berupa λ. Selanjutnya, menentukan parameter untuk distribusi severitas Weibull dengan parameternya adalah alpha (α) dan beta (β). 3. Menghitung nilai OpVaR dengan metoda Quantile Menghitung nilai OpVaR atau Operational Value at Risk atas kejadian overbooking dapat dilakukan setelah nila Aggregation loss distribution didapatkan. Misal, OpVaR untuk tingkat keyakinan 99%: x 1% = 100, berarti OpVaR untuk tingkat keyakinan 99% terletak di baris ke 100 (Run#) atau melihat langsung ke kolom tingkat keyakinan yang diinginkan. Nilai OpVaR ini akan digunakan untuk menghitung beban irregular operations yang dibutuhkan oleh PT Garuda Indonesia, karena berdasarkan hasil dari OpVaR PT Garuda Indonesia akan mengetahui kerugian maksimum yang mungkin terjadi. Menghitung OpVaR juga dapat dilakukan dengan fungsi Excel: =percentile(data_array; confidence level). Nilai yang diperoleh dari perhitungan quantile ini merupakan hasil akhir yang selanjutnya akan diuji validitasnya dengan nilai actual loss. Hasil penghitungan model Aggregation OpVaR ini adalah merupakan estimasi loss yang juga merupakan nilai beban overbooking pada periode akan datang pada tingkat keyakinan 95% Pengujian Back Testing
16 56 Pada tahap ini akan dilakukan penyelesaian masalah untuk menjawab pertanyaan penelitian yang dilakukan melalui pengujian Back Testing dengan Kupiec Test diperlukan untuk mengetahui apakah model pengukuran Aggregation Operational VaR telah valid atau tidak untuk menghitung beban overbooking. Pengujian ini dilakukan dengan cara membandingkan aktual data yang terjadi dengan nilai OpVaR yang dihasilkan. Sehingga hipotesis penelitian yang akan diuji adalah: H0: Beban overbooking yang dihitung dengan model pengukuran Aggregation Operational VaR (OpVaR) valid untuk dimasukan kedalam penyusunan contingency plan. H1: Beban overbooking yang dihitung dengan model pengukuran Aggregation Operational VaR (OpVaR) tidak valid untuk dimasukan kedalam penyusunan contingency plan. Bilamana uji Back Testing Basic Analysis menghasilkan nilai failure rate expected lebih besar dari failure rate actual, maka H0 tidak ditolak dan pengujian dapat diterima atau valid. Tahapan Back Testing - Basic Analysis sebagai berikut: 1. Tentukan jumlah sampel (N) dari waktu pengamatan. 2. Hitung failure rate expected selama kurun waktu pengamatan, dengan asumsi α=95%, maka failure rate expected =(1-α) x N. 3. Hitung failure rate actual selama kurun waktu pengamatan, yakni dimana nilai estimasi OpVaR lebih kecil dari kerugian aktual. 4. Bandingkan failure rate expected dengan failure rate actual, apabila nilai failure rate expected lebih besar dari nilai failure rate actual, maka model tersebut akurat dan valid dan dapat diterima. Untuk Back Testing - Kupiec Test, bilamana hasil uji nilai LR lebih kecil dari CV, maka sehingga H0 tidak ditolak. Dengan demikian, dapat disimpulkan bahwa model penghitungan OpVaR atau beban irregular operations dengan simulasi VBA Aggregation Monte Carlo adalah model yang valid. Validasi dengan Kupiec Test dilakukan dengan cara simulasi pada model volatilitas berdasarkan time until first failure (TUFF), yakni suatu logaritma likelihood (LR) test yang dibuat untuk membuat perbandingan antara OpVaR
17 57 dengan kerugian aktual guna mendapatkan jumlah kesalahan atau failure rate. Rumus yang digunakan untuk menghitung LR adalah: T-N N T-N N LR = -2 ln (1-p) p + 2 ln 1-(N/T) (N/T)... (3.2) Tahapan Kupiec Test sebagai berikut: 1. Tentukan jumlah sampel (N) waktu pengamatan atau total observasi (T). 2. Hitung nilai N atau total failure selama kurun waktu pengamatan, dengan asumsi N=pT (Jorion, 2001). 3. Tentukan nilai p yakni probabilitas terjadinya failure. 4. Tentukan nilai LR dengan persamaan Bandingkan nilai LR dengan critical value Chi-Square dengan degree of freedom 1 pada tingkat kepercayaan 95%. Apabila nilai LR lebih besar dari critical value (CV), maka model tersebut tidak akurat dan sebaliknya bila lebih kecil dari CV maka model valid dan dapat diterima. 3.5 Flowchart Langkah-Langkah Penelitian Tahap-tahap penelitian di atas, secara ringkas dibuatkan dalam alur metodologi seperti flowchart pada Gambar 3.1 di halaman berikut. Gambar 3.1
18 58 Flowchart Langkah-Langkah Penelitian Mulai Mengumpulkan LGE overbooking Mengelompokan LGE overbooking Uji Distribusi: Chi- Square, KS, AD Mengestimasi Nilai Distribusi Probability b Pengukuran beban overbooking dengan model Aggregating OpVaR Uji Validitas model dengan Basic Analysis & Kupiect Test Beban overbooking valid untuk penyusunan Contigency Plan Kesimpulan dan Saran Selesai
BAB 4 HASIL DAN PEMBAHASAN
BAB 4 HASIL DAN PEMBAHASAN 4.1 Pengantar Pada Bab ini akan dilakukan pembahasan untuk menetapkan beban overbooking melalui model penghitungan. Untuk dapat melakukan penghitungan tersebut, terlebih dahulu
BAB 3 METODOLOGI DAN DATA PENELITIAN
BAB 3 METODOLOGI DAN DATA PENELITIAN 3.1 Pengantar Dalam penelitian ini digunakan rancangan penelitian kasus karena dengan rancangan ini diharapkan dapat memberikan informasi yang mendalam, akurat, lengkap
BAB III DATA DAN METODOLOGI PENELITIAN
28 BAB III DATA DAN METODOLOGI PENELITIAN 3.1. Profil Perusahaan Bank ABC pada mulanya didirikan dengan menggunakan nama NV Perseroan Dagang dan Industrie Semarang Knitting Factory. Perusahaan mulai beroperasi
BAB 4 ANALISIS DAN PEMBAHASAN
BAB 4 ANALISIS DAN PEMBAHASAN Pada bab ini akan dianalisis dan dibahas tentang pengukuran risiko operasional klaim asuransi kesehatan pada PT. XYZ menggunakan metode EVT. Pengukuran risiko operasional
ANALISIS PENGUKURAN RISIKO OPERASIONAL BANK ABC DENGAN METODE LOSS DISTRIBUTION APPROACH KARYA AKHIR
ANALISIS PENGUKURAN RISIKO OPERASIONAL BANK ABC DENGAN METODE LOSS DISTRIBUTION APPROACH KARYA AKHIR Diajukan sebagai salah satu syarat untuk memperoleh gelar S2 Nama : Gerardus Alrianto NPM : 0706169940
BAB 3 METODOLOGI PENELITIAN
BAB 3 METODOLOGI PENELITIAN 3.1. Objek Penelitian Penelitian dalam karya akhir ini dilakukan melalui studi pustaka, pengumpulan data dan analisa kuantitatif. Studi pustaka digunakan untuk menyusun landasan
terhadap kesehatan persalinan. Sehingga tak heran jika negara-negara maju di
Nama: Ummi Fadilah NIM: 12/339683/PPA/3995 Teori Resiko Aktuaria PROSES PEMODELAN PENDAHULUAN Salah satu ciri dari negara maju adalah pemerintah dan masyarakat yang peduli terhadap kesehatan persalinan.
STATISTIKA DESKRIPTIF
STATISTIKA DESKRIPTIF 1 Statistika deskriptif berkaitan dengan penerapan metode statistika untuk mengumpulkan, mengolah, menyajikan dan menganalisis data kuantitatif secara deskriptif. Statistika inferensia
BAB 14 UJI DESKRIPTIF, VALIDITAS DAN NORMALITAS DATA
BAB 14 UJI DESKRIPTIF, VALIDITAS DAN NORMALITAS DATA SPSS menyediakan fasilitas untuk melakukan analisis deskriptif data seperti uji deskriptif, validitas dan normalitas data. Uji deskriptif yang dilakukan
BAB 4 ANALISIS DAN PEMBAHASAN
BAB 4 ANALISIS DAN PEMBAHASAN Dalam Bab 4 ini akan dibahas mengenai, analisis pengukuran risiko kredit consumer khususnya mortgage (KPR) pada Bank X dengan menggunakan Internal Model CreditRisk+. Dengan
BAB IV METODE PENELITIAN
BAB IV METODE PENELITIAN 4.1. Desain Penelitian Penelitian ini akan memberikan penjelasan secara deskriptif mengenai hasil perhitungan statistik dalam mengukur risiko kredit menggunakan metode CreditRisk
BAB 1 PENDAHULUAN. 1.1 Latar Belakang
BAB 1 PENDAHULUAN 1.1 Latar Belakang Bank adalah sebuah lembaga yang diberikan izin oleh otoritas perbankan untuk menerima simpanan, memberikan kredit, dan menerima serta menerbitkan cek. Bank perlu di
PENGUKURAN RISIKO OPERASIONAL CLAIM SPARE PART DENGAN METODE LDA AGGREGATION DI PT.X TESIS
UNIVERSITAS INDONESIA PENGUKURAN RISIKO OPERASIONAL CLAIM SPARE PART DENGAN METODE LDA AGGREGATION DI PT.X TESIS NIKI REGINAL SUBAKTI 0706170324 UNIVERSITAS INDONESIA FAKULTAS EKONOMI PROGRAM STUDI MAGISTER
BAB IV HASIL PENELITIAN
143 BAB IV HASIL PENELITIAN Pada bab ini diuraikan tentang: a) deskripsi data; b) uji prasyarat analisis; dan c) pengujian hipotesis penelitian. A. Deskripsi Data Penyajian statistik deskripsi hasil penelitian
BAB III METODOLOGI PENELITIAN. Langkah perancangan yang akan dilakukan adalah sebagai berikut: produksi pada departemen plastik
BAB III METODOLOGI PENELITIAN 3.1 Langkah Perancangan Langkah perancangan yang akan dilakukan adalah sebagai berikut: a. Melakukan studi literatur sejumlah buku yang berkaitan dengan preventive maintenance.
BAB 4 ANALISIS KREDIT KONSUMTIF BANK X DENGAN INTERNAL MODEL CREDITRISK Gambaran Umum Kredit Konsumtif pada Bank X
51 BAB 4 ANALISIS KREDIT KONSUMTIF BANK X DENGAN INTERNAL MODEL CREDITRISK + Dalam Bab 4 secara lebih mendalam akan dibahas analisis mengenai pengukuran risiko kredit konsumtif pada bank X dengan menggunakan
BAB 2 LANDASAN TEORI
BAB LANDASAN TEORI.1 Manajemen Risiko Operasional.1.1 Definisi Manajemen risiko operasional merupakan serangkaian prosedur dan metodologi yang digunakan untuk mengidentifikasi, mengukur, memantau dan mengendalikan
BAB IV METODE PENELITIAN
BAB IV METODE PENELITIAN 1.1 Desain Penelitian Dalam Bab 4 secara lebih mendalam akan dibahas seacara deskriptif mengenai hasil pengukuran risiko kredit pada segmen Kredit Tanpa Agunan pada bank XYZ dengan
BAB IV ANALISA DAN PEMBAHASAN
BAB IV ANALISA DAN PEMBAHASAN A. Statistik Deskriptif. Statistik deskriptif adalah ilmu statistik yang mempelajari cara-cara pengumpulan, penyusunan dan penyajian data suatu penilaian. Tujuannya adalah
Mata Kuliah Pemodelan & Simulasi. Riani Lubis Program Studi Teknik Informatika Universitas Komputer Indonesia
Mata Kuliah Pemodelan & Simulasi Riani Lubis Program Studi Teknik Informatika Universitas Komputer Indonesia Pokok Bahasan Variabel Acak Pola Distribusi Masukan Pendugaan Pola Distribusi Uji Distribusi
BAB 3 METODOLOGI PENELITIAN
43 BAB 3 METODOLOGI PENELITIAN 3.1. Objek Penelitian Objek penelitian yang akan dianalisis dalam karya akhir ini adalah mengenai pengukuran risiko kredit di bagian Consumer Banking, khususnya untuk kredit
PENGUKURAN RISIKO OPERASIONAL DENGAN METODE AGGREGATING VALUE AT RISK SKRIPSI SRI JAYANTI NAPITUPULU
i PENGUKURAN RISIKO OPERASIONAL DENGAN METODE AGGREGATING VALUE AT RISK SKRIPSI SRI JAYANTI NAPITUPULU 070823024 DEPARTEMEN MATEMATIKA FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM UNIVERSITAS SUMATERA
BAB IV DESKRIPSI DAN ANALISI DATA
BAB IV DESKRIPSI DAN ANALISI DATA A. Deskripsi Data Hasil Penelitian 1. Deskripsi Data Umum Penelitian Deskripsi data umum berisi mengenai gambaran umum tempat penelitian yakni di SMP N 1 Pamotan. SMP
STATISTIK DESKRIPTIF
BAB 5 STATISTIK DESKRIPTIF Salah satu statistik yang secara sadar maupun tidak, sering digunakan dalam berbagai bidang adalah statistik deskriptif. Pada bagian ini akan dipelajari beberapa contoh kasus
BAB IV ANALISIS DATA
BAB IV ANALISIS DATA A. Deskripsi Data Penelitian ini berjudul Pengaruh Penggunaan Media Cetak dan Media Audio Visual Terhadap Prestasi Belajar Al-Qur an Hadits di MTs Negeri Aryojeding. Penelitian ini
Contoh Analisis Data Korelasi Kecerdasan Emosi terhadap Stress Kerja 1. Sebaran Data Kecerdasan Emosi Hasil Skoring Kuesioner
Contoh Analisis Data Korelasi Kecerdasan Emosi terhadap Stress Kerja 1. Sebaran Data Kecerdasan Emosi Hasil Skoring Kuesioner 1. Sebaran Data Stress Kerja Hasil Skoring Kuesioner 2. Jumlah Skor Setiap
BAB IV ANALISIS HASIL DAN PEMBAHASAN
48 Bila t-hitung < t-tabel, maka Ho diterima, Ha ditolak, berarti tidak ada pengaruh yang signifikan dari variabel independen terhadap variabel dependen. BAB IV ANALISIS HASIL DAN PEMBAHASAN A. Analisis
BAB IV HASIL PENELITIAN
BAB IV HASIL PENELITIAN A. Deskripsi Data Statistik deskriptif ini digunakan sebagai dasar untuk menguraikan kecenderungan jawaban responden dari tiap-tiap variabel, baik mengenai program kegiatan masjid,
BAB IV ANALISIS HASIL DAN PEMBAHASAN. terhadap variable-variabel dalam penelitian ini. Data-data yang dihasilkan
1 BAB IV ANALISIS HASIL DAN PEMBAHASAN A. Penyajian Data Penyajian data didasarkan atas hasil penelitian yang telah dilakukan terhadap variable-variabel dalam penelitian ini. Data-data yang dihasilkan
BAB IV HASIL PENELITIAN
BAB IV HASIL PENELITIAN Empat bagian penting yaitu bagian deskripsi data, pengujian persyaratan analisis, pengujian hipotesis penelitian, dan bagian keterbatasan penelitian akan disajikan di sini, dan
Langkah-Langkah Perhitungan Berikut diberikan data penjualan mobil Bima selama tahun 2000:
BAB 1 STATISTIK DESKRIPTIF Statistik deskriptif lebih berhubungan dengan pengumpulan dan peringkatan data, serta penyajian hasil peringkasan tersebut. Data statistik yang bisa diperoleh dari hasil sensus,
BAB 4 ANALISIS DAN PEMBAHASAN
BAB 4 ANALISIS DAN PEMBAHASAN Dalam karya akhir ini pengukuran risiko yang ditunjukan terhadap pembiayaan murabahah pada BNI Syariah dengan menggunakan Metode CreditRisk +, Dalam penerapan metode pengukuran
BAB 4 ANALISIS DAN PEMBAHASAN
BAB 4 ANALISIS DAN PEMBAHASAN Bab ini akan menguraikan pemecahan masalah dalam mengukur risiko kredit dengan menggunakan metode Credit Risk +. Dimana pemecahan masalah tersebut akan sesuai mengikuti metodologi
BAB IV DESKRIPSI DAN ANALISIS DATA
BAB IV DESKRIPSI DAN ANALISIS DATA A. Deskripsi data Hasil Penelitian Data Pengamalan PAI dan Perilaku seks bebas peserta didik SMA N 1 Dempet diperoleh dari hasil angket yang telah diberikan kepada responden
BAB IV PEMBAHASAN. Sebelum melakukan analisis dengan penerapan simulasi Monte Carlo dan VaR,
BAB IV PEMBAHASAN IV.1 Analisa Harga Saham BBCA Sebelum melakukan analisis dengan penerapan simulasi Monte Carlo dan VaR, penulis akan menganalisa pergerakan harga saham BBCA. Data yang diperlukan dalam
LAMPIRAN 1. Struktur Organisasi PT. Soho
8 LAMPIRAN Struktur Organisasi PT. Soho 83 LAMPIRAN Perhitungan Jumlah Sampel Minimum Menurut Sritomo (995, p 84), untuk menetapkan jumlah observasi yang seharusnya dibuat (N ) maka disini harus diputuskan
Regresi dengan Microsoft Office Excel
Regresi dengan Microsoft Office Excel Author: Junaidi Junaidi 1. Pengantar Dalam statistik, regresi merupakan salah satu peralatan yang populer digunakan, baik pada ilmu-ilmu sosial maupun ilmu-ilmu eksak.
BAB IV ANALISIS HASIL DAN PEMBAHASAN
BAB IV ANALISIS HASIL DAN PEMBAHASAN A. Analisis Demografi Responden Dalam Bab ini penulis akan membahas mengenai hasil penelitian dan analisisnya yang telah dilakukan. Data penelitian ini diolah dengan
BAB IV HASIL PENELITIAN. kecenderungan jawaban responden dari tiap-tiap variabel, tentang budaya. religius dan pembentukan karakter peserta didik.
101 BAB IV HASIL PENELITIAN A. Deskripsi Data Statistik deskriptif ini digunakan sebagai dasar untuk menguraikan kecenderungan jawaban responden dari tiap-tiap variabel, tentang budaya religius dan pembentukan
Perbedaan Analisis Univariat dan Multivariat
Perbedaan Analisis Univariat dan Multivariat Jika kita menganalisis data yang mempunyai lebih dari satu variabel, belum tentu analisis data tersebut dikategorikan analisis multivariat, bisa saja analisis
BAB IV HASIL PENELITIAN. kecenderungan jawaban responden dari tiap-tiap variabel, baik mengenai
BAB IV HASIL PENELITIAN A. Deskripsi Data Statistik deskriptif digunakan sebagai dasar untuk menguraikan kecenderungan jawaban responden dari tiap-tiap variabel, baik mengenai kompetensi guru, motivasi
BAB IV HASIL PENELITIAN DAN PEMBAHASAN. Tabel 4.1
BAB IV HASIL PENELITIAN DAN PEMBAHASAN A. Analisis Statistik Deskriptif Tabel output statistik deskriptif merupakan gambaran secara umum semua variable dalam penelitian ini. Gambaran umum tersebut meliputi
BAB 2 LANDASAN TEORI
BAB 2 LANDASAN TEORI 2.1 Definisi Risiko Operasional Basel II Capital Accord secara khusus mendefinisikan risiko operasional sebagai risiko kerugian yang timbul dari kegagalan atau tidak memadainya proses
HANDOUT METODE PENELITIAN KUANTITATIF ANALISIS DATA MENGGUNAKAN SPSS
HANDOUT METODE PENELITIAN KUANTITATIF ANALISIS DATA MENGGUNAKAN SPSS UJI RELIABILITAS DAN SELEKSI ITEM a. Pindahkan hasil data item dari tabulasi di Excel ke data view SPSS b. Di bagian variable view rubah
UJI KECOCOKAN DATA DALAM PENGUKURAN RISIKO OPERASIONAL SKRIPSI NONI SULANI ALFRINA LUBIS
UJI KECOCOKAN DATA DALAM PENGUKURAN RISIKO OPERASIONAL SKRIPSI NONI SULANI ALFRINA LUBIS 090823010 DEPARTEMEN MATEMATIKA FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM UNIVERSITAS SUMATERA UTARA MEDAN 2011
BAB IV DESKRIPSI DAN ANALISIS DATA
BAB IV DESKRIPSI DAN ANALISIS DATA A. Deskripsi Data Hasil Penelitian 1. Deskripsi Data Umum Deskripsi data umum berisi mengenai gambaran umum tempat penelitian yakni di MTs N 1 Kudus. MTs N 1 Kudus beralamatkan
BAB IV HASIL PENELITIAN. 1. Strategi Pembelajaran Berbasis Masalah
BAB IV HASIL PENELITIAN A. Deskripsi Variabel Dan Data Penelitian 1. Strategi Pembelajaran Berbasis Masalah Strategi Pembelajaran berbasis masalah (PBM) adalah strategi pembelajaran yang berpusat pada
BAB 1 PENDAHULUAN. 1.1 Latar Belakang
BAB PENDAHULUAN. Latar Belakang Dunia perbankan sebagai institusi yang memiliki izin untuk melakukan banyak aktivitas seperti menghimpun dana secara langsung dari masyarakat dalam bentuk simpanan (giro,
BAB IV PEMBAHASAN DAN HASIL PENELITIAN
BAB IV PEMBAHASAN DAN HASIL PENELITIAN IV.1 Analisis Deskriptif IV.1.1 Gambaran Mengenai Return Saham Tabel IV.1 Descriptive Statistics N Range Minimum Maximum Mean Std. Deviation Return Saham 45 2.09-0.40
BAB III METODE PENELITIAN
BAB III METODE PENELITIAN A. Tempat dan Waktu Penelitian Obyek dalam penelitian ini adalah harga penutupan saham-saham yang direkomendasikan akan dapat bertahan pada tahun politik (2014) dalam media kompas.com,
BAB IV HASIL PENELITIAN. kecenderungan jawaban responden dari tiap-tiap variabel, baik mengenai
BAB IV HASIL PENELITIAN A. Deskripsi Data Statistik deskriptif ini digunakan sebagai dasar untuk menguraikan kecenderungan jawaban responden dari tiap-tiap variabel, baik mengenai kinerja guru, motivasi
BAB IV ANALISIS HASIL DAN PEMBAHASAN
51 BAB IV ANALISIS HASIL DAN PEMBAHASAN Dalam bab ini akan disajikan hasil penelitian yang dilakukan terhadap data sekunder yaitu berupa komponen-komponen laporan keuangan yang diperoleh dari perusahaan
BAB IV ANALISIS HASIL DAN PEMBAHASAN
34 BAB IV ANALISIS HASIL DAN PEMBAHASAN A. Analisis Statistik Deskriptif Analisis data yang dilakukan dalam bab ini pada dasarnya dapat dikelompokkan menjadi dua bagian. Bagian pertama merupakan analisis
BAB IV HASIL DAN PEMBAHASAN. melalui kuesioner. Kuesioner yang disebar sebanyak 34 kuesioner, pekerjaan, dan tingkat pendidika terakhir.
BAB IV HASIL DAN PEMBAHASAN A. Analisis Karakteristik Responden Analisis karakteristik dalam penelitian ini digunakan untuk melihat gambaran secara umum karakteristik data responden yang telah dikumpulkan
Jurusan Teknik Sipil dan Lingkungan Universitas Gadjah Mada STATISTIKA. Continuous Probability Distributions.
Jurusan Teknik Sipil dan Lingkungan Universitas Gadjah Mada STATISTIKA Continuous Probability Distributions 1 Continuous Probability Distributions Normal Distribution Uniform Distribution Exponential Distribution
BAB IV ANALISIS HASIL DAN PEMBAHASAN
BAB IV ANALISIS HASIL DAN PEMBAHASAN A. Analisis Data 1. Deskriptif Statistik Statistik deskriptif digunakan untuk menjelaskan atau menggambarkan secara umum berbagai karakteristik data yang telah dikumpulkan
BAB IV HASIL PENELITIAN
110 BAB IV HASIL PENELITIAN Pada bab ini diuraikan tentang: a) deskripsi data; b) uji prasyarat; dan c) pengujian hipotesis penelitian. A. Deskripsi Data Penelitian ini berjudul Pengaruh Profesionalisme
Statistik Deskriptif dengan Microsoft Office Excel
Statistik Deskriptif dengan Microsoft Office Excel Junaidi, Junaidi I. Prosedur Statistik Deskriptif pada Excel Statistik deskriptif adalah statistik yang bertujuan untuk mendeskripsikan atau menggambarkan
LAMPIRAN. Case Processing Summary. Descriptives. 95% Confidence Interval for Mean. Tests of Normality. Kolmogorov-Smirnov a
LAMPIRA Case Processing Summary Cases Missing Total Total Penerapan Kewaspadaan Standar 205 100.0% 0 0.0% 205 100.0% Descriptives Statistic Std. Error Mean 232.44.365 95% Confidence Interval for Mean Lower
BAB IV ANALISIS DAN PEMBAHASAN
43 BAB IV ANALISIS DAN PEMBAHASAN Pada Bab IV ini akan dijelaskan proses perhitungan data return, pengujian data return, perhitungan VaR single instrument, pengujian validitas VaR single instrument, perhitungan
STATISTIK DESKRIPTIF. Statistics. Strategi Membaca
2 Lampiran 8 Statistics N Mean Median Mode Std. Deviation Variance Range Minimum Maximum Sum Valid Missing STATISTIK DESKRIPTIF Statistics Strategi Membaca Variables Penguasaan Kosakata Kemampuan Memahami
BAB III METODE PENELITIAN
BAB III METODE PENELITIAN A. Jenis dan Pendekatan Penelitian Ditinjau dari obyeknya, penelitian yang dilakukan penulis termasuk penelitian lapangan (field research), karena data-data yang diperlukan untuk
BAB IV ANALISIS HASIL PEMBAHASAN
BAB IV ANALISIS HASIL PEMBAHASAN 4.1 Analisis Profil Responden 4.1.1 Statistik Deskriptif Statistik deskriptif digunakan untuk melihat gambaran secara umum data yang telah dikumpulkan dalam penelitian
BAB IV ANALISIS HASIL DAN PEMBAHASAN
42 BAB IV ANALISIS HASIL DAN PEMBAHASAN A. Statisitik Deskriptif Statistik deskriptif digunakan untuk gambaran secara umum data yang telah dikumpulkan dalam penelitian ini. Dari 34 perusahaan barang konsumsi
BAB IV HASIL DAN PEMBAHASAN. yang terdaftar dalam LQ-45 di Bursa Efek Indonesia periode
BAB IV HASIL DAN PEMBAHASAN A. Gambaran Umum Sampel penelitian yang digunakan dalam penelitian ini ialah perusahaan yang terdaftar dalam LQ-45 di Bursa Efek Indonesia periode 2013-2015. Teknik yang digunakan
BAB IV ANALISIS HASIL DAN PEMBAHASAN. berada di meruya selatan. dengan total 100 kuesioner yang diantarkan langsung
BAB IV ANALISIS HASIL DAN PEMBAHASAN 4.1 Deskripsi Responden Berdasarkan kuesioner yang telah disebar kepada konsumen Warteg yang berada di meruya selatan. dengan total 100 kuesioner yang diantarkan langsung
Case Processing Summary. Cases. Valid Missing Total. Umur * Kecelakaan Kerja % 0 0.0% % Pendidikan * Kecelakaan Kerja
Case Processing Summary Cases Valid Missing N N N Umur * Pendidikan * Kecelakaan Kerja Jumlah Jam Kerja * Massa Kerja * Kecelakaan Kerja Umur * Crosstabulation Tidak Umur 12-16 3 3 6 17-25 44 20 64 26-35
BAB IV ANALISIS HASIL PEMBAHASAN. Berikut ini diringkas pengiriman dan penerimaan kuesioner : Tabel 4.1. Rincian pengiriman Pengembalian Kuesioner
BAB IV ANALISIS HASIL PEMBAHASAN 4.1 Deskripsi Responden Berdasarkan data yang telah disebar kepada pelanggan Alfamart dengan total 100 kuesioner yang diberikan langsung kepada para pelanggan Alfamart.
BAB I PENDAHULUAN. (variables) seperti harga, volume instrumen, dan varian (variance) yang berubah
BAB I PENDAHULUAN 1.1. Latar Belakang Masalah Selama beberapa tahun terakhir ada banyak perubahan pada lembaga keuangan dalam mengevaluasi dan mengukur risiko. Usaha perbaikan regulasi berkaitan dengan
STATISTIK DESKRIPTIF. Abdul Rohman, S.E
LOGO STATISTIK DESKRIPTIF Konsep Statistika STATISTIKA : Kegiatan untuk : mengumpulkan data menyajikan data menganalisis data dengan metode tertentu menginterpretasikan hasil analisis KEGUNAAN? Melalui
3 BAB III LANDASAN TEORI
3 BAB III LANDASAN TEORI 3.1 Pemeliharaan (Maintenance) 3.1.1 Pengertian Pemeliharaan Pemeliharaan (maintenance) adalah suatu kombinasi dari setiap tindakan yang dilakukan untuk menjaga suatu barang dalam,
BAB IV ANALISIS KORELASI ANTARA NILAI BTQ DENGAN PRESTASI BELAJAR MAPEL PAI DI SD KANDANG PANJANG 01 PEKALONGAN
BAB IV ANALISIS KORELASI ANTARA NILAI BTQ DENGAN PRESTASI BELAJAR MAPEL PAI DI SD KANDANG PANJANG 01 PEKALONGAN A. Analisis Data tentang Nilai BTQ SD Kandang Panjang 01 Pekalongan Setelah dikumpulkan dengan
BAB IV HASIL PENELITIAN
BAB IV HASIL PENELITIAN A. Penyajian Statistik Deskripsi Hasil Penelitian 1. Kemampuan Awal Siswa Dalam penelitian ini seperti telah dijelaskan pada bab III, analisis tentang data kemampuan awal digunakan
Prosedur Uji Chi-Square
Prosedur Uji Chi-Square Author: Junaidi Junaidi 1. Pengantar Dalam statistik parametrik ukuran korelasi yang umum digunakan adalah korelasi Product Moment Pearson. Diantara korelasi nonparametrik yang
BAB IV ANALISIS HASIL DAN PEMBAHASAN
BAB IV ANALISIS HASIL DAN PEMBAHASAN A. Analisis Hasil Penelitian 1. Pelaksanaan Penelitian Penelitian ini bertujuan untuk mendapatkan bukti empiris apakah masing-masing unsur motivasi yang meliputi: motivasi
DAFTAR ISI. 1.1 Latar Belakang Rumusan Masalah Tujuan Penelitian Batasan Masalah Sistematika Penulisan...
DAFTAR ISI KATA PENGANTAR... i ABSTRAK... iii ABSTRACT... iv DAFTAR ISI... v DAFTAR TABEL... vii DAFTAR GAMBAR... ix DAFTAR LAMPIRAN... x DAFTAR SIMBOL... xi DAFTAR SINGKATAN... xii BAB I PENDAHULUAN 1.1
BAB 4 ANALISIS DAN PEMBAHASAN
BAB 4 ANALISIS DAN PEMBAHASAN 4.1 Pergerakan Harga Saham Pergerakan harga harian indeks LQ45 dan lima saham perbankan yang termasuk dalam kelompok LQ45 selama periode penelitian ditampilkan dalam bentuk
Uji statistik multivariat digunakan untuk menguji
132 PEMANFAATAN SPSS DALAM PENELITIAN BIDANG KESEHATAN & UMUM PEMANFAATAN SPSS DALAM PENELITIAN BIDANG KESEHATAN & UMUM 133 BAB 6 ANALISIS MULTIVARIAT Uji statistik multivariat digunakan untuk menguji
BAB IV ANALISIS HASIL DAN PEMBAHASAN
BAB IV ANALISIS HASIL DAN PEMBAHASAN A. Gambaran Umum Objek Penelitian Objek dalam penelitian ini adalah perusahaan manufaktur disektor 5 (consumer goods industry) periode 2008-2010. Berikut ini peneliti
BAB IV ANALISIS HASIL DAN PEMBAHASAN
BAB IV ANALISIS HASIL DAN PEMBAHASAN A. Hasil Penelitian 1. Statistik Deskriptif Analisis dalam penelitian ini disajikan dalam bentuk tabel sehingga lebih mudah dipahami dan diinterprestasikan. Statistik
BAB IV HASIL PENELITIAN
BAB IV HASIL PENELITIAN A. Deskripsi Data Statistik deskriptif ini digunakan sebagai dasar untuk menguraikan kecenderungan jawaban responden dari tiap-tiap variabel, baik mengenai kompetensi profesional
PENS. Probability and Random Process. Topik 5. Beberapa jenis Distribusi Variabel Acak. Prima Kristalina April 2015
Program Pasca Sarjana Terapan Politeknik Elektronika Negeri Surabaya Probability and Random Process Topik 5. Beberapa jenis Distribusi Variabel Acak Prima Kristalina April 215 1 Outline 1. Beberapa macam
BAB IV ANALISIS HASIL DAN PEMBAHASAN
BAB IV ANALISIS HASIL DAN PEMBAHASAN A. Gambaran Umum Responden Sebagaimana yang sudah dijelaskan sebelumnya, bahwa responden yang menjadi subyek dalam penelitian ini adalah mahasiswa pada Universitas
PENGUKURAN RISIKO MAKALAH
PENGUKURAN RISIKO MAKALAH Oleh Kelompok 2 MANAJEMEN RISIKO KELAS D PROGRAM STUDI MANAJEMEN FAKULTAS EKONOMI UNIVERSITAS JEMBER 2015 PENGUKURAN RESIKO A. DEFINISI PENGUKURAN RESIKO Istilah risiko sudah
BAB IV ANALISIS HASIL DAN PEMBAHASAN
BAB IV ANALISIS HASIL DAN PEMBAHASAN A. Statistik Deskriptif Berdasarkan nilai pada masing-masing variabel dapat diketahui nilai penelitian seperti nilai minimum, maksimum, mean dan standard deviasi dari
BAB IV ANALISIS DAN PEMBAHASAN
BAB IV ANALISIS DAN PEMBAHASAN Dalam bab ini akan diuraikan hal - hal yang berkaitan dengan hasil pengolahan data dan pembahasan dari hasil pengolahan data tersebut. Adapun pembahasan yang dimaksud meliputi
BAB IV HASIL DAN PEMBAHASAN
BAB IV HASIL DAN PEMBAHASAN A. Gambaran Umum Sampel Penelitian yang digunakan dalam penelitian ini ialah Perusahaan yang Terdaftar di Jakarta Islamic Index tahun 2011-2013. Teknik yang digunakan dalam
Umur kelompok. Valid < 45 tahun tahun >65 tahun Total
80 Frequency Table Umur kelompok Valid < 45 tahun 9 7.7 7.7 7.7 45-65 tahun 77 65.8 65.8 73.5 >65 tahun 31 26.5 26.5 100.0 Jenis Kelamin Valid laki-laki 67 57.3 57.3 57.3 perempuan 50 42.7 42.7 100.0 Agama
Lampiran 1 : Master Data
Lampiran 1 : Master Data No. U JK Ag Pdk Pkr SP DA M1 M2 M3 M4 M5 M6 M7 M8 M9 MKK RPO PM LR KSP SB 1. 19 2 1 4 1 1 2 1 1 1 0 0 0 1 0 0 2 1 2 8 1 1 2. 42 2 3 4 5 2 2 1 1 1 0 0 0 1 1 0 2 1 2 13 1 2 3. 39
Bab V Hasil dan Pembahasan
Bab V Hasil dan Pembahasan V.1 Hasil Pengujian Model Dari pengujian model dengan simulasi yang dilakukan sebanyak 10.000 iterasi yang merupakan iterasi terpilih, diperoleh hasil-hasil sebagai berikut:
