Klasifikasi. Data Mining

Ukuran: px
Mulai penontonan dengan halaman:

Download "Klasifikasi. Data Mining"

Transkripsi

1 Klasifikasi Data Mining 1

2 Klasifikasi 1 Decision Tree Induction 2 Bayesian Classification 3 Neural Network 4 Model Evaluation and Selection 5 Techniques to Improve Classification Accuracy: Ensemble Methods 2

3 1 Decision Tree 3

4 Tahapan Algoritma Decision Tree 1. Siapkan data training 2. Pilih atribut sebagai akar Entropy( S) n i 1 pi*log 2 pi Gain( S, A) Entropy( S) n i 1 S i S * Entropy( S i ) 3. Buat cabang untuk tiap-tiap nilai 4. Ulangi proses untuk setiap cabang sampai semua kasus pada cabang memiliki kelas yg sama 4

5 1. Siapkan data training 5

6 2. Pilih atribut sebagai akar Untuk memilih atribut akar, didasarkan pada nilai Gain tertinggi dari atribut-atribut yang ada. Untuk mendapatkan nilai Gain, harus ditentukan terlebih dahulu nilai Entropy Rumus Entropy: S = Himpunan Kasus n = Jumlah Partisi S pi = Proporsi dari Si terhadap S Entropy( S) n i 1 pi*log 2 pi Rumus Gain: Gain( S, A) S = Himpunan Kasus A = Atribut n = Jumlah Partisi Atribut A Si = Jumlah Kasus pada partisi ke-i S = Jumlah Kasus dalam S Entropy( S) n i 1 S i S * Entropy( S i ) 6

7 Perhitungan Entropy dan Gain Akar 7

8 Penghitungan Entropy Akar Entropy Total Entropy (Outlook) Entropy (Temperature) Entropy (Humidity) Entropy (Windy) 8

9 Penghitungan Entropy Akar NODE ATRIBUT JML KASUS TIDAK YA (Si) ENTROPY (S) (Si) 1 TOTAL ,86312 OUTLOOK CLOUDY RAINY ,72193 SUNNY ,97095 GAIN TEMPERATURE HUMADITY WINDY COOL HOT MILD ,91830 HIGH ,98523 NORMAL FALSE ,81128 TRUE ,

10 Penghitungan Gain Akar 10

11 Penghitungan Gain Akar NODE ATRIBUT JML KASUS TIDAK YA (Si) (S) (Si) ENTROPY GAIN 1 TOTAL ,86312 OUTLOOK 0,25852 CLOUDY RAINY ,72193 SUNNY ,97095 TEMPERATURE 0,18385 COOL HOT MILD ,91830 HUMIDITY 0,37051 HIGH ,98523 NORMAL WINDY 0,00598 FALSE ,81128 TRUE ,

12 Gain Tertinggi Sebagai Akar Dari hasil pada Node 1, dapat diketahui bahwa atribut dengan Gain tertinggi adalah HUMIDITY yaitu sebesar Dengan demikian HUMIDITY dapat menjadi node akar Ada 2 nilai atribut dari HUMIDITY yaitu HIGH dan NORMAL. Dari kedua nilai atribut tersebut, nilai atribut NORMAL sudah mengklasifikasikan kasus menjadi 1 yaitu keputusan-nya Yes, sehingga tidak perlu dilakukan perhitungan lebih lanjut Tetapi untuk nilai atribut HIGH masih perlu dilakukan perhitungan lagi High 1. HUMIDITY Normal 1.1????? Yes 12

13 2. Buat cabang untuk tiap-tiap nilai Untuk memudahkan, dataset di-filter dengan mengambil data yang memiliki kelembaban HUMIDITY=HIGH untuk membuat Tabel Node 1.1 OUTLOOK TEMPERATURE HUMIDITY WINDY PLAY Sunny Hot High FALSE No Sunny Hot High TRUE No Cloudy Hot High FALSE Yes Rainy Mild High FALSE Yes Sunny Mild High FALSE No Cloudy Mild High TRUE Yes Rainy Mild High TRUE No 13

14 Perhitungan Entropi Dan Gain Cabang NODE ATRIBUT JML KASUS YA (Si) TIDAK (S) (Si) ENTROPY GAIN 1.1 HUMIDITY ,98523 OUTLOOK 0,69951 CLOUDY RAINY SUNNY TEMPERATURE 0,02024 COOL HOT ,91830 MILD WINDY 0,02024 FALSE TRUE ,

15 Gain Tertinggi Sebagai Node 1.1 Dari hasil pada Tabel Node 1.1, dapat diketahui bahwa atribut dengan Gain tertinggi adalah OUTLOOK yaitu sebesar Dengan demikian OUTLOOK dapat menjadi node kedua Artibut CLOUDY = YES dan SUNNY= NO sudah mengklasifikasikan kasus menjadi 1 keputusan, sehingga tidak perlu dilakukan perhitungan lebih lanjut Tetapi untuk nilai atribut RAINY masih perlu dilakukan perhitungan lagi Cloudy High 1.1 OUTLOOK Rainy 1. HUMIDITY Sunny Normal Yes Yes 1.1.2????? No 15

16 3. Ulangi proses untuk setiap cabang sampai semua kasus pada cabang memiliki kelas yg sama OUTLOOK TEMPERATURE HUMIDITY WINDY PLAY Rainy Mild High FALSE Yes Rainy Mild High TRUE No NODE ATRIBUT JML KASUS (S) YA (Si) TIDAK (Si) ENTROPY GAIN HUMADITY HIGH & OUTLOOK RAINY TEMPERATURE 0 COOL HOT MILD WINDY 1 FALSE TRUE

17 Gain Tertinggi Sebagai Node Dari tabel, Gain Tertinggi adalah WINDY dan menjadi node cabang dari atribut RAINY High 1.1 OUTLOOK 1. HUMIDIT Y Normal Yes Karena semua kasus sudah masuk dalam kelas Jadi, pohon keputusan pada Gambar merupakan pohon keputusan terakhir yang terbentuk Yes Cloudy False WINDY Rainy True Sunny No Yes No 17

18 Decision Tree Induction: An Example Training data set: Buys_computer age income student credit_rating buys_computer <=30 high no fair no <=30 high no excellent no high no fair yes >40 medium no fair yes >40 low yes fair yes >40 low yes excellent no low yes excellent yes <=30 medium no fair no <=30 low yes fair yes >40 medium yes fair yes <=30 medium yes excellent yes medium no excellent yes high yes fair yes >40 medium no excellent no 18

19 Overfitting and Tree Pruning Overfitting: An induced tree may overfit the training data Too many branches, some may reflect anomalies due to noise or outliers Poor accuracy for unseen samples Two approaches to avoid overfitting 1. Prepruning: Halt tree construction early do not split a node if this would result in the goodness measure falling below a threshold Difficult to choose an appropriate threshold 2. Postpruning: Remove branches from a fully grown tree -get a sequence of progressively pruned trees Use a set of data different from the training data to decide which is the best pruned tree 19

20 Pruning 20

21 Why is decision tree induction popular? Relatively faster learning speed (than other classification methods) Convertible to simple and easy to understand classification rules Can use SQL queries for accessing databases Comparable classification accuracy with other methods 21

22 Latihan Lakukan eksperimen untuk mengumpulkan dataset yang memiliki 4-5 atribut dan analisis dengan decision tree pada dataset tersebut. 22

23 2 Bayesian Classification 23

24 Bayesian Classification: Why? A statistical classifier: performs probabilistic prediction, i.e., predicts class membership probabilities Foundation: Based on Bayes Theorem. Performance: A simple Bayesian classifier, naïve Bayesian classifier, has comparable performance with decision tree and selected neural network classifiers Incremental: Each training example can incrementally increase/decrease the probability that a hypothesis is correct prior knowledge can be combined with observed data Standard: Even when Bayesian methods are computationally intractable, they can provide a standard of optimal decision making against which other methods can be measured 24

25 Tahapan Algoritma Naïve Bayes 1. Baca Data Training 2. Hitung jumlah class 3. Hitung jumlah kasus yang sama dengan class yang sama 4. Kalikan semua nilai hasil sesuai dengan data X yang dicari class-nya 25

26 1. Baca Data Training 26

27 Teorema Bayes P( X H ) P( H ) P( H X) P( X H ) P( H ) / P( X) P( X) X Data dengan class yang belum diketahui H Hipotesis data X yang merupakan suatu class yang lebih spesifik P (H X) Probabilitas hipotesis H berdasarkan kondisi X (posteriori probability) P (H) Probabilitas hipotesis H (prior probability) P (X H) Probabilitas X berdasarkan kondisi pada hipotesis H P (X) Probabilitas X 27

28 2. Hitung jumlah class/label Terdapat 2 class dari data training tersebut, yaitu: C1 (Class 1) Play = yes 9 record C2 (Class 2) Play = no 5 record Total = 14 record Maka: P (C1) = 9/14 = P (C2) = 5/14 = Pertanyaan: Data X = (outlook=rainy, temperature=cool, humidity=high, windy=true) Naik gunung atau tidak? 28

29 3. Hitung jumlah kasus yang sama dengan class yang sama Untuk P(Ci) yaitu P(C1) dan P(C2) sudah diketahui hasilnya di langkah sebelumnya. Selanjutnya Hitung P(X Ci) untuk i = 1 dan 2 P(outlook= sunny play= yes )=2/9= P(outlook= sunny play= no )=3/5=0.6 P(outlook= overcast play= yes )=4/9= P(outlook= overcast play= no )=0/5=0 P(outlook= rainy play= yes )=3/9= P(outlook= rainy play= no )=2/5=0.4 29

30 3. Hitung jumlah kasus yang sama dengan class yang sama Jika semua atribut dihitung, maka didapat hasil akhirnya seperti berikut ini: Atribute Parameter No Yes Outlook value=sunny Outlook value=overcast Outlook value=rainy Temperature value=hot Temperature value=mild Temperature value=cool Humidity value=high Humidity value=normal Windy value=false Windy value=true

31 4. Kalikan semua nilai hasil sesuai dengan data X yang dicari class-nya Pertanyaan: Data X = (outlook=rainy, temperature=cool, humidity=high, windy=true) Naik gunung atau tidak? Kalikan semua nilai hasil dari data X P(X play= yes ) = * * * = P(X play= no ) = 0.4*0.2*0.8*0.6= P(X play= yes )*P(C1) = * = P(X play= no )*P(C2) = * = Nilai no lebih besar dari nilai yes maka class dari data X tersebut adalah No 31

32 Avoiding the Zero-Probability Problem Naïve Bayesian prediction requires each conditional prob. be non-zero. Otherwise, the predicted prob. will be zero P( X Ci) n P( xk k 1 Ci) Ex. Suppose a dataset with 1000 tuples, income=low (0), income= medium (990), and income = high (10) Use Laplacian correction (or Laplacian estimator) Adding 1 to each case Prob(income = low) = 1/1003 Prob(income = medium) = 991/1003 Prob(income = high) = 11/1003 The corrected prob. estimates are close to their uncorrected counterparts 32

33 Naïve Bayes Classifier: Comments Advantages Easy to implement Good results obtained in most of the cases Disadvantages Assumption: class conditional independence, therefore loss of accuracy Practically, dependencies exist among variables, e.g.: Hospitals Patients Profile: age, family history, etc. Symptoms: fever, cough etc., Disease: lung cancer, diabetes, etc. Dependencies among these cannot be modeled by Naïve Bayes Classifier How to deal with these dependencies? Bayesian Belief Networks 33

34 3 Neural Network 34

35 Neural Network Neural Network adalah suatu model yang dibuat untuk meniru fungsi belajar yang dimiliki otak manusia atau jaringan dari sekelompok unit pemroses kecil yang dimodelkan berdasarkan jaringan saraf manusia 35

36 Neural Network Model Perceptron adalah model jaringan yang terdiri dari beberapa unit masukan (ditambah dengan sebuah bias), dan memiliki sebuah unit keluaran Fungsi aktivasi bukan hanya merupakan fungsi biner (0,1) melainkan bipolar (1,0,-1) Untuk suatu harga threshold ѳ yang ditentukan: 1 Jika net > ѳ F (net) = 0 Jika ѳ net ѳ -1 Jika net < - ѳ 36

37 Fungsi Aktivasi Macam fungsi aktivasi yang dipakai untuk mengaktifkan net di berbagai jenis neural network: 1. Aktivasi linear, Rumus: y = sign(v) = v 2. Aktivasi step, Rumus: 3. Aktivasi sigmoid biner, Rumus: 4. Aktivasi sigmoid bipolar, Rumus: 37

38 Tahapan Algoritma Perceptron 1. Inisialisasi semua bobot dan bias (umumnya wi = b = 0) 2. Selama ada elemen vektor masukan yang respon unit keluarannya tidak sama dengan target, lakukan: 2.1 Set aktivasi unit masukan xi = Si (i = 1,...,n) 2.2 Hitung respon unit keluaran: net = + b 1 Jika net > ѳ F (net) = 0 Jika ѳ net ѳ -1 Jika net < - ѳ 2.3 Perbaiki bobot pola yang mengadung kesalahan menurut persamaan: wi (baru) = wi (lama) + w (i = 1,...,n) dengan w = α t xi b (baru) = b(lama) + b dengan b = α t Dimana: α = Laju pembelajaran (Learning rate) yang ditentukan ѳ = Threshold yang ditentukan t = Target 2.4 Ulangi iterasi sampai perubahan bobot ( wn = 0) tidak ada Semakin besar α, semakin sedikit iterasi. Namun, α terlalu besar akan merusak pola yang sudah benar sehingga pemahaman menjadi lambat. 38

39 Studi Kasus Diketahui sebuah dataset kelulusan berdasarkan IPK untuk program S1: Status IPK Semester Lulus Tidak Lulus Tidak Lulus Tidak lulus Jika ada mahasiswa IPK 2.85 dan masih semester 1, maka masuk ke dalam manakah status tersebut? 39

40 1: Inisialisasi Bobot Inisialisasi Bobot dan bias awal: b = 0 dan bias = 1 t X1 X2 1 2, ,7 6 40

41 2.1: Set aktivasi unit masukan Treshold (batasan), θ = 0, yang artinya : 1 Jika net > 0 F (net) = 0 Jika net = 0-1 Jika net < 0 41

42 Hitung Respon dan Perbaiki Bobot Hitung Response Keluaran iterasi 1 Perbaiki bobot pola yang mengandung kesalahan MASUKAN TARGET y= PERUBAHAN BOBOT BOBOT BARU X1 X2 1 t NET f(net) W1 W2 b W1 W2 b INISIALISASI , , , ,

43 2.4 Ulangi iterasi sampai perubahan bobot ( wn = 0) tidak ada (Iterasi 2) Hitung Response Keluaran iterasi 2 Perbaiki bobot pola yang mengandung kesalahan MASUKAN TARGET y= PERUBAHAN BOBOT BOBOT BARU X1 X2 1 t NET f(net) W1 W2 b W1 W2 b INISIALISASI , , , ,

44 2.4 Ulangi iterasi sampai perubahan bobot ( wn = 0) tidak ada... (Iterasi 5) Hitung Response Keluaran iterasi 3 Perbaiki bobot pola yang mengandung kesalahan MASUKAN TARGET y= PERUBAHAN BOBOT BOBOT BARU X1 X2 1 t NET f(net) W1 W2 b W1 W2 b INISIALISASI , , , , Semua pola f(net) = target, maka jaringan sudah mengenal semua pola dan iterasi dihentikan. Untuk data IPK memiliki pola 3.2 x - 5 y + 1 = 0 dapat dihitung prediksinya menggunakan bobot yang terakhir didapat: net = X1*W1 + X2*W2 + b = 3,2 * 2,85-5*1 +1 = 5,12 f(net)=1 (Lulus) 44

45 Latihan Lakukan eksperimen untuk mengumpulkan dataset yang memiliki 4-5 atribut dan analisis dengan Naïve Bayes dan neural network pada dataset tersebut 45

46 4 Model Evaluation and Selection 46

47 Model Evaluation and Selection Evaluation metrics: How can we measure accuracy? Other metrics to consider? Use validation test set of class-labeled tuples instead of training set when assessing accuracy Methods for estimating a classifier s accuracy: Holdout method, random subsampling Cross-validation Bootstrap Comparing classifiers: Confidence intervals Cost-benefit analysis and ROC Curves 47

48 Evaluating Classifier Accuracy: Holdout & Cross-Validation Methods Holdout method Given data is randomly partitioned into two independent sets Training set (e.g., 2/3) for model construction Test set (e.g., 1/3) for accuracy estimation Random sampling: a variation of holdout Repeat holdout k times, accuracy = avg. of the accuracies obtained Cross-validation (k-fold, where k = 10 is most popular) Randomly partition the data into k mutually exclusive subsets, each approximately equal size At i-th iteration, use D i as test set and others as training set Leave-one-out: k folds where k = # of tuples, for small sized data *Stratified cross-validation*: folds are stratified so that class dist. in each fold is approx. the same as that in the initial data 48

49 Evaluating Classifier Accuracy: Bootstrap Bootstrap Works well with small data sets Samples the given training tuples uniformly with replacement, i.e., each time a tuple is selected, it is equally likely to be selected again and readded to the training set Several bootstrap methods, and a common one is.632 boostrap 1. A data set with d tuples is sampled d times, with replacement, resulting in a training set of d samples 2. The data tuples that did not make it into the training set end up forming the test set. About 63.2% of the original data end up in the bootstrap, and the remaining 36.8% form the test set (since (1 1/d) d e -1 = 0.368) 3. Repeat the sampling procedure k times, overall accuracy of the model: 49

50 Estimating Confidence Intervals: Classifier Models M 1 vs. M 2 Suppose we have two classifiers, M 1 and M 2, which one is better? Use 10-fold cross-validation to obtain and These mean error rates are just estimates of error on the true population of future data cases What if the difference between the two error rates is just attributed to chance? Use a test of statistical significance Obtain confidence limits for our error estimates 50

51 Estimating Confidence Intervals: Null Hypothesis 1. Perform 10-fold cross-validation 2. Assume samples follow a t distribution with k 1 degrees of freedom (here, k=10) 3. Use t-test (or Student s t-test) 4. Null Hypothesis: M 1 & M 2 are the same 5. If we can reject null hypothesis, then 1. we conclude that the difference between M 1 & M 2 is statistically significant 2. Chose model with lower error rate 51

52 Estimating Confidence Intervals: t-test If only 1 test set available: pairwise comparison For i th round of 10-fold cross-validation, the same cross partitioning is used to obtain err(m 1 ) i and err(m 2 ) i Average over 10 rounds to get t-test computes t-statistic with k-1 degrees of freedom: where If two test sets available: use non-paired t-test where where k 1 & k 2 are # of cross-validation samples used for M 1 & M 2, resp. 52

53 Estimating Confidence Intervals: Table for t-distribution Symmetric Significance level, e.g., sig = 0.05 or 5% means M 1 & M 2 are significantly different for 95% of population Confidence limit, z = sig/2 53

54 Estimating Confidence Intervals: Statistical Significance Are M 1 & M 2 significantly different? 1. Compute t. Select significance level (e.g. sig = 5%) 2. Consult table for t-distribution: Find t value corresponding to k-1 degrees of freedom (here, 9) 3. t-distribution is symmetric: typically upper % points of distribution shown look up value for confidence limit z=sig/2 (here, 0.025) 4. If t > z or t < -z, then t value lies in rejection region: 1. Reject null hypothesis that mean error rates of M 1 & M 2 are same 2. Conclude: statistically significant difference between M 1 & M 2 5. Otherwise, conclude that any difference is chance 54

55 Model Selection: ROC Curves ROC (Receiver Operating Characteristics) curves: for visual comparison of classification models Originated from signal detection theory Shows the trade-off between the true positive rate and the false positive rate The area under the ROC curve is a measure of the accuracy of the model Rank the test tuples in decreasing order: the one that is most likely to belong to the positive class appears at the top of the list The closer to the diagonal line (i.e., the closer the area is to 0.5), the less accurate is the model 55 Vertical axis represents the true positive rate Horizontal axis rep. the false positive rate The plot also shows a diagonal line A model with perfect accuracy will have an area of 1.0

56 Issues Affecting Model Selection Accuracy classifier accuracy: predicting class label Speed time to construct the model (training time) time to use the model (classification/prediction time) Robustness: handling noise and missing values Scalability: efficiency in disk-resident databases Interpretability understanding and insight provided by the model Other measures, e.g., goodness of rules, such as decision tree size or compactness of classification rules 56

57 5 Techniques to Improve Classification Accuracy: Ensemble Methods 57

58 Ensemble Methods: Increasing the Accuracy Ensemble methods Use a combination of models to increase accuracy Combine a series of k learned models, M1, M2,, Mk, with the aim of creating an improved model M* Popular ensemble methods Bagging: averaging the prediction over a collection of classifiers Boosting: weighted vote with a collection of classifiers Ensemble: combining a set of heterogeneous classifiers 58

59 Bagging: Boostrap Aggregation Analogy: Diagnosis based on multiple doctors majority vote Training Given a set D of d tuples, at each iteration i, a training set D i of d tuples is sampled with replacement from D (i.e., bootstrap) A classifier model M i is learned for each training set D i Classification: classify an unknown sample X Each classifier M i returns its class prediction The bagged classifier M* counts the votes and assigns the class with the most votes to X Prediction: can be applied to the prediction of continuous values by taking the average value of each prediction for a given test tuple Accuracy Often significantly better than a single classifier derived from D For noise data: not considerably worse, more robust Proved improved accuracy in prediction 59

60 Boosting Analogy: Consult several doctors, based on a combination of weighted diagnoses weight assigned based on the previous diagnosis accuracy How boosting works? 1. Weights are assigned to each training tuple 2. A series of k classifiers is iteratively learned 3. After a classifier M i is learned, the weights are updated to allow the subsequent classifier, M i+1, to pay more attention to the training tuples that were misclassified by M i 4. The final M* combines the votes of each individual classifier, where the weight of each classifier's vote is a function of its accuracy Boosting algorithm can be extended for numeric prediction Comparing with bagging: Boosting tends to have greater accuracy, but it also risks overfitting the model to misclassified data 60

61 Adaboost (Freund and Schapire, 1997) 1. Given a set of d class-labeled tuples, (X 1, y 1 ),, (X d, y d ) 2. Initially, all the weights of tuples are set the same (1/d) 3. Generate k classifiers in k rounds. At round i, 1. Tuples from D are sampled (with replacement) to form a training set D i of the same size 2. Each tuple s chance of being selected is based on its weight 3. A classification model M i is derived from D i 4. Its error rate is calculated using D i as a test set 5. If a tuple is misclassified, its weight is increased, o.w. it is decreased 4. Error rate: err(x j ) is the misclassification error of tuple X j. Classifier M i error rate is the sum of the weights of the misclassified tuples: d ( i j j j error M ) w err ( X ) 5. The weight of classifier M i s vote is 61 1 error ( M i ) log error ( M ) i

62 Random Forest (Breiman 2001) Random Forest: Each classifier in the ensemble is a decision tree classifier and is generated using a random selection of attributes at each node to determine the split During classification, each tree votes and the most popular class is returned Two Methods to construct Random Forest: 1. Forest-RI (random input selection): Randomly select, at each node, F attributes as candidates for the split at the node. The CART methodology is used to grow the trees to maximum size 2. Forest-RC (random linear combinations): Creates new attributes (or features) that are a linear combination of the existing attributes (reduces the correlation between individual classifiers) Comparable in accuracy to Adaboost, but more robust to errors and outliers Insensitive to the number of attributes selected for consideration at each split, and faster than bagging or boosting 62

63 Classification of Class-Imbalanced Data Sets Class-imbalance problem: Rare positive example but numerous negative ones, e.g., medical diagnosis, fraud, oilspill, fault, etc. Traditional methods assume a balanced distribution of classes and equal error costs: not suitable for classimbalanced data Typical methods for imbalance data in 2-class classification: 1. Oversampling: re-sampling of data from positive class 2. Under-sampling: randomly eliminate tuples from negative class 3. Threshold-moving: moves the decision threshold, t, so that the rare class tuples are easier to classify, and hence, less chance of costly false negative errors 4. Ensemble techniques: Ensemble multiple classifiers introduced above Still difficult for class imbalance problem on multiclass tasks 63

64 Rangkuman Classification is a form of data analysis that extracts models describing important data classes Effective and scalable methods have been developed for decision tree induction, Naive Bayesian classification, rule-based classification, and many other classification methods Evaluation metrics include: accuracy, sensitivity, specificity, precision, recall, F measure, and Fß measure Stratified k-fold cross-validation is recommended for accuracy estimation. Bagging and boosting can be used to increase overall accuracy by learning and combining a series of individual models 64

65 Rangkuman Significance tests and ROC curves are useful for model selection. There have been numerous comparisons of the different classification methods; the matter remains a research topic No single method has been found to be superior over all others for all data sets Issues such as accuracy, training time, robustness, scalability, and interpretability must be considered and can involve trade-offs, further complicating the quest for an overall superior method 65

66 TERIMA KASIH 66

67 Credit Romi Satria Wahono Jong Jek Siang Jaringan syaraf tiruan dan pemrogramannya menggunakan matlab, ANDI Offset. 67

MKB3462 KECERDASAN BUATAN. Muhammad Zidny Naf an, M.Kom.

MKB3462 KECERDASAN BUATAN. Muhammad Zidny Naf an, M.Kom. MKB3462 KECERDASAN BUATAN Muhammad Zidny Naf an, M.Kom. Decision Tree (DT) Learning Menemukan fungsi2 pendekatan yang bernilai diskrit Jenis decision tree: ID3 (iterative dychotomizer version 3) ASSISTANT

Lebih terperinci

S1 Teknik Informatika Fakultas Teknologi Informasi Universitas Kristen Maranatha

S1 Teknik Informatika Fakultas Teknologi Informasi Universitas Kristen Maranatha S1 Teknik Informatika Fakultas Teknologi Informasi Universitas Kristen Maranatha Pendahuluan Classification Decision tree induction Bayesian classification 2 Classification : klasifikasi data berdasarkan

Lebih terperinci

ALGORITMA C4.5. Algoritma C4.5 merupakan algoritma yang digunakan untuk membentuk pohon keputusan. Tabel 3.1. Keputusan Bermain Tenis

ALGORITMA C4.5. Algoritma C4.5 merupakan algoritma yang digunakan untuk membentuk pohon keputusan. Tabel 3.1. Keputusan Bermain Tenis ALGORITMA C4.5 Algoritma C4.5 merupakan algoritma yang digunakan untuk membentuk pohon keputusan. Tabel 3.1. Keputusan Bermain Tenis NO OUTLOOK TEMPERATURE HUMIDITY WINDY PLAY 1 Sunny Hot High FALSE No

Lebih terperinci

Klasifikasi. Diadaptasi dari slide Jiawei Han

Klasifikasi. Diadaptasi dari slide Jiawei Han Klasifikasi Diadaptasi dari slide Jiawei Han http://www.cs.uiuc.edu/~hanj/bk2/ Pengantar Classification Memprediksi kelas suatu item Membuat model berdasarkan data pelatihan dan digunakan untuk mengklasifikasi

Lebih terperinci

Klasifikasi. Diadaptasi dari slide Jiawei Han

Klasifikasi. Diadaptasi dari slide Jiawei Han Klasifikasi Diadaptasi dari slide Jiawei Han http://www.cs.uiuc.edu/~hanj/bk2/ yudi@upi.edu / Okt 2012 Pengantar Classification Memprediksi kelas suatu item Membuat model berdasarkan data pelatihan dan

Lebih terperinci

Metode Bayes. Tim Machine Learning

Metode Bayes. Tim Machine Learning Metode Bayes Tim Machine Learning Mengapa Metode Bayes Metode Find-S tidak dapat digunakan untuk data yang tidak konsisten dan data yang bias, sehingga untuk bentuk data semacam ini salah satu metode sederhana

Lebih terperinci

ID3 : Induksi Decision Tree

ID3 : Induksi Decision Tree ID3 : Induksi Decision Tree Singkatan: Iterative Dichotomiser 3 Induction of Decision "3" (baca: Tree Pembuat: Ross Quinlan, sejak akhir dekade 70-an. Pengembangan Lanjut: Cikal bakal algoritma C4.5, pada

Lebih terperinci

SIMULASI MONTE CARLO RISK MANAGEMENT DEPARTMENT OF INDUSTRIAL ENGINEERING

SIMULASI MONTE CARLO RISK MANAGEMENT DEPARTMENT OF INDUSTRIAL ENGINEERING SIMULASI MONTE CARLO RISK MANAGEMENT DEPARTMENT OF INDUSTRIAL ENGINEERING PENGANTAR Simulasi Monte Carlo didefinisikan sebagai semua teknik sampling statistik yang digunakan untuk memperkirakan solusi

Lebih terperinci

Algoritma C4.5. Untuk memudahkan penjelasan mengenai algoritma C4.5 berikut ini disertakan contoh kasus yang dituangkan dalam Tabel 1.

Algoritma C4.5. Untuk memudahkan penjelasan mengenai algoritma C4.5 berikut ini disertakan contoh kasus yang dituangkan dalam Tabel 1. Algoritma C4.5 1 Kusrini, 2 Emha Taufiq Luthfi 1 Jurusan Sistem Informasi, 2 Jurusan Teknik Informatika 1, 2 STMIK AMIKOM Yogykakarta 1,2 Jl. Ringroad Utara Condong Catur Sleman Yogyakarta Untuk memudahkan

Lebih terperinci

Universitas Putra Indonesia YPTK Padang Fakultas Ilmu Komputer Program Studi Teknik Informatika. Classification Decision Tree

Universitas Putra Indonesia YPTK Padang Fakultas Ilmu Komputer Program Studi Teknik Informatika. Classification Decision Tree Universitas Putra Indonesia YPTK Padang Fakultas Ilmu Komputer Program Studi Teknik Informatika Classification Decision Tree Classification Decision Tree Pengertian Pohon Keputusan Pohon keputusan adalah

Lebih terperinci

Inferensia Statistik parametrik VALID?? darimana sampel diambil

Inferensia Statistik parametrik VALID?? darimana sampel diambil Inferensia Statistik parametrik VALID?? Tergantung dari bentuk populasi Tergantung dari bentuk populasi darimana sampel diambil Uji kesesuaian (goodness of fit) ) untuk tabel frekuensi Goodness-of-fit

Lebih terperinci

BAB 3 ALGORITMA C4.5. Algoritma C4.5 merupakan algoritma yang digunakan untuk membentuk pohon keputusan.

BAB 3 ALGORITMA C4.5. Algoritma C4.5 merupakan algoritma yang digunakan untuk membentuk pohon keputusan. BAB 3 ALGORITMA C4.5 Algoritma C4.5 merupakan algoritma yang digunakan untuk membentuk pohon keputusan. A. Pohon Keputusan Pohon keputusan merupakan metode klasifikasi dan prediksi yang sangat kuat dan

Lebih terperinci

PEMANFAATAN NEURAL NETWORK PERCEPTRON PADA PENGENALAN POLA KARAKTER

PEMANFAATAN NEURAL NETWORK PERCEPTRON PADA PENGENALAN POLA KARAKTER PEMANFAATAN NEURAL NETWORK PERCEPTRON PADA PENGENALAN POLA KARAKTER Fakultas Teknologi Informasi Universitas Merdeka Malang Abstract: Various methods on artificial neural network has been applied to identify

Lebih terperinci

Statistik Bisnis 2. Week 4 Fundamental of Hypothesis Testing Methodology

Statistik Bisnis 2. Week 4 Fundamental of Hypothesis Testing Methodology Statistik Bisnis 2 Week 4 Fundamental of Hypothesis Testing Methodology ONE-TAIL TESTS One-Tail Tests In many cases, the alternative hypothesis focuses on a particular direction H 0 : μ 3 H 1 : μ < 3 H

Lebih terperinci

Pohon Keputusan. 6.1 Inductive Learning

Pohon Keputusan. 6.1 Inductive Learning 6 Pohon Keputusan Sometimes you make the right decision, sometimes you make the decision right. Phil McGraw Bab ini akan menelaskan salah satu varian pohon keputusan yaitu ID3 oleh Quinlan [27, 28] yang

Lebih terperinci

DATA MINING KLASIFIKASI BERBASIS DECISION TREE. Ramadhan Rakhmat Sani, M.Kom

DATA MINING KLASIFIKASI BERBASIS DECISION TREE. Ramadhan Rakhmat Sani, M.Kom DATA MINING KLASIFIKASI BERBASIS DECISION TREE Ramadhan Rakhmat Sani, M.Kom Text Book Outline 1. Algoritma Data Mining Algoritma ID3 Algoritma C4.5 Algoritma C4.5 Introduction Algoritma C4.5 merupakan

Lebih terperinci

Statistics for Managers Using Microsoft Excel Chapter 1 Introduction and Data Collection

Statistics for Managers Using Microsoft Excel Chapter 1 Introduction and Data Collection Statistics for Managers Using Microsoft Excel Chapter 1 Introduction and Data Collection 1999 Prentice-Hall, Inc. Chap. 1-1 Statistik untuk Para Menejer 1. Untuk mengetahui tingkat pengembalian investasi.

Lebih terperinci

ABSTRAK. Kata Kunci : Artificial Neural Network(ANN), Backpropagation(BP), Levenberg Marquardt (LM), harga emas, Mean Squared Error(MSE), prediksi.

ABSTRAK. Kata Kunci : Artificial Neural Network(ANN), Backpropagation(BP), Levenberg Marquardt (LM), harga emas, Mean Squared Error(MSE), prediksi. ABSTRAK Prediksi harga emas merupakan masalah yang sangat penting dalam menentukan pengambilan keputusan perdagangan dalam pertambangan. Prediksi yang akurat untuk pertambangan dapat memberikan keuntungan

Lebih terperinci

Dependent VS independent variable

Dependent VS independent variable Kuswanto-2012 !" #!! $!! %! & '% Dependent VS independent variable Indep. Var. (X) Dep. Var (Y) Regression Equation Fertilizer doses Yield y = b0 + b1x Evaporation Rain fall y = b0+b1x+b2x 2 Sum of Leave

Lebih terperinci

KLASIFIKASI CALON PENDONOR DARAH MENGGUNAKAN METODE NAÏVE BAYES CLASSIFIER

KLASIFIKASI CALON PENDONOR DARAH MENGGUNAKAN METODE NAÏVE BAYES CLASSIFIER KLASIFIKASI CALON PENDONOR DARAH MENGGUNAKAN METODE NAÏVE BAYES CLASSIFIER (STUDI KASUS : Calon Pendonor Darah di Kota Semarang) SKRIPSI Disusun Oleh : DHIMAS BAYUSUSETYO NIM. 24010212130081 DEPARTEMEN

Lebih terperinci

DEVELOPMENT OF MAXIMUM ENTROPY ESTIMATOR FOR CALIBRATING TRIP DISTRIBUTION MODELS

DEVELOPMENT OF MAXIMUM ENTROPY ESTIMATOR FOR CALIBRATING TRIP DISTRIBUTION MODELS DEVELOPMENT OF MAXIMUM ENTROPY ESTIMATOR FOR CALIBRATING TRIP DISTRIBUTION MODELS f T ( i T 3 8 8. 4 1 3 W I D SUMMARY DEVELOPMENT OF MAXIMUM ENTROPY (ME) ESTIMATOR FOR CALIBRATING TRIP DISTRIBUTION MODELS,

Lebih terperinci

Bab II Dasar Teori. 2.1 Estimasi Akurasi Classifier Metode Holdout

Bab II Dasar Teori. 2.1 Estimasi Akurasi Classifier Metode Holdout Bab II Dasar Teori 2.1 Estimasi Akurasi Classifier Estimasi akurasi classifier penting dilakukan untuk mengevaluasi seberapa akurat sebuah classifier mengklasifikasikan future data, yaitu data yang belum

Lebih terperinci

THE APPLICATION OF DATA MINING FOR OLD STUDENT TO PREDICTION STUDIES USING NAIVE BAYES AND ADABOOST METHOD

THE APPLICATION OF DATA MINING FOR OLD STUDENT TO PREDICTION STUDIES USING NAIVE BAYES AND ADABOOST METHOD THE APPLICATION OF DATA MINING FOR OLD STUDENT TO PREDICTION STUDIES USING NAIVE BAYES AND ADABOOST METHOD 1 JACOB SOARES, 2 ALBERTUS JOKO SANTOSO, 3 SUYOTO 1, 2, 3 Universitas Atma Jaya Yogyakarta E-mail:

Lebih terperinci

Statistik Bisnis. Week 13 Chi-Square Test

Statistik Bisnis. Week 13 Chi-Square Test Statistik Bisnis Week 13 Chi-Square Test Learning Objectives In this chapter, you learn: How and when to use the chi-square test for contingency tables TEST FOR THE DIFFERENCE BETWEEN TWO PROPORTIONS Contingency

Lebih terperinci

ADLN Perpustakaan Universitas Airlangga

ADLN Perpustakaan Universitas Airlangga PERBANDINGAN METODE GENERALIZED CROSS VALIDATION DAN GENERALIZED MAXIMUM LIKELIHOOD DALAM REGRESI NONPARAMETRIK SPLINE UNTUK MEMPERKIRAKAN JUMLAH LEUKOSIT PADA TERSANGKA FLU BURUNG DI JAWA TIMUR RINGKASAN

Lebih terperinci

BAB 2. Landasan Teori

BAB 2. Landasan Teori BAB 2 Landasan Teori 2.1 Pengertian Data Mining Menurut Han dan Kamber (2011:6) menjelaskan bahwa Data Mining merupakan pemilihan atau menggali pengetahuan dari jumlah data yang banyak. Berbeda dengan

Lebih terperinci

By SRI SISWANTI NIM

By SRI SISWANTI NIM READING COMPREHENSION IN NARRATIVE TEXT OF THE TENTH GRADE STUDENTS OF MA NAHDLATUL MUSLIMIN UNDAAN KUDUS TAUGHT BY USING IMAGINATIVE READING MATERIALS IN THE ACADEMIC YEAR 2015/2016 By SRI SISWANTI NIM.

Lebih terperinci

STATISTIKA TEKNIK LNK2016 CORRELATION & REGRESSION

STATISTIKA TEKNIK LNK2016 CORRELATION & REGRESSION STATISTIKA TEKNIK LNK2016 CORRELATION & REGRESSION ! Correlation is a statistical method used to determine whether a relationship between variables exists.! Regression is a statistical method used to describe

Lebih terperinci

DATA MINING. Pertemuan 2. Nizar Rabbi Radliya 3 SKS Semester 6 S1 Sistem Informasi

DATA MINING. Pertemuan 2. Nizar Rabbi Radliya 3 SKS Semester 6 S1 Sistem Informasi DATA MINING 3 SKS Semester 6 S1 Sistem Informasi Pertemuan 2 Nizar Rabbi Radliya nizar.radliya@yahoo.com Universitas Komputer Indonesia 2016 Mengapa Data Mining? Penumpukan data Minimnya pemanfaatan data

Lebih terperinci

PENERAPAN ALGORITMA C5.0 DALAM PENGKLASIFIKASIAN DATA MAHASISWA UNIVERSITAS NEGERI GORONTALO

PENERAPAN ALGORITMA C5.0 DALAM PENGKLASIFIKASIAN DATA MAHASISWA UNIVERSITAS NEGERI GORONTALO PENERAPAN ALGORITMA C5.0 DALAM PENGKLASIFIKASIAN DATA MAHASISWA UNIVERSITAS NEGERI GORONTALO Wandira Irene, Mukhlisulfatih Latief, Lillyan Hadjaratie Program Studi S1 Sistem Informasi / Teknik Informatika

Lebih terperinci

KLASIFIKASI CITRA SATELIT MENGGUNAKAN JARINGAN SYARAF TIRUAN UNTUK MENGEKSTRAKSI TAMPAKAN PERMUKIMAN DAERAH PERKOTAAN

KLASIFIKASI CITRA SATELIT MENGGUNAKAN JARINGAN SYARAF TIRUAN UNTUK MENGEKSTRAKSI TAMPAKAN PERMUKIMAN DAERAH PERKOTAAN KLASIFIKASI CITRA SATELIT MENGGUNAKAN JARINGAN SYARAF TIRUAN UNTUK MENGEKSTRAKSI TAMPAKAN PERMUKIMAN DAERAH PERKOTAAN (Studi Kasus: Kota Bandarlampung) TESIS MAGISTER Diajukan untuk melengkapi tugas dan

Lebih terperinci

ABSTRAK. Universitas Kristen Maranatha

ABSTRAK. Universitas Kristen Maranatha ABSTRAK Metoda analisa data secara statistik dapat diaplikasikan untuk mendapatkan pengertian terhadap proses-proses yang berubah waktu yang sangat kompleks untuk dimodelkan secara analitik. Data pertama-tama

Lebih terperinci

PENERAPAN METODE NAÏVE BAYES CLASSIFIER DAN ALGORITMA ADABOOST UNTUK PREDIKSI PENYAKIT GINJAL KRONIK

PENERAPAN METODE NAÏVE BAYES CLASSIFIER DAN ALGORITMA ADABOOST UNTUK PREDIKSI PENYAKIT GINJAL KRONIK PENERAPAN METODE NAÏVE BAYES CLASSIFIER DAN ALGORITMA ADABOOST UNTUK PREDIKSI PENYAKIT GINJAL KRONIK SKRIPSI Diajukan untuk memenuhi sebagian persyaratan mendapatkan gelar Strata Satu Program Studi Informatika

Lebih terperinci

Outline. Struktur Data & Algoritme (Data Structures & Algorithms) Pengantar. Definisi. 2-3 Trees

Outline. Struktur Data & Algoritme (Data Structures & Algorithms) Pengantar. Definisi. 2-3 Trees Struktur Data & Algoritme (Data Structures & Algorithms) 2-3 Trees Outline Pengantar Definisi 2-3 Tree Operasi: Search Insert Delete (a,b)-tree Denny (denny@cs.ui.ac.id) Suryana Setiawan (setiawan@cs.ui.ac.id)

Lebih terperinci

PENERAPAN ALGORITMA NAÏVE BAYES UNTUK DETEKSI BAKTERI E-COLI

PENERAPAN ALGORITMA NAÏVE BAYES UNTUK DETEKSI BAKTERI E-COLI PENERAPAN ALGORITMA NAÏVE BAYES UNTUK DETEKSI BAKTERI E-COLI Laily Hermawanti Program Studi Teknik informatika Fakultas Teknik Universitas Sultan Fatah (UNISFAT) Jl. Diponegoro 1B Jogoloyo Demak Telpon

Lebih terperinci

5. The removed-treatment design with pretest & posttest Design: O 1 X O 2 O 3 X O 4 Problem: O 2 - O 3 not thesame with O 3 - O 4 construct validity o

5. The removed-treatment design with pretest & posttest Design: O 1 X O 2 O 3 X O 4 Problem: O 2 - O 3 not thesame with O 3 - O 4 construct validity o 4. The nonequivalent dependent variables design Design: O 1A X O 2A O 1B O 2B Problem: Growth rate unrepresentative measure continuous assumption 01-2-3 5. The removed-treatment design with pretest & posttest

Lebih terperinci

Data Mining Pengklasifikasian: Konsep Dasar, Pohon Keputusan, and Evaluasi Model. Pengklasifikasian: Definisi. Catatan Kuliah untuk Bab 4

Data Mining Pengklasifikasian: Konsep Dasar, Pohon Keputusan, and Evaluasi Model. Pengklasifikasian: Definisi. Catatan Kuliah untuk Bab 4 Data Mining Pengklasifikasian: Konsep Dasar, Pohon Keputusan, and Evaluasi Catatan Kuliah untuk Bab 4 Pengantar Data Mining oleh Tan, Steinbach, Kumar dialihbahasakan oleh Tim Pengajar Konsep Data Mining

Lebih terperinci

Abstract. Keywords: Artificial Neural Network

Abstract. Keywords: Artificial Neural Network Abstract Artificial Neural Network is one of the technologies which have developed because of Information Technology development itself. Nowadays, more and more large companies are implementing Artificial

Lebih terperinci

BAB III METODOLOGI PENELITIAN. Dataset

BAB III METODOLOGI PENELITIAN. Dataset BAB III METODOLOGI PENELITIAN Metodologi penelitian diuraikan dalam skema tahap penelitian untuk memberikan petunjuk atau gambaran yang jelas, teratur, dan sistematis seperti yang ditunjukkan pada Gambar

Lebih terperinci

KLASIFIKASI CALON PENDONOR DARAH MENGGUNAKAN METODE NAÏVE BAYES CLASSIFIER (Studi Kasus : Calon Pendonor Darah di Kota Semarang)

KLASIFIKASI CALON PENDONOR DARAH MENGGUNAKAN METODE NAÏVE BAYES CLASSIFIER (Studi Kasus : Calon Pendonor Darah di Kota Semarang) ISSN: 2339-2541 JURNAL GAUSSIAN, Volume 6, Nomor 2, Tahun 2017, Halaman 193-200 Online di: http://ejournal-s1.undip.ac.id/index.php/gaussian KLASIFIKASI CALON PENDONOR DARAH MENGGUNAKAN METODE NAÏVE BAYES

Lebih terperinci

Jurnal String Vol. 1 No. 1 Tahun 2016 ISSN:

Jurnal String Vol. 1 No. 1 Tahun 2016 ISSN: KAJIAN KOMPARASI ALGORITMA C4.5, NAÏVE BAYES DAN NEURAL NETWORK DALAM PEMILIHAN PENERIMA BEASISWA (Studi Kasus pada SMA Muhammadiyah 4 Jakarta ) Ulfa Pauziah Program Studi Teknik Informatika, Universitas

Lebih terperinci

BAB III METODE PENELITIAN

BAB III METODE PENELITIAN BAB III METODE PENELITIAN 3.1. Metode Pengumpulan Data Data yang digunakan pada penelitian ini merupakan data sentimen dari pengguna aplikasi android yang memberikan komentarnya pada fasilitas user review

Lebih terperinci

Kasus. Survey terhadap remaja usia tahun apakah pernah melakukan kerja paruh waktu (part-time)??

Kasus. Survey terhadap remaja usia tahun apakah pernah melakukan kerja paruh waktu (part-time)?? Kasus Survey terhadap remaja usia 15-16 tahun apakah pernah melakukan kerja paruh waktu (part-time)?? Berikut Tabel datanya: Race Gender Yes Part Time Job No White Male 43 134 Female 26 149 Black Male

Lebih terperinci

BAB II LANDASAN TEORI

BAB II LANDASAN TEORI BAB II LANDASAN TEORI 2.1 Data Mining Data Mining adalah proses yang mempekerjakan satu atau lebih teknik pembelajaran komputer (machine learning) untuk menganalisis dan mengekstraksi pengetahuan (knowledge)

Lebih terperinci

ADLN - Perpustakaan Universitas Airlangga ABSTRAK. viii

ADLN - Perpustakaan Universitas Airlangga ABSTRAK. viii Muhammad Arif Santoso, 2015. Peramalan Penjualan Produk Menggunakan Jaringan Syaraf Tiruan Metode Extreme Learning Machine. Skripsi ini dibawah bimbingan Auli Damayanti,S.Si, M.Si dan Dr. Herry Suprajitno,

Lebih terperinci

ABSTRAK. Kata Kunci: data tidak seimbang, klasifikasi, KSMOTE, boosting, SSO, support vector machine.

ABSTRAK. Kata Kunci: data tidak seimbang, klasifikasi, KSMOTE, boosting, SSO, support vector machine. ABSTRAK Klasifikasi dalam data mining adalah proses untuk menemukan model atau fungsi yang mendeskripsikan dan membedakan kelas-kelas data atau konsep. Salah satu permasalahan klasifikasi adalah distribusi

Lebih terperinci

Algoritma Data Mining (2) Tugas Klasifikasi

Algoritma Data Mining (2) Tugas Klasifikasi Algoritma Data Mining (2) Tugas Klasifikasi Anief Fauzan Rozi, S. Kom., M. Eng. 1 Kompentensi Mahasiswa mengetahui algoritma data mining pada tugas klasifikasi 2 Pokok Bahasan Algoritma C4.5 3 Supervised

Lebih terperinci

IMPACT OF SEVERAL ROUTE CHOICE MODELS ON THE ACCURACY OF ESTIMATED O-D MATRICES FROM TRAFFIC COUNTS

IMPACT OF SEVERAL ROUTE CHOICE MODELS ON THE ACCURACY OF ESTIMATED O-D MATRICES FROM TRAFFIC COUNTS IMPACT OF SEVERAL ROUTE CHOICE MODELS ON THE ACCURACY OF ESTIMATED O-D MATRICES FROM TRAFFIC COUNTS S U M M A R Y IMPACT OF SEVERAL ROUTE CHOICE MODELS ON THE ACCURACY OF ESTIMATED O-D MATRICES FROM TRAFFIC

Lebih terperinci

K-Means Clustering. Tim Asprak Metkuan. What is Clustering?

K-Means Clustering. Tim Asprak Metkuan. What is Clustering? K-Means Clustering Tim Asprak Metkuan What is Clustering? Also called unsupervised learning, sometimes called classification by statisticians and sorting by psychologists and segmentation by people in

Lebih terperinci

Nama Soal Pembagian Ring Road Batas Waktu 1 detik Nama Berkas Ringroad[1..10].out Batas Memori 32 MB Tipe [output only] Sumber Brian Marshal

Nama Soal Pembagian Ring Road Batas Waktu 1 detik Nama Berkas Ringroad[1..10].out Batas Memori 32 MB Tipe [output only] Sumber Brian Marshal Nama Soal Pembagian Ring Road Batas Waktu 1 detik Nama Berkas Ringroad[1..10].out Batas Memori 32 MB Tipe [output only] Sumber Brian Marshal Deskripsi Soal Dalam rangka mensukseskan program Visit Indonesia,

Lebih terperinci

Pemrograman Lanjut. Interface

Pemrograman Lanjut. Interface Pemrograman Lanjut Interface PTIIK - 2014 2 Objectives Interfaces Defining an Interface How a class implements an interface Public interfaces Implementing multiple interfaces Extending an interface 3 Introduction

Lebih terperinci

Statistik Bisnis 1. Week 9 Discrete Probability

Statistik Bisnis 1. Week 9 Discrete Probability Statistik Bisnis 1 Week 9 Discrete Probability Random Variables Random Variables Discrete Random Variable Continuous Random Variable Wk. 9 Wk. 10 Probability Distributions Probability Distributions Wk.

Lebih terperinci

BAB I 1 PENDAHULUAN. atas sekelompok vertebra, invertebrate discs, saraf, otot, medulla, dan sendi

BAB I 1 PENDAHULUAN. atas sekelompok vertebra, invertebrate discs, saraf, otot, medulla, dan sendi BAB I 1 PENDAHULUAN 1.1 Latar Belakang Tulang punggung merupakan bagian dari tulang belakang yang tersusun atas sekelompok vertebra, invertebrate discs, saraf, otot, medulla, dan sendi (Berthonnaud et

Lebih terperinci

Apa itu suatu Hypothesis?

Apa itu suatu Hypothesis? Chapter 7 Student Lecture Notes 7-1 Dasar Dasar Hipotesis Apa itu suatu Hypothesis? Hypothesis adalah suatu pernyataan (asumsi) tentang parameter populasi I nyatakan rata-rata IPK kelas ini = 3.5! Contoh

Lebih terperinci

FAKULTAS KESEHATAN MASYARAKAT UNIVERSITAS SUMATERA UTARA MEDAN 2011 ABSTRAK

FAKULTAS KESEHATAN MASYARAKAT UNIVERSITAS SUMATERA UTARA MEDAN 2011 ABSTRAK PERBANDINGAN HASIL UJI EXACT FISHER DAN UJI KOREKSI YATES DALAM MENELITI HUBUNGAN KARAKTERISTIK IBU DAN BAYI DENGAN KEJADIAN INFEKSI (STUDI KASUS PADA BAYI 0-6 BULAN YANG DIBERI MP-ASI DI PUSKESMAS SUNGGAL

Lebih terperinci

BAB III METODE PENELITIAN

BAB III METODE PENELITIAN BAB III METODE PENELITIAN Penelitian ini adalah penelitian eksperimen dengan langkah-langkah atau metode penelitian sebagai berikut: 1. Penentuan Masalah Penentuan masalah ini diperoleh dari studi literature

Lebih terperinci

DECISION TREE BERBASIS ALGORITMA UNTUK PENGAMBILAN KEPUTUSAN

DECISION TREE BERBASIS ALGORITMA UNTUK PENGAMBILAN KEPUTUSAN ISSN : 1978-6603 DECISION TREE BERBASIS ALGORITMA UNTUK PENGAMBILAN KEPUTUSAN Zulfian Azmi #1, Muhammad Dahria #2 #1 Program Studi Sistem Komputer, #2 Program Studi Sistem Informasi STMIK Triguna Dharma

Lebih terperinci

KLASIFIKASI NASABAH ASURANSI JIWA MENGGUNAKAN ALGORITMA NAIVE BAYES BERBASIS BACKWARD ELIMINATION

KLASIFIKASI NASABAH ASURANSI JIWA MENGGUNAKAN ALGORITMA NAIVE BAYES BERBASIS BACKWARD ELIMINATION KLASIFIKASI NASABAH ASURANSI JIWA MENGGUNAKAN ALGORITMA NAIVE BAYES BERBASIS BACKWARD ELIMINATION Betrisandi betris.sin@gmail.com Universitas Ichsan Gorontalo Abstrak Pendapatan untuk perusahaan asuransi

Lebih terperinci

PEMBENTUKAN DECISION TREE DATA LAMA STUDI MAHASISWA MENGGUNAKAN ALGORITMA NBTREE DAN C4.5

PEMBENTUKAN DECISION TREE DATA LAMA STUDI MAHASISWA MENGGUNAKAN ALGORITMA NBTREE DAN C4.5 PEMBENTUKAN DECISION TREE DATA LAMA STUDI MAHASISWA MENGGUNAKAN ALGORITMA NBTREE DAN C4.5 Syam Gunawan 1, Pritasari Palupiningsih 2 1,2 Jurusan Sistem Informasi, STMIK Indonesia 1 syam@stmik-indonesia.ac.id,

Lebih terperinci

Statistik Bisnis 2. Week 6 Two-Sample Test Population Proportions and Variances

Statistik Bisnis 2. Week 6 Two-Sample Test Population Proportions and Variances Statistik Bisnis Week 6 Two-Samle Test Poulation Proortions and Variances Learning Objectives The means of two indeendent oulations The means of two related oulations In this chater, you learn how to use

Lebih terperinci

BAB IV HASIL PENELITIAN DAN PEMBAHASAN

BAB IV HASIL PENELITIAN DAN PEMBAHASAN BAB IV HASIL PENELITIAN DAN PEMBAHASAN 1.1 Data Training Data training adalah data yang digunakan untuk pembelajaran pada proses data mining atau proses pembentukan pohon keputusan.pada penelitian ini

Lebih terperinci

Moch. Ali Machmudi 1) 1) Stmik Bina Patria

Moch. Ali Machmudi 1) 1) Stmik Bina Patria UJI PENGARUH KARAKTERISTIK DATASET PADA PERFORMA ALGORITMA KLASIFIKASI Moch. Ali Machmudi 1) 1) Stmik Bina Patria 1) Jurusan Manjemen Informatika-D3 Email : 1 aliadhinata@gmail.com 1) Abstrak Tujuan utama

Lebih terperinci

DISTRIBUTION OF HIGHWAY AXLE LOADS IN WEST JAVA AND METHODS OF MEASURING VEHICLE LOADING

DISTRIBUTION OF HIGHWAY AXLE LOADS IN WEST JAVA AND METHODS OF MEASURING VEHICLE LOADING DISTRIBUTION OF HIGHWAY AXLE LOADS IN WEST JAVA AND METHODS OF MEASURING VEHICLE LOADING T 388.314 ZUL SUMMARY DISTRIBUTION OF HIGHWAY AXLE LOADS IN WEST JAVA AND METHODS OF MEASURING VEHICLE LOADING,

Lebih terperinci

Analisis Chi-Square (x 2 )

Analisis Chi-Square (x 2 ) Analisis Chi-Square (x 2 ) Chi square ("χ 2 " dari huruf Yunani "Chi "Kai") to determine if data good or not. Expl... to determine possible outcomes for genetic crosses. How will we know if our fruit fly

Lebih terperinci

Manfaat Pohon Keputusan

Manfaat Pohon Keputusan DECISION TREE (POHON KEPUTUSAN) Latar Belakang Pohon Keputusan Di dalam kehidupan manusia sehari-hari, manusia selalu dihadapkan oleh berbagai macam masalah dari berbagai macam bidang. Masalah-masalah

Lebih terperinci

IMPLEMENTASI ALGORITMA RANDOM FORESTS UNTUK KLASIFIKASI SPAM PADA CITRA DAN TEXT INSTAGRAM TUGAS AKHIR

IMPLEMENTASI ALGORITMA RANDOM FORESTS UNTUK KLASIFIKASI SPAM PADA CITRA DAN TEXT INSTAGRAM TUGAS AKHIR IMPLEMENTASI ALGORITMA RANDOM FORESTS UNTUK KLASIFIKASI SPAM PADA CITRA DAN TEXT INSTAGRAM TUGAS AKHIR RIZKY NOVRIYEDI PUTRA 1132001001 PROGRAM STUDI INFORMATIKA FAKULTAS TEKNIK DAN ILMU KOMPUTER UNIVERSITAS

Lebih terperinci

Teknik Pengolahan Data

Teknik Pengolahan Data Universitas Gadjah Mada Jurusan Teknik Sipil dan Lingkungan Prodi Magister Teknik Pengelolaan Bencana Alam Teknik Pengolahan Data Uji Hipotesis (Hypothesis Tes/ng) 1 Uji Hipotesis Model Matema/ka vs Pengukuran

Lebih terperinci

ANALISIS CAPAIAN OPTIMASI NILAI SUKU BUNGA BANK SENTRAL INDONESIA: SUATU PENGENALAN METODE BARU DALAM MENGANALISIS 47 VARIABEL EKONOMI UNTU

ANALISIS CAPAIAN OPTIMASI NILAI SUKU BUNGA BANK SENTRAL INDONESIA: SUATU PENGENALAN METODE BARU DALAM MENGANALISIS 47 VARIABEL EKONOMI UNTU ANALISIS CAPAIAN OPTIMASI NILAI SUKU BUNGA BANK SENTRAL INDONESIA: SUATU PENGENALAN METODE BARU DALAM MENGANALISIS 47 VARIABEL EKONOMI UNTU READ ONLINE AND DOWNLOAD EBOOK : ANALISIS CAPAIAN OPTIMASI NILAI

Lebih terperinci

Penerapan SAS/IML Algoritma EM, Pembangkitan sebaran normal ganda, dan Bootstrap

Penerapan SAS/IML Algoritma EM, Pembangkitan sebaran normal ganda, dan Bootstrap Penerapan SAS/IML Algoritma EM, Pembangkitan sebaran normal ganda, dan Bootstrap τρ Application EM Algorithm Complete-data specification f(x Φ) f x Φ = b x eφt(x) a(φ) E-step : Estimate the complete data

Lebih terperinci

LAMPIRAN III. Output SPSS

LAMPIRAN III. Output SPSS LAMPIRAN III Output SPSS 1. Output Uji Normalitas Reksa Dana Campuran dan Reksa Dana Saham Frequencies Notes Output Created 09-JUL-2014 12:58:37 Comments Input Active Dataset DataSet3 Filter Weight Split

Lebih terperinci

BAB III REGRESI LOGISTIK BINER DAN CLASSIFICATION AND REGRESSION TREES (CART) Odds Ratio

BAB III REGRESI LOGISTIK BINER DAN CLASSIFICATION AND REGRESSION TREES (CART) Odds Ratio 21 BAB III REGRESI LOGISTIK BINER DAN CLASSIFICATION AND REGRESSION TREES (CART) 3.1 Regresi Logistik Biner Regresi logistik berguna untuk meramalkan ada atau tidaknya karakteristik berdasarkan prediksi

Lebih terperinci

Classification. Decision Tree. Decision Tree. Konsep Decision Tree. Penggunaan Decision Tree. When To Consider Decision Tree?

Classification. Decision Tree. Decision Tree. Konsep Decision Tree. Penggunaan Decision Tree. When To Consider Decision Tree? Classification Decision Tree esi 09 Dosen Pembina : Danang Junaedi IF-UTAMA 1 IF-UTAMA Konsep Decision Tree Decision Tree Mengubah data menjadi pohon keputusan (decision tree) dan aturan-aturan keputusan

Lebih terperinci

KORELASI NILAI INTERNATIONAL ROUGHNESS INDEX (IRI) HASIL PENGUKURAN ALAT MERLIN DAN BUMP INTEGRATOR

KORELASI NILAI INTERNATIONAL ROUGHNESS INDEX (IRI) HASIL PENGUKURAN ALAT MERLIN DAN BUMP INTEGRATOR KORELASI NILAI INTERNATIONAL ROUGHNESS INDEX (IRI) HASIL PENGUKURAN ALAT MERLIN DAN BUMP INTEGRATOR ABSTRAK KORELASI NILAI INTERNATIONAL ROUGHNESS INDEX (IRI) HASIL PENGUKURAN ALAT MERLIN DAN BUMP INTEGRATOR

Lebih terperinci

Statistik Bisnis 1. Week 8 Basic Probability

Statistik Bisnis 1. Week 8 Basic Probability Statistik Bisnis 1 Week 8 Basic Probability Objectives By the end of this class student should be able to: Understand different types of probabilities Compute probabilities Revise probabilities in light

Lebih terperinci

PERBANDINGAN HASIL KLASIFIKASI ANALISIS DISKRIMINAN DAN JARINGAN SYARAF TIRUAN

PERBANDINGAN HASIL KLASIFIKASI ANALISIS DISKRIMINAN DAN JARINGAN SYARAF TIRUAN TUGAS AKHIR - ST 1325 PERBANDINGAN HASIL KLASIFIKASI ANALISIS DISKRIMINAN DAN JARINGAN SYARAF TIRUAN ANANG SETIYO BUDI NRP 1303 100 060 Dosen Pembimbing Dra. Kartika Fitriasari, M.Si Adatul Mukarromah,

Lebih terperinci

oleh WAHYUNI PUTRANTO NIM. M SKRIPSI ditulis dan diajukan untuk memenuhi sebagian persyaratan memperoleh gelar Sarjana Sains Matematika

oleh WAHYUNI PUTRANTO NIM. M SKRIPSI ditulis dan diajukan untuk memenuhi sebagian persyaratan memperoleh gelar Sarjana Sains Matematika PERBANDINGAN METODE GRADIENT DESCENT DAN GRADIENT DESCENT DENGAN MOMENTUM PADA JARINGAN SYARAF TIRUAN BACKPROPAGATION DALAM PERAMALAN KURS TENGAH RUPIAH TERHADAP DOLAR AMERIKA oleh WAHYUNI PUTRANTO NIM.

Lebih terperinci

Classification (1) Classification (3) Classification (2) Contoh Classification. Classification (4)

Classification (1) Classification (3) Classification (2) Contoh Classification. Classification (4) Knowledge Discovery in Databases (IS704) dan Data Mining (CS704) Kuliah #5: Classification (Bagian 1) Gunawan Jurusan Teknik Informatika Sekolah Tinggi Teknik Surabaya Revisi 14 Agustus 2007 Classification

Lebih terperinci

UKURAN ASOSIASI DALAM EPIDEMIOLOGI. Putri Handayani, M. KKK

UKURAN ASOSIASI DALAM EPIDEMIOLOGI. Putri Handayani, M. KKK UKURAN ASOSIASI DALAM EPIDEMIOLOGI Putri Handayani, M. KKK Tipe ukuran yang digunakan dalam epidemiologi Ukuran asosiasi Merefleksikan kekuatan atau besar asosiasi antara suatu eksposur/faktor risiko dan

Lebih terperinci

ABSTRAK. Teknologi pengkode sinyal suara mengalami kemajuan yang cukup. pesat. Berbagai metode telah dikembangkan untuk mendapatkan tujuan dari

ABSTRAK. Teknologi pengkode sinyal suara mengalami kemajuan yang cukup. pesat. Berbagai metode telah dikembangkan untuk mendapatkan tujuan dari ABSTRAK Teknologi pengkode sinyal suara mengalami kemajuan yang cukup pesat. Berbagai metode telah dikembangkan untuk mendapatkan tujuan dari pengkode sinyal suara yaitu output sinyal suara yang mempunyai

Lebih terperinci

Decision Making Prentice Hall, Inc. A 1

Decision Making Prentice Hall, Inc. A 1 Decision Making Product Design of ITATS Module based on Operation Management, 9e PowerPoint presentation to accompany Heizer/Render Lecturer: F. Priyo Suprobo, ST, MT 2008 Prentice Hall, Inc. A 1 Permasalahan

Lebih terperinci

BAB I PENDAHULUAN. 1.1 Latar Belakang

BAB I PENDAHULUAN. 1.1 Latar Belakang BAB I PENDAHULUAN 1.1 Latar Belakang Setiap siswa di dalam kelas memiliki karakteristik diri yang berbeda beda, seperti : jujur, empati, sopan, menghargai dan sebagainya. Karakteristik diri tersebut berperan

Lebih terperinci

Teori Pengambilan Keputusan. Week 10 Decision Analysis Decision Tree

Teori Pengambilan Keputusan. Week 10 Decision Analysis Decision Tree Teori Pengambilan Keputusan Week 10 Decision Analysis Decision Tree Six Steps in Decision Making 1. Clearly define the problem at hand. 2. List the possible alternatives. 3. Identify the possible outcomes

Lebih terperinci

Hypothesis Testing SUNU WIBIRAMA

Hypothesis Testing SUNU WIBIRAMA Hypothesis Testing SUNU WIBIRAMA Basic Probability and Statistics Department of Electrical Engineering and Information Technology Faculty of Engineering, Universitas Gadjah Mada CONTENTS 8.1 Introduc-on

Lebih terperinci

Informasi Data Pokok Kota Surabaya Tahun 2012 BAB I GEOGRAFIS CHAPTER I GEOGRAPHICAL CONDITIONS

Informasi Data Pokok Kota Surabaya Tahun 2012 BAB I GEOGRAFIS CHAPTER I GEOGRAPHICAL CONDITIONS BAB I GEOGRAFIS CHAPTER I GEOGRAPHICAL CONDITIONS Indonesia sebagai negara tropis, oleh karena itu kelembaban udara nya sangat tinggi yaitu sekitar 70 90% (tergantung lokasi - lokasi nya). Sedangkan, menurut

Lebih terperinci

UJI HIPOTESIS SATU SAMPEL. Chapter 10

UJI HIPOTESIS SATU SAMPEL. Chapter 10 UJI HIPOTESIS SATU SAMPEL Chapter 10 Tujuan 1. Mendefinisikan hypothesis and hypothesis testing. 2. Menjelaskan lima tahapan prosedur uji hipotesis. 3. Membedakan antara uji hipotesis satu sisi dan dua

Lebih terperinci

Introduction to Time Series Analysis

Introduction to Time Series Analysis Introduction to Time Series Analysis Kegiatan peramalan merupakan bagian integral dari pengambilan keputusan manajemen. Peramalan mengurangi ketergantungan pada hal-hal yang belum pasti (intuitif). Dalam

Lebih terperinci

Statistik Bisnis. Week 12 Analysis of Variance

Statistik Bisnis. Week 12 Analysis of Variance Statistik Bisnis Week 12 Analysis of Variance 1 Learning Objectives This week, you learn: How to use one-way analysis of variance to test for differences among the means of several populations (also referred

Lebih terperinci

FOR IMMEDIATE RELEASE

FOR IMMEDIATE RELEASE FOR IMMEDIATE RELEASE International www.roymorgan.com Finding No. 2009 Available on Website: www.roymorgan.com On March 19, 2013 KADIN-Roy Morgan Keyakinan Konsumen menurun di bulan Februari 155.5 poin

Lebih terperinci

PENERAPAN DATA MINING MENGGUNAKAN ALGORITME C4.5 DALAM PENENTUAN JURUSAN SISWA SMA NEGERI 2 SURAKARTA

PENERAPAN DATA MINING MENGGUNAKAN ALGORITME C4.5 DALAM PENENTUAN JURUSAN SISWA SMA NEGERI 2 SURAKARTA PENERAPAN DATA MINING MENGGUNAKAN ALGORITME C4.5 DALAM PENENTUAN JURUSAN SISWA SMA NEGERI 2 SURAKARTA oleh NADYA AL FITRIANI M0111060 SKRIPSI ditulis dan diajukan untuk memenuhi sebagian persyaratan memperoleh

Lebih terperinci

OFVSBM!OFUXPSL. Latar Belakang

OFVSBM!OFUXPSL. Latar Belakang OFVSBM!OFUXPSL Sumber: Tim Machine Learning PENS ITS Latar Belakang Kemampuan manusia dalam memproses informasi, mengenal wajah, tulisan, dsb. Kemampuan manusia dalam mengidentifikasi wajah dari sudut

Lebih terperinci

BAB II TINJAUAN PUSTAKA

BAB II TINJAUAN PUSTAKA BAB II TINJAUAN PUSTAKA 2.1 Data Mining 2.1.1 Pengertian Data Mining Beberapa definisi dari data mining antara lain: 1. Data Mining adalah proses menemukan korelasi baru yang memiliki makna, pola, dan

Lebih terperinci

Kurang Setuju Tidak Setuju Sangat Tidak Setuju

Kurang Setuju Tidak Setuju Sangat Tidak Setuju Lampiran 1 Kuesioner Penelitian PENGARUH CITRA MEREK TERHADAP KESEDIAAN MEMBAYAR MAHAL DONUT KEMASAN PAKET J.CO DONUTS & COFFEE CABANG PLAZA MEDAN FAIR PADA MAHASISWA FAKULTAS EKONOMI&BISNIS UNIVERSITAS

Lebih terperinci

MANAJEMEN PROYEK LANJUT

MANAJEMEN PROYEK LANJUT MANAJEMEN PROYEK LANJUT Advance Project Management Dr. Ir. Budi Susetyo, MT Fakultas TEKNIK Program Magister SIPIL - MK www.mercubuana.ac.id 1 Bagian Isi 1. PM and Project financial management 2. Money

Lebih terperinci

B. ACCEPTANCE SAMPLING. Analysis

B. ACCEPTANCE SAMPLING. Analysis Analysis Control A. PENDAHULUAN B. ACCEPTANCE SAMPLING Control Analysis Pengendalian dan pengawasan mutu untuk mengetahui kesesuaian dengan standar tidak dapat diterapkan pada semua produk karena jumlah

Lebih terperinci

LEARNING. Program Studi Ilmu Komputer FPMIPA UPI RNI IK460(Kecerdasan Buatan)

LEARNING. Program Studi Ilmu Komputer FPMIPA UPI RNI IK460(Kecerdasan Buatan) LEARNING Jiawei Han and Micheline Kamber. 2006. Data Mining Concepts and Techniques. San Fransisco : Elsevier M.Tim Jones. Artificial Intelligence A System Approach. Slide Kuliah Data Mining - Klasifikasi,

Lebih terperinci

Bayesian Classifier. Bahan Kuliah Data Mining. Dr. Taufik Fuadi Abidin, S.Si., M.Tech. Program Studi Teknik Informatika FMIPA Universitas Syiah Kuala

Bayesian Classifier. Bahan Kuliah Data Mining. Dr. Taufik Fuadi Abidin, S.Si., M.Tech. Program Studi Teknik Informatika FMIPA Universitas Syiah Kuala Naïve Bayesian Classifier Dr. Taufik Fuadi Abidin, S.Si., M.Tech Program Studi Teknik Informatika FMIPA Universitas Syiah Kuala www.informatika.unsyiah.ac.id/tfa Bahan Kuliah Data Mining Outline Pertemuan

Lebih terperinci

Virtual Memory Ch. 9. Virtual Memory. SISTIM OPERASI (Operating System) IKI Johny Moningka

Virtual Memory Ch. 9. Virtual Memory. SISTIM OPERASI (Operating System) IKI Johny Moningka Virtual Memory Ch. 9 SISTIM OPERASI (Operating System) IKI-00 Johny Moningka (moningka@cs.ui.ac.id) Fakultas Ilmu Komputer Universitas Indonesia Semester 000/00 Virtual Memory Background Demand Paging

Lebih terperinci

Distribusi probabilitas dan normal. Statisitik Farmasi 2015

Distribusi probabilitas dan normal. Statisitik Farmasi 2015 Distribusi probabilitas dan normal Statisitik Farmasi 2015 Part 1. DISTRIBUSI PROBABILITAS Statisitik Farmasi 2015 Tujuan Perkuliahan Setelah menyelesaikan kuliah ini, mahasiswa mampu: Membuat distribusi

Lebih terperinci

Metode Pemulusan Eksponensial Sederhana

Metode Pemulusan Eksponensial Sederhana Metode Pemulusan Eksponensial Sederhana (Single Exponential Smoothing) KULIAH 3 METODE PERAMALAN DERET WAKTU rahmaanisa@apps.ipb.ac.id Review Untuk apa metode pemulusan (smoothing) dilakukan terhadap data

Lebih terperinci

SISTEM PENGENALAN KARAKTER DENGAN JARINGAN SYARAF TIRUAN ALGORITMA PERCEPTRON

SISTEM PENGENALAN KARAKTER DENGAN JARINGAN SYARAF TIRUAN ALGORITMA PERCEPTRON Jurnal Informatika Mulawarman Vol. 7 No. 3 Edisi September 2012 105 SISTEM PENGENALAN KARAKTER DENGAN JARINGAN SYARAF TIRUAN ALGORITMA PERCEPTRON Anindita Septiarini Program Studi Ilmu Komputer FMIPA,

Lebih terperinci