Klasifikasi. Data Mining
|
|
- Suharto Pranata
- 7 tahun lalu
- Tontonan:
Transkripsi
1 Klasifikasi Data Mining 1
2 Klasifikasi 1 Decision Tree Induction 2 Bayesian Classification 3 Neural Network 4 Model Evaluation and Selection 5 Techniques to Improve Classification Accuracy: Ensemble Methods 2
3 1 Decision Tree 3
4 Tahapan Algoritma Decision Tree 1. Siapkan data training 2. Pilih atribut sebagai akar Entropy( S) n i 1 pi*log 2 pi Gain( S, A) Entropy( S) n i 1 S i S * Entropy( S i ) 3. Buat cabang untuk tiap-tiap nilai 4. Ulangi proses untuk setiap cabang sampai semua kasus pada cabang memiliki kelas yg sama 4
5 1. Siapkan data training 5
6 2. Pilih atribut sebagai akar Untuk memilih atribut akar, didasarkan pada nilai Gain tertinggi dari atribut-atribut yang ada. Untuk mendapatkan nilai Gain, harus ditentukan terlebih dahulu nilai Entropy Rumus Entropy: S = Himpunan Kasus n = Jumlah Partisi S pi = Proporsi dari Si terhadap S Entropy( S) n i 1 pi*log 2 pi Rumus Gain: Gain( S, A) S = Himpunan Kasus A = Atribut n = Jumlah Partisi Atribut A Si = Jumlah Kasus pada partisi ke-i S = Jumlah Kasus dalam S Entropy( S) n i 1 S i S * Entropy( S i ) 6
7 Perhitungan Entropy dan Gain Akar 7
8 Penghitungan Entropy Akar Entropy Total Entropy (Outlook) Entropy (Temperature) Entropy (Humidity) Entropy (Windy) 8
9 Penghitungan Entropy Akar NODE ATRIBUT JML KASUS TIDAK YA (Si) ENTROPY (S) (Si) 1 TOTAL ,86312 OUTLOOK CLOUDY RAINY ,72193 SUNNY ,97095 GAIN TEMPERATURE HUMADITY WINDY COOL HOT MILD ,91830 HIGH ,98523 NORMAL FALSE ,81128 TRUE ,
10 Penghitungan Gain Akar 10
11 Penghitungan Gain Akar NODE ATRIBUT JML KASUS TIDAK YA (Si) (S) (Si) ENTROPY GAIN 1 TOTAL ,86312 OUTLOOK 0,25852 CLOUDY RAINY ,72193 SUNNY ,97095 TEMPERATURE 0,18385 COOL HOT MILD ,91830 HUMIDITY 0,37051 HIGH ,98523 NORMAL WINDY 0,00598 FALSE ,81128 TRUE ,
12 Gain Tertinggi Sebagai Akar Dari hasil pada Node 1, dapat diketahui bahwa atribut dengan Gain tertinggi adalah HUMIDITY yaitu sebesar Dengan demikian HUMIDITY dapat menjadi node akar Ada 2 nilai atribut dari HUMIDITY yaitu HIGH dan NORMAL. Dari kedua nilai atribut tersebut, nilai atribut NORMAL sudah mengklasifikasikan kasus menjadi 1 yaitu keputusan-nya Yes, sehingga tidak perlu dilakukan perhitungan lebih lanjut Tetapi untuk nilai atribut HIGH masih perlu dilakukan perhitungan lagi High 1. HUMIDITY Normal 1.1????? Yes 12
13 2. Buat cabang untuk tiap-tiap nilai Untuk memudahkan, dataset di-filter dengan mengambil data yang memiliki kelembaban HUMIDITY=HIGH untuk membuat Tabel Node 1.1 OUTLOOK TEMPERATURE HUMIDITY WINDY PLAY Sunny Hot High FALSE No Sunny Hot High TRUE No Cloudy Hot High FALSE Yes Rainy Mild High FALSE Yes Sunny Mild High FALSE No Cloudy Mild High TRUE Yes Rainy Mild High TRUE No 13
14 Perhitungan Entropi Dan Gain Cabang NODE ATRIBUT JML KASUS YA (Si) TIDAK (S) (Si) ENTROPY GAIN 1.1 HUMIDITY ,98523 OUTLOOK 0,69951 CLOUDY RAINY SUNNY TEMPERATURE 0,02024 COOL HOT ,91830 MILD WINDY 0,02024 FALSE TRUE ,
15 Gain Tertinggi Sebagai Node 1.1 Dari hasil pada Tabel Node 1.1, dapat diketahui bahwa atribut dengan Gain tertinggi adalah OUTLOOK yaitu sebesar Dengan demikian OUTLOOK dapat menjadi node kedua Artibut CLOUDY = YES dan SUNNY= NO sudah mengklasifikasikan kasus menjadi 1 keputusan, sehingga tidak perlu dilakukan perhitungan lebih lanjut Tetapi untuk nilai atribut RAINY masih perlu dilakukan perhitungan lagi Cloudy High 1.1 OUTLOOK Rainy 1. HUMIDITY Sunny Normal Yes Yes 1.1.2????? No 15
16 3. Ulangi proses untuk setiap cabang sampai semua kasus pada cabang memiliki kelas yg sama OUTLOOK TEMPERATURE HUMIDITY WINDY PLAY Rainy Mild High FALSE Yes Rainy Mild High TRUE No NODE ATRIBUT JML KASUS (S) YA (Si) TIDAK (Si) ENTROPY GAIN HUMADITY HIGH & OUTLOOK RAINY TEMPERATURE 0 COOL HOT MILD WINDY 1 FALSE TRUE
17 Gain Tertinggi Sebagai Node Dari tabel, Gain Tertinggi adalah WINDY dan menjadi node cabang dari atribut RAINY High 1.1 OUTLOOK 1. HUMIDIT Y Normal Yes Karena semua kasus sudah masuk dalam kelas Jadi, pohon keputusan pada Gambar merupakan pohon keputusan terakhir yang terbentuk Yes Cloudy False WINDY Rainy True Sunny No Yes No 17
18 Decision Tree Induction: An Example Training data set: Buys_computer age income student credit_rating buys_computer <=30 high no fair no <=30 high no excellent no high no fair yes >40 medium no fair yes >40 low yes fair yes >40 low yes excellent no low yes excellent yes <=30 medium no fair no <=30 low yes fair yes >40 medium yes fair yes <=30 medium yes excellent yes medium no excellent yes high yes fair yes >40 medium no excellent no 18
19 Overfitting and Tree Pruning Overfitting: An induced tree may overfit the training data Too many branches, some may reflect anomalies due to noise or outliers Poor accuracy for unseen samples Two approaches to avoid overfitting 1. Prepruning: Halt tree construction early do not split a node if this would result in the goodness measure falling below a threshold Difficult to choose an appropriate threshold 2. Postpruning: Remove branches from a fully grown tree -get a sequence of progressively pruned trees Use a set of data different from the training data to decide which is the best pruned tree 19
20 Pruning 20
21 Why is decision tree induction popular? Relatively faster learning speed (than other classification methods) Convertible to simple and easy to understand classification rules Can use SQL queries for accessing databases Comparable classification accuracy with other methods 21
22 Latihan Lakukan eksperimen untuk mengumpulkan dataset yang memiliki 4-5 atribut dan analisis dengan decision tree pada dataset tersebut. 22
23 2 Bayesian Classification 23
24 Bayesian Classification: Why? A statistical classifier: performs probabilistic prediction, i.e., predicts class membership probabilities Foundation: Based on Bayes Theorem. Performance: A simple Bayesian classifier, naïve Bayesian classifier, has comparable performance with decision tree and selected neural network classifiers Incremental: Each training example can incrementally increase/decrease the probability that a hypothesis is correct prior knowledge can be combined with observed data Standard: Even when Bayesian methods are computationally intractable, they can provide a standard of optimal decision making against which other methods can be measured 24
25 Tahapan Algoritma Naïve Bayes 1. Baca Data Training 2. Hitung jumlah class 3. Hitung jumlah kasus yang sama dengan class yang sama 4. Kalikan semua nilai hasil sesuai dengan data X yang dicari class-nya 25
26 1. Baca Data Training 26
27 Teorema Bayes P( X H ) P( H ) P( H X) P( X H ) P( H ) / P( X) P( X) X Data dengan class yang belum diketahui H Hipotesis data X yang merupakan suatu class yang lebih spesifik P (H X) Probabilitas hipotesis H berdasarkan kondisi X (posteriori probability) P (H) Probabilitas hipotesis H (prior probability) P (X H) Probabilitas X berdasarkan kondisi pada hipotesis H P (X) Probabilitas X 27
28 2. Hitung jumlah class/label Terdapat 2 class dari data training tersebut, yaitu: C1 (Class 1) Play = yes 9 record C2 (Class 2) Play = no 5 record Total = 14 record Maka: P (C1) = 9/14 = P (C2) = 5/14 = Pertanyaan: Data X = (outlook=rainy, temperature=cool, humidity=high, windy=true) Naik gunung atau tidak? 28
29 3. Hitung jumlah kasus yang sama dengan class yang sama Untuk P(Ci) yaitu P(C1) dan P(C2) sudah diketahui hasilnya di langkah sebelumnya. Selanjutnya Hitung P(X Ci) untuk i = 1 dan 2 P(outlook= sunny play= yes )=2/9= P(outlook= sunny play= no )=3/5=0.6 P(outlook= overcast play= yes )=4/9= P(outlook= overcast play= no )=0/5=0 P(outlook= rainy play= yes )=3/9= P(outlook= rainy play= no )=2/5=0.4 29
30 3. Hitung jumlah kasus yang sama dengan class yang sama Jika semua atribut dihitung, maka didapat hasil akhirnya seperti berikut ini: Atribute Parameter No Yes Outlook value=sunny Outlook value=overcast Outlook value=rainy Temperature value=hot Temperature value=mild Temperature value=cool Humidity value=high Humidity value=normal Windy value=false Windy value=true
31 4. Kalikan semua nilai hasil sesuai dengan data X yang dicari class-nya Pertanyaan: Data X = (outlook=rainy, temperature=cool, humidity=high, windy=true) Naik gunung atau tidak? Kalikan semua nilai hasil dari data X P(X play= yes ) = * * * = P(X play= no ) = 0.4*0.2*0.8*0.6= P(X play= yes )*P(C1) = * = P(X play= no )*P(C2) = * = Nilai no lebih besar dari nilai yes maka class dari data X tersebut adalah No 31
32 Avoiding the Zero-Probability Problem Naïve Bayesian prediction requires each conditional prob. be non-zero. Otherwise, the predicted prob. will be zero P( X Ci) n P( xk k 1 Ci) Ex. Suppose a dataset with 1000 tuples, income=low (0), income= medium (990), and income = high (10) Use Laplacian correction (or Laplacian estimator) Adding 1 to each case Prob(income = low) = 1/1003 Prob(income = medium) = 991/1003 Prob(income = high) = 11/1003 The corrected prob. estimates are close to their uncorrected counterparts 32
33 Naïve Bayes Classifier: Comments Advantages Easy to implement Good results obtained in most of the cases Disadvantages Assumption: class conditional independence, therefore loss of accuracy Practically, dependencies exist among variables, e.g.: Hospitals Patients Profile: age, family history, etc. Symptoms: fever, cough etc., Disease: lung cancer, diabetes, etc. Dependencies among these cannot be modeled by Naïve Bayes Classifier How to deal with these dependencies? Bayesian Belief Networks 33
34 3 Neural Network 34
35 Neural Network Neural Network adalah suatu model yang dibuat untuk meniru fungsi belajar yang dimiliki otak manusia atau jaringan dari sekelompok unit pemroses kecil yang dimodelkan berdasarkan jaringan saraf manusia 35
36 Neural Network Model Perceptron adalah model jaringan yang terdiri dari beberapa unit masukan (ditambah dengan sebuah bias), dan memiliki sebuah unit keluaran Fungsi aktivasi bukan hanya merupakan fungsi biner (0,1) melainkan bipolar (1,0,-1) Untuk suatu harga threshold ѳ yang ditentukan: 1 Jika net > ѳ F (net) = 0 Jika ѳ net ѳ -1 Jika net < - ѳ 36
37 Fungsi Aktivasi Macam fungsi aktivasi yang dipakai untuk mengaktifkan net di berbagai jenis neural network: 1. Aktivasi linear, Rumus: y = sign(v) = v 2. Aktivasi step, Rumus: 3. Aktivasi sigmoid biner, Rumus: 4. Aktivasi sigmoid bipolar, Rumus: 37
38 Tahapan Algoritma Perceptron 1. Inisialisasi semua bobot dan bias (umumnya wi = b = 0) 2. Selama ada elemen vektor masukan yang respon unit keluarannya tidak sama dengan target, lakukan: 2.1 Set aktivasi unit masukan xi = Si (i = 1,...,n) 2.2 Hitung respon unit keluaran: net = + b 1 Jika net > ѳ F (net) = 0 Jika ѳ net ѳ -1 Jika net < - ѳ 2.3 Perbaiki bobot pola yang mengadung kesalahan menurut persamaan: wi (baru) = wi (lama) + w (i = 1,...,n) dengan w = α t xi b (baru) = b(lama) + b dengan b = α t Dimana: α = Laju pembelajaran (Learning rate) yang ditentukan ѳ = Threshold yang ditentukan t = Target 2.4 Ulangi iterasi sampai perubahan bobot ( wn = 0) tidak ada Semakin besar α, semakin sedikit iterasi. Namun, α terlalu besar akan merusak pola yang sudah benar sehingga pemahaman menjadi lambat. 38
39 Studi Kasus Diketahui sebuah dataset kelulusan berdasarkan IPK untuk program S1: Status IPK Semester Lulus Tidak Lulus Tidak Lulus Tidak lulus Jika ada mahasiswa IPK 2.85 dan masih semester 1, maka masuk ke dalam manakah status tersebut? 39
40 1: Inisialisasi Bobot Inisialisasi Bobot dan bias awal: b = 0 dan bias = 1 t X1 X2 1 2, ,7 6 40
41 2.1: Set aktivasi unit masukan Treshold (batasan), θ = 0, yang artinya : 1 Jika net > 0 F (net) = 0 Jika net = 0-1 Jika net < 0 41
42 Hitung Respon dan Perbaiki Bobot Hitung Response Keluaran iterasi 1 Perbaiki bobot pola yang mengandung kesalahan MASUKAN TARGET y= PERUBAHAN BOBOT BOBOT BARU X1 X2 1 t NET f(net) W1 W2 b W1 W2 b INISIALISASI , , , ,
43 2.4 Ulangi iterasi sampai perubahan bobot ( wn = 0) tidak ada (Iterasi 2) Hitung Response Keluaran iterasi 2 Perbaiki bobot pola yang mengandung kesalahan MASUKAN TARGET y= PERUBAHAN BOBOT BOBOT BARU X1 X2 1 t NET f(net) W1 W2 b W1 W2 b INISIALISASI , , , ,
44 2.4 Ulangi iterasi sampai perubahan bobot ( wn = 0) tidak ada... (Iterasi 5) Hitung Response Keluaran iterasi 3 Perbaiki bobot pola yang mengandung kesalahan MASUKAN TARGET y= PERUBAHAN BOBOT BOBOT BARU X1 X2 1 t NET f(net) W1 W2 b W1 W2 b INISIALISASI , , , , Semua pola f(net) = target, maka jaringan sudah mengenal semua pola dan iterasi dihentikan. Untuk data IPK memiliki pola 3.2 x - 5 y + 1 = 0 dapat dihitung prediksinya menggunakan bobot yang terakhir didapat: net = X1*W1 + X2*W2 + b = 3,2 * 2,85-5*1 +1 = 5,12 f(net)=1 (Lulus) 44
45 Latihan Lakukan eksperimen untuk mengumpulkan dataset yang memiliki 4-5 atribut dan analisis dengan Naïve Bayes dan neural network pada dataset tersebut 45
46 4 Model Evaluation and Selection 46
47 Model Evaluation and Selection Evaluation metrics: How can we measure accuracy? Other metrics to consider? Use validation test set of class-labeled tuples instead of training set when assessing accuracy Methods for estimating a classifier s accuracy: Holdout method, random subsampling Cross-validation Bootstrap Comparing classifiers: Confidence intervals Cost-benefit analysis and ROC Curves 47
48 Evaluating Classifier Accuracy: Holdout & Cross-Validation Methods Holdout method Given data is randomly partitioned into two independent sets Training set (e.g., 2/3) for model construction Test set (e.g., 1/3) for accuracy estimation Random sampling: a variation of holdout Repeat holdout k times, accuracy = avg. of the accuracies obtained Cross-validation (k-fold, where k = 10 is most popular) Randomly partition the data into k mutually exclusive subsets, each approximately equal size At i-th iteration, use D i as test set and others as training set Leave-one-out: k folds where k = # of tuples, for small sized data *Stratified cross-validation*: folds are stratified so that class dist. in each fold is approx. the same as that in the initial data 48
49 Evaluating Classifier Accuracy: Bootstrap Bootstrap Works well with small data sets Samples the given training tuples uniformly with replacement, i.e., each time a tuple is selected, it is equally likely to be selected again and readded to the training set Several bootstrap methods, and a common one is.632 boostrap 1. A data set with d tuples is sampled d times, with replacement, resulting in a training set of d samples 2. The data tuples that did not make it into the training set end up forming the test set. About 63.2% of the original data end up in the bootstrap, and the remaining 36.8% form the test set (since (1 1/d) d e -1 = 0.368) 3. Repeat the sampling procedure k times, overall accuracy of the model: 49
50 Estimating Confidence Intervals: Classifier Models M 1 vs. M 2 Suppose we have two classifiers, M 1 and M 2, which one is better? Use 10-fold cross-validation to obtain and These mean error rates are just estimates of error on the true population of future data cases What if the difference between the two error rates is just attributed to chance? Use a test of statistical significance Obtain confidence limits for our error estimates 50
51 Estimating Confidence Intervals: Null Hypothesis 1. Perform 10-fold cross-validation 2. Assume samples follow a t distribution with k 1 degrees of freedom (here, k=10) 3. Use t-test (or Student s t-test) 4. Null Hypothesis: M 1 & M 2 are the same 5. If we can reject null hypothesis, then 1. we conclude that the difference between M 1 & M 2 is statistically significant 2. Chose model with lower error rate 51
52 Estimating Confidence Intervals: t-test If only 1 test set available: pairwise comparison For i th round of 10-fold cross-validation, the same cross partitioning is used to obtain err(m 1 ) i and err(m 2 ) i Average over 10 rounds to get t-test computes t-statistic with k-1 degrees of freedom: where If two test sets available: use non-paired t-test where where k 1 & k 2 are # of cross-validation samples used for M 1 & M 2, resp. 52
53 Estimating Confidence Intervals: Table for t-distribution Symmetric Significance level, e.g., sig = 0.05 or 5% means M 1 & M 2 are significantly different for 95% of population Confidence limit, z = sig/2 53
54 Estimating Confidence Intervals: Statistical Significance Are M 1 & M 2 significantly different? 1. Compute t. Select significance level (e.g. sig = 5%) 2. Consult table for t-distribution: Find t value corresponding to k-1 degrees of freedom (here, 9) 3. t-distribution is symmetric: typically upper % points of distribution shown look up value for confidence limit z=sig/2 (here, 0.025) 4. If t > z or t < -z, then t value lies in rejection region: 1. Reject null hypothesis that mean error rates of M 1 & M 2 are same 2. Conclude: statistically significant difference between M 1 & M 2 5. Otherwise, conclude that any difference is chance 54
55 Model Selection: ROC Curves ROC (Receiver Operating Characteristics) curves: for visual comparison of classification models Originated from signal detection theory Shows the trade-off between the true positive rate and the false positive rate The area under the ROC curve is a measure of the accuracy of the model Rank the test tuples in decreasing order: the one that is most likely to belong to the positive class appears at the top of the list The closer to the diagonal line (i.e., the closer the area is to 0.5), the less accurate is the model 55 Vertical axis represents the true positive rate Horizontal axis rep. the false positive rate The plot also shows a diagonal line A model with perfect accuracy will have an area of 1.0
56 Issues Affecting Model Selection Accuracy classifier accuracy: predicting class label Speed time to construct the model (training time) time to use the model (classification/prediction time) Robustness: handling noise and missing values Scalability: efficiency in disk-resident databases Interpretability understanding and insight provided by the model Other measures, e.g., goodness of rules, such as decision tree size or compactness of classification rules 56
57 5 Techniques to Improve Classification Accuracy: Ensemble Methods 57
58 Ensemble Methods: Increasing the Accuracy Ensemble methods Use a combination of models to increase accuracy Combine a series of k learned models, M1, M2,, Mk, with the aim of creating an improved model M* Popular ensemble methods Bagging: averaging the prediction over a collection of classifiers Boosting: weighted vote with a collection of classifiers Ensemble: combining a set of heterogeneous classifiers 58
59 Bagging: Boostrap Aggregation Analogy: Diagnosis based on multiple doctors majority vote Training Given a set D of d tuples, at each iteration i, a training set D i of d tuples is sampled with replacement from D (i.e., bootstrap) A classifier model M i is learned for each training set D i Classification: classify an unknown sample X Each classifier M i returns its class prediction The bagged classifier M* counts the votes and assigns the class with the most votes to X Prediction: can be applied to the prediction of continuous values by taking the average value of each prediction for a given test tuple Accuracy Often significantly better than a single classifier derived from D For noise data: not considerably worse, more robust Proved improved accuracy in prediction 59
60 Boosting Analogy: Consult several doctors, based on a combination of weighted diagnoses weight assigned based on the previous diagnosis accuracy How boosting works? 1. Weights are assigned to each training tuple 2. A series of k classifiers is iteratively learned 3. After a classifier M i is learned, the weights are updated to allow the subsequent classifier, M i+1, to pay more attention to the training tuples that were misclassified by M i 4. The final M* combines the votes of each individual classifier, where the weight of each classifier's vote is a function of its accuracy Boosting algorithm can be extended for numeric prediction Comparing with bagging: Boosting tends to have greater accuracy, but it also risks overfitting the model to misclassified data 60
61 Adaboost (Freund and Schapire, 1997) 1. Given a set of d class-labeled tuples, (X 1, y 1 ),, (X d, y d ) 2. Initially, all the weights of tuples are set the same (1/d) 3. Generate k classifiers in k rounds. At round i, 1. Tuples from D are sampled (with replacement) to form a training set D i of the same size 2. Each tuple s chance of being selected is based on its weight 3. A classification model M i is derived from D i 4. Its error rate is calculated using D i as a test set 5. If a tuple is misclassified, its weight is increased, o.w. it is decreased 4. Error rate: err(x j ) is the misclassification error of tuple X j. Classifier M i error rate is the sum of the weights of the misclassified tuples: d ( i j j j error M ) w err ( X ) 5. The weight of classifier M i s vote is 61 1 error ( M i ) log error ( M ) i
62 Random Forest (Breiman 2001) Random Forest: Each classifier in the ensemble is a decision tree classifier and is generated using a random selection of attributes at each node to determine the split During classification, each tree votes and the most popular class is returned Two Methods to construct Random Forest: 1. Forest-RI (random input selection): Randomly select, at each node, F attributes as candidates for the split at the node. The CART methodology is used to grow the trees to maximum size 2. Forest-RC (random linear combinations): Creates new attributes (or features) that are a linear combination of the existing attributes (reduces the correlation between individual classifiers) Comparable in accuracy to Adaboost, but more robust to errors and outliers Insensitive to the number of attributes selected for consideration at each split, and faster than bagging or boosting 62
63 Classification of Class-Imbalanced Data Sets Class-imbalance problem: Rare positive example but numerous negative ones, e.g., medical diagnosis, fraud, oilspill, fault, etc. Traditional methods assume a balanced distribution of classes and equal error costs: not suitable for classimbalanced data Typical methods for imbalance data in 2-class classification: 1. Oversampling: re-sampling of data from positive class 2. Under-sampling: randomly eliminate tuples from negative class 3. Threshold-moving: moves the decision threshold, t, so that the rare class tuples are easier to classify, and hence, less chance of costly false negative errors 4. Ensemble techniques: Ensemble multiple classifiers introduced above Still difficult for class imbalance problem on multiclass tasks 63
64 Rangkuman Classification is a form of data analysis that extracts models describing important data classes Effective and scalable methods have been developed for decision tree induction, Naive Bayesian classification, rule-based classification, and many other classification methods Evaluation metrics include: accuracy, sensitivity, specificity, precision, recall, F measure, and Fß measure Stratified k-fold cross-validation is recommended for accuracy estimation. Bagging and boosting can be used to increase overall accuracy by learning and combining a series of individual models 64
65 Rangkuman Significance tests and ROC curves are useful for model selection. There have been numerous comparisons of the different classification methods; the matter remains a research topic No single method has been found to be superior over all others for all data sets Issues such as accuracy, training time, robustness, scalability, and interpretability must be considered and can involve trade-offs, further complicating the quest for an overall superior method 65
66 TERIMA KASIH 66
67 Credit Romi Satria Wahono Jong Jek Siang Jaringan syaraf tiruan dan pemrogramannya menggunakan matlab, ANDI Offset. 67
MKB3462 KECERDASAN BUATAN. Muhammad Zidny Naf an, M.Kom.
MKB3462 KECERDASAN BUATAN Muhammad Zidny Naf an, M.Kom. Decision Tree (DT) Learning Menemukan fungsi2 pendekatan yang bernilai diskrit Jenis decision tree: ID3 (iterative dychotomizer version 3) ASSISTANT
Lebih terperinciS1 Teknik Informatika Fakultas Teknologi Informasi Universitas Kristen Maranatha
S1 Teknik Informatika Fakultas Teknologi Informasi Universitas Kristen Maranatha Pendahuluan Classification Decision tree induction Bayesian classification 2 Classification : klasifikasi data berdasarkan
Lebih terperinciALGORITMA C4.5. Algoritma C4.5 merupakan algoritma yang digunakan untuk membentuk pohon keputusan. Tabel 3.1. Keputusan Bermain Tenis
ALGORITMA C4.5 Algoritma C4.5 merupakan algoritma yang digunakan untuk membentuk pohon keputusan. Tabel 3.1. Keputusan Bermain Tenis NO OUTLOOK TEMPERATURE HUMIDITY WINDY PLAY 1 Sunny Hot High FALSE No
Lebih terperinciKlasifikasi. Diadaptasi dari slide Jiawei Han
Klasifikasi Diadaptasi dari slide Jiawei Han http://www.cs.uiuc.edu/~hanj/bk2/ Pengantar Classification Memprediksi kelas suatu item Membuat model berdasarkan data pelatihan dan digunakan untuk mengklasifikasi
Lebih terperinciKlasifikasi. Diadaptasi dari slide Jiawei Han
Klasifikasi Diadaptasi dari slide Jiawei Han http://www.cs.uiuc.edu/~hanj/bk2/ yudi@upi.edu / Okt 2012 Pengantar Classification Memprediksi kelas suatu item Membuat model berdasarkan data pelatihan dan
Lebih terperinciMetode Bayes. Tim Machine Learning
Metode Bayes Tim Machine Learning Mengapa Metode Bayes Metode Find-S tidak dapat digunakan untuk data yang tidak konsisten dan data yang bias, sehingga untuk bentuk data semacam ini salah satu metode sederhana
Lebih terperinciID3 : Induksi Decision Tree
ID3 : Induksi Decision Tree Singkatan: Iterative Dichotomiser 3 Induction of Decision "3" (baca: Tree Pembuat: Ross Quinlan, sejak akhir dekade 70-an. Pengembangan Lanjut: Cikal bakal algoritma C4.5, pada
Lebih terperinciSIMULASI MONTE CARLO RISK MANAGEMENT DEPARTMENT OF INDUSTRIAL ENGINEERING
SIMULASI MONTE CARLO RISK MANAGEMENT DEPARTMENT OF INDUSTRIAL ENGINEERING PENGANTAR Simulasi Monte Carlo didefinisikan sebagai semua teknik sampling statistik yang digunakan untuk memperkirakan solusi
Lebih terperinciAlgoritma C4.5. Untuk memudahkan penjelasan mengenai algoritma C4.5 berikut ini disertakan contoh kasus yang dituangkan dalam Tabel 1.
Algoritma C4.5 1 Kusrini, 2 Emha Taufiq Luthfi 1 Jurusan Sistem Informasi, 2 Jurusan Teknik Informatika 1, 2 STMIK AMIKOM Yogykakarta 1,2 Jl. Ringroad Utara Condong Catur Sleman Yogyakarta Untuk memudahkan
Lebih terperinciUniversitas Putra Indonesia YPTK Padang Fakultas Ilmu Komputer Program Studi Teknik Informatika. Classification Decision Tree
Universitas Putra Indonesia YPTK Padang Fakultas Ilmu Komputer Program Studi Teknik Informatika Classification Decision Tree Classification Decision Tree Pengertian Pohon Keputusan Pohon keputusan adalah
Lebih terperinciInferensia Statistik parametrik VALID?? darimana sampel diambil
Inferensia Statistik parametrik VALID?? Tergantung dari bentuk populasi Tergantung dari bentuk populasi darimana sampel diambil Uji kesesuaian (goodness of fit) ) untuk tabel frekuensi Goodness-of-fit
Lebih terperinciBAB 3 ALGORITMA C4.5. Algoritma C4.5 merupakan algoritma yang digunakan untuk membentuk pohon keputusan.
BAB 3 ALGORITMA C4.5 Algoritma C4.5 merupakan algoritma yang digunakan untuk membentuk pohon keputusan. A. Pohon Keputusan Pohon keputusan merupakan metode klasifikasi dan prediksi yang sangat kuat dan
Lebih terperinciPEMANFAATAN NEURAL NETWORK PERCEPTRON PADA PENGENALAN POLA KARAKTER
PEMANFAATAN NEURAL NETWORK PERCEPTRON PADA PENGENALAN POLA KARAKTER Fakultas Teknologi Informasi Universitas Merdeka Malang Abstract: Various methods on artificial neural network has been applied to identify
Lebih terperinciStatistik Bisnis 2. Week 4 Fundamental of Hypothesis Testing Methodology
Statistik Bisnis 2 Week 4 Fundamental of Hypothesis Testing Methodology ONE-TAIL TESTS One-Tail Tests In many cases, the alternative hypothesis focuses on a particular direction H 0 : μ 3 H 1 : μ < 3 H
Lebih terperinciPohon Keputusan. 6.1 Inductive Learning
6 Pohon Keputusan Sometimes you make the right decision, sometimes you make the decision right. Phil McGraw Bab ini akan menelaskan salah satu varian pohon keputusan yaitu ID3 oleh Quinlan [27, 28] yang
Lebih terperinciDATA MINING KLASIFIKASI BERBASIS DECISION TREE. Ramadhan Rakhmat Sani, M.Kom
DATA MINING KLASIFIKASI BERBASIS DECISION TREE Ramadhan Rakhmat Sani, M.Kom Text Book Outline 1. Algoritma Data Mining Algoritma ID3 Algoritma C4.5 Algoritma C4.5 Introduction Algoritma C4.5 merupakan
Lebih terperinciStatistics for Managers Using Microsoft Excel Chapter 1 Introduction and Data Collection
Statistics for Managers Using Microsoft Excel Chapter 1 Introduction and Data Collection 1999 Prentice-Hall, Inc. Chap. 1-1 Statistik untuk Para Menejer 1. Untuk mengetahui tingkat pengembalian investasi.
Lebih terperinciABSTRAK. Kata Kunci : Artificial Neural Network(ANN), Backpropagation(BP), Levenberg Marquardt (LM), harga emas, Mean Squared Error(MSE), prediksi.
ABSTRAK Prediksi harga emas merupakan masalah yang sangat penting dalam menentukan pengambilan keputusan perdagangan dalam pertambangan. Prediksi yang akurat untuk pertambangan dapat memberikan keuntungan
Lebih terperinciDependent VS independent variable
Kuswanto-2012 !" #!! $!! %! & '% Dependent VS independent variable Indep. Var. (X) Dep. Var (Y) Regression Equation Fertilizer doses Yield y = b0 + b1x Evaporation Rain fall y = b0+b1x+b2x 2 Sum of Leave
Lebih terperinciKLASIFIKASI CALON PENDONOR DARAH MENGGUNAKAN METODE NAÏVE BAYES CLASSIFIER
KLASIFIKASI CALON PENDONOR DARAH MENGGUNAKAN METODE NAÏVE BAYES CLASSIFIER (STUDI KASUS : Calon Pendonor Darah di Kota Semarang) SKRIPSI Disusun Oleh : DHIMAS BAYUSUSETYO NIM. 24010212130081 DEPARTEMEN
Lebih terperinciDEVELOPMENT OF MAXIMUM ENTROPY ESTIMATOR FOR CALIBRATING TRIP DISTRIBUTION MODELS
DEVELOPMENT OF MAXIMUM ENTROPY ESTIMATOR FOR CALIBRATING TRIP DISTRIBUTION MODELS f T ( i T 3 8 8. 4 1 3 W I D SUMMARY DEVELOPMENT OF MAXIMUM ENTROPY (ME) ESTIMATOR FOR CALIBRATING TRIP DISTRIBUTION MODELS,
Lebih terperinciBab II Dasar Teori. 2.1 Estimasi Akurasi Classifier Metode Holdout
Bab II Dasar Teori 2.1 Estimasi Akurasi Classifier Estimasi akurasi classifier penting dilakukan untuk mengevaluasi seberapa akurat sebuah classifier mengklasifikasikan future data, yaitu data yang belum
Lebih terperinciTHE APPLICATION OF DATA MINING FOR OLD STUDENT TO PREDICTION STUDIES USING NAIVE BAYES AND ADABOOST METHOD
THE APPLICATION OF DATA MINING FOR OLD STUDENT TO PREDICTION STUDIES USING NAIVE BAYES AND ADABOOST METHOD 1 JACOB SOARES, 2 ALBERTUS JOKO SANTOSO, 3 SUYOTO 1, 2, 3 Universitas Atma Jaya Yogyakarta E-mail:
Lebih terperinciStatistik Bisnis. Week 13 Chi-Square Test
Statistik Bisnis Week 13 Chi-Square Test Learning Objectives In this chapter, you learn: How and when to use the chi-square test for contingency tables TEST FOR THE DIFFERENCE BETWEEN TWO PROPORTIONS Contingency
Lebih terperinciADLN Perpustakaan Universitas Airlangga
PERBANDINGAN METODE GENERALIZED CROSS VALIDATION DAN GENERALIZED MAXIMUM LIKELIHOOD DALAM REGRESI NONPARAMETRIK SPLINE UNTUK MEMPERKIRAKAN JUMLAH LEUKOSIT PADA TERSANGKA FLU BURUNG DI JAWA TIMUR RINGKASAN
Lebih terperinciBAB 2. Landasan Teori
BAB 2 Landasan Teori 2.1 Pengertian Data Mining Menurut Han dan Kamber (2011:6) menjelaskan bahwa Data Mining merupakan pemilihan atau menggali pengetahuan dari jumlah data yang banyak. Berbeda dengan
Lebih terperinciBy SRI SISWANTI NIM
READING COMPREHENSION IN NARRATIVE TEXT OF THE TENTH GRADE STUDENTS OF MA NAHDLATUL MUSLIMIN UNDAAN KUDUS TAUGHT BY USING IMAGINATIVE READING MATERIALS IN THE ACADEMIC YEAR 2015/2016 By SRI SISWANTI NIM.
Lebih terperinciSTATISTIKA TEKNIK LNK2016 CORRELATION & REGRESSION
STATISTIKA TEKNIK LNK2016 CORRELATION & REGRESSION ! Correlation is a statistical method used to determine whether a relationship between variables exists.! Regression is a statistical method used to describe
Lebih terperinciDATA MINING. Pertemuan 2. Nizar Rabbi Radliya 3 SKS Semester 6 S1 Sistem Informasi
DATA MINING 3 SKS Semester 6 S1 Sistem Informasi Pertemuan 2 Nizar Rabbi Radliya nizar.radliya@yahoo.com Universitas Komputer Indonesia 2016 Mengapa Data Mining? Penumpukan data Minimnya pemanfaatan data
Lebih terperinciPENERAPAN ALGORITMA C5.0 DALAM PENGKLASIFIKASIAN DATA MAHASISWA UNIVERSITAS NEGERI GORONTALO
PENERAPAN ALGORITMA C5.0 DALAM PENGKLASIFIKASIAN DATA MAHASISWA UNIVERSITAS NEGERI GORONTALO Wandira Irene, Mukhlisulfatih Latief, Lillyan Hadjaratie Program Studi S1 Sistem Informasi / Teknik Informatika
Lebih terperinciKLASIFIKASI CITRA SATELIT MENGGUNAKAN JARINGAN SYARAF TIRUAN UNTUK MENGEKSTRAKSI TAMPAKAN PERMUKIMAN DAERAH PERKOTAAN
KLASIFIKASI CITRA SATELIT MENGGUNAKAN JARINGAN SYARAF TIRUAN UNTUK MENGEKSTRAKSI TAMPAKAN PERMUKIMAN DAERAH PERKOTAAN (Studi Kasus: Kota Bandarlampung) TESIS MAGISTER Diajukan untuk melengkapi tugas dan
Lebih terperinciABSTRAK. Universitas Kristen Maranatha
ABSTRAK Metoda analisa data secara statistik dapat diaplikasikan untuk mendapatkan pengertian terhadap proses-proses yang berubah waktu yang sangat kompleks untuk dimodelkan secara analitik. Data pertama-tama
Lebih terperinciPENERAPAN METODE NAÏVE BAYES CLASSIFIER DAN ALGORITMA ADABOOST UNTUK PREDIKSI PENYAKIT GINJAL KRONIK
PENERAPAN METODE NAÏVE BAYES CLASSIFIER DAN ALGORITMA ADABOOST UNTUK PREDIKSI PENYAKIT GINJAL KRONIK SKRIPSI Diajukan untuk memenuhi sebagian persyaratan mendapatkan gelar Strata Satu Program Studi Informatika
Lebih terperinciOutline. Struktur Data & Algoritme (Data Structures & Algorithms) Pengantar. Definisi. 2-3 Trees
Struktur Data & Algoritme (Data Structures & Algorithms) 2-3 Trees Outline Pengantar Definisi 2-3 Tree Operasi: Search Insert Delete (a,b)-tree Denny (denny@cs.ui.ac.id) Suryana Setiawan (setiawan@cs.ui.ac.id)
Lebih terperinciPENERAPAN ALGORITMA NAÏVE BAYES UNTUK DETEKSI BAKTERI E-COLI
PENERAPAN ALGORITMA NAÏVE BAYES UNTUK DETEKSI BAKTERI E-COLI Laily Hermawanti Program Studi Teknik informatika Fakultas Teknik Universitas Sultan Fatah (UNISFAT) Jl. Diponegoro 1B Jogoloyo Demak Telpon
Lebih terperinci5. The removed-treatment design with pretest & posttest Design: O 1 X O 2 O 3 X O 4 Problem: O 2 - O 3 not thesame with O 3 - O 4 construct validity o
4. The nonequivalent dependent variables design Design: O 1A X O 2A O 1B O 2B Problem: Growth rate unrepresentative measure continuous assumption 01-2-3 5. The removed-treatment design with pretest & posttest
Lebih terperinciData Mining Pengklasifikasian: Konsep Dasar, Pohon Keputusan, and Evaluasi Model. Pengklasifikasian: Definisi. Catatan Kuliah untuk Bab 4
Data Mining Pengklasifikasian: Konsep Dasar, Pohon Keputusan, and Evaluasi Catatan Kuliah untuk Bab 4 Pengantar Data Mining oleh Tan, Steinbach, Kumar dialihbahasakan oleh Tim Pengajar Konsep Data Mining
Lebih terperinciAbstract. Keywords: Artificial Neural Network
Abstract Artificial Neural Network is one of the technologies which have developed because of Information Technology development itself. Nowadays, more and more large companies are implementing Artificial
Lebih terperinciBAB III METODOLOGI PENELITIAN. Dataset
BAB III METODOLOGI PENELITIAN Metodologi penelitian diuraikan dalam skema tahap penelitian untuk memberikan petunjuk atau gambaran yang jelas, teratur, dan sistematis seperti yang ditunjukkan pada Gambar
Lebih terperinciKLASIFIKASI CALON PENDONOR DARAH MENGGUNAKAN METODE NAÏVE BAYES CLASSIFIER (Studi Kasus : Calon Pendonor Darah di Kota Semarang)
ISSN: 2339-2541 JURNAL GAUSSIAN, Volume 6, Nomor 2, Tahun 2017, Halaman 193-200 Online di: http://ejournal-s1.undip.ac.id/index.php/gaussian KLASIFIKASI CALON PENDONOR DARAH MENGGUNAKAN METODE NAÏVE BAYES
Lebih terperinciJurnal String Vol. 1 No. 1 Tahun 2016 ISSN:
KAJIAN KOMPARASI ALGORITMA C4.5, NAÏVE BAYES DAN NEURAL NETWORK DALAM PEMILIHAN PENERIMA BEASISWA (Studi Kasus pada SMA Muhammadiyah 4 Jakarta ) Ulfa Pauziah Program Studi Teknik Informatika, Universitas
Lebih terperinciBAB III METODE PENELITIAN
BAB III METODE PENELITIAN 3.1. Metode Pengumpulan Data Data yang digunakan pada penelitian ini merupakan data sentimen dari pengguna aplikasi android yang memberikan komentarnya pada fasilitas user review
Lebih terperinciKasus. Survey terhadap remaja usia tahun apakah pernah melakukan kerja paruh waktu (part-time)??
Kasus Survey terhadap remaja usia 15-16 tahun apakah pernah melakukan kerja paruh waktu (part-time)?? Berikut Tabel datanya: Race Gender Yes Part Time Job No White Male 43 134 Female 26 149 Black Male
Lebih terperinciBAB II LANDASAN TEORI
BAB II LANDASAN TEORI 2.1 Data Mining Data Mining adalah proses yang mempekerjakan satu atau lebih teknik pembelajaran komputer (machine learning) untuk menganalisis dan mengekstraksi pengetahuan (knowledge)
Lebih terperinciADLN - Perpustakaan Universitas Airlangga ABSTRAK. viii
Muhammad Arif Santoso, 2015. Peramalan Penjualan Produk Menggunakan Jaringan Syaraf Tiruan Metode Extreme Learning Machine. Skripsi ini dibawah bimbingan Auli Damayanti,S.Si, M.Si dan Dr. Herry Suprajitno,
Lebih terperinciABSTRAK. Kata Kunci: data tidak seimbang, klasifikasi, KSMOTE, boosting, SSO, support vector machine.
ABSTRAK Klasifikasi dalam data mining adalah proses untuk menemukan model atau fungsi yang mendeskripsikan dan membedakan kelas-kelas data atau konsep. Salah satu permasalahan klasifikasi adalah distribusi
Lebih terperinciAlgoritma Data Mining (2) Tugas Klasifikasi
Algoritma Data Mining (2) Tugas Klasifikasi Anief Fauzan Rozi, S. Kom., M. Eng. 1 Kompentensi Mahasiswa mengetahui algoritma data mining pada tugas klasifikasi 2 Pokok Bahasan Algoritma C4.5 3 Supervised
Lebih terperinciIMPACT OF SEVERAL ROUTE CHOICE MODELS ON THE ACCURACY OF ESTIMATED O-D MATRICES FROM TRAFFIC COUNTS
IMPACT OF SEVERAL ROUTE CHOICE MODELS ON THE ACCURACY OF ESTIMATED O-D MATRICES FROM TRAFFIC COUNTS S U M M A R Y IMPACT OF SEVERAL ROUTE CHOICE MODELS ON THE ACCURACY OF ESTIMATED O-D MATRICES FROM TRAFFIC
Lebih terperinciK-Means Clustering. Tim Asprak Metkuan. What is Clustering?
K-Means Clustering Tim Asprak Metkuan What is Clustering? Also called unsupervised learning, sometimes called classification by statisticians and sorting by psychologists and segmentation by people in
Lebih terperinciNama Soal Pembagian Ring Road Batas Waktu 1 detik Nama Berkas Ringroad[1..10].out Batas Memori 32 MB Tipe [output only] Sumber Brian Marshal
Nama Soal Pembagian Ring Road Batas Waktu 1 detik Nama Berkas Ringroad[1..10].out Batas Memori 32 MB Tipe [output only] Sumber Brian Marshal Deskripsi Soal Dalam rangka mensukseskan program Visit Indonesia,
Lebih terperinciPemrograman Lanjut. Interface
Pemrograman Lanjut Interface PTIIK - 2014 2 Objectives Interfaces Defining an Interface How a class implements an interface Public interfaces Implementing multiple interfaces Extending an interface 3 Introduction
Lebih terperinciStatistik Bisnis 1. Week 9 Discrete Probability
Statistik Bisnis 1 Week 9 Discrete Probability Random Variables Random Variables Discrete Random Variable Continuous Random Variable Wk. 9 Wk. 10 Probability Distributions Probability Distributions Wk.
Lebih terperinciBAB I 1 PENDAHULUAN. atas sekelompok vertebra, invertebrate discs, saraf, otot, medulla, dan sendi
BAB I 1 PENDAHULUAN 1.1 Latar Belakang Tulang punggung merupakan bagian dari tulang belakang yang tersusun atas sekelompok vertebra, invertebrate discs, saraf, otot, medulla, dan sendi (Berthonnaud et
Lebih terperinciApa itu suatu Hypothesis?
Chapter 7 Student Lecture Notes 7-1 Dasar Dasar Hipotesis Apa itu suatu Hypothesis? Hypothesis adalah suatu pernyataan (asumsi) tentang parameter populasi I nyatakan rata-rata IPK kelas ini = 3.5! Contoh
Lebih terperinciFAKULTAS KESEHATAN MASYARAKAT UNIVERSITAS SUMATERA UTARA MEDAN 2011 ABSTRAK
PERBANDINGAN HASIL UJI EXACT FISHER DAN UJI KOREKSI YATES DALAM MENELITI HUBUNGAN KARAKTERISTIK IBU DAN BAYI DENGAN KEJADIAN INFEKSI (STUDI KASUS PADA BAYI 0-6 BULAN YANG DIBERI MP-ASI DI PUSKESMAS SUNGGAL
Lebih terperinciBAB III METODE PENELITIAN
BAB III METODE PENELITIAN Penelitian ini adalah penelitian eksperimen dengan langkah-langkah atau metode penelitian sebagai berikut: 1. Penentuan Masalah Penentuan masalah ini diperoleh dari studi literature
Lebih terperinciDECISION TREE BERBASIS ALGORITMA UNTUK PENGAMBILAN KEPUTUSAN
ISSN : 1978-6603 DECISION TREE BERBASIS ALGORITMA UNTUK PENGAMBILAN KEPUTUSAN Zulfian Azmi #1, Muhammad Dahria #2 #1 Program Studi Sistem Komputer, #2 Program Studi Sistem Informasi STMIK Triguna Dharma
Lebih terperinciKLASIFIKASI NASABAH ASURANSI JIWA MENGGUNAKAN ALGORITMA NAIVE BAYES BERBASIS BACKWARD ELIMINATION
KLASIFIKASI NASABAH ASURANSI JIWA MENGGUNAKAN ALGORITMA NAIVE BAYES BERBASIS BACKWARD ELIMINATION Betrisandi betris.sin@gmail.com Universitas Ichsan Gorontalo Abstrak Pendapatan untuk perusahaan asuransi
Lebih terperinciPEMBENTUKAN DECISION TREE DATA LAMA STUDI MAHASISWA MENGGUNAKAN ALGORITMA NBTREE DAN C4.5
PEMBENTUKAN DECISION TREE DATA LAMA STUDI MAHASISWA MENGGUNAKAN ALGORITMA NBTREE DAN C4.5 Syam Gunawan 1, Pritasari Palupiningsih 2 1,2 Jurusan Sistem Informasi, STMIK Indonesia 1 syam@stmik-indonesia.ac.id,
Lebih terperinciStatistik Bisnis 2. Week 6 Two-Sample Test Population Proportions and Variances
Statistik Bisnis Week 6 Two-Samle Test Poulation Proortions and Variances Learning Objectives The means of two indeendent oulations The means of two related oulations In this chater, you learn how to use
Lebih terperinciBAB IV HASIL PENELITIAN DAN PEMBAHASAN
BAB IV HASIL PENELITIAN DAN PEMBAHASAN 1.1 Data Training Data training adalah data yang digunakan untuk pembelajaran pada proses data mining atau proses pembentukan pohon keputusan.pada penelitian ini
Lebih terperinciMoch. Ali Machmudi 1) 1) Stmik Bina Patria
UJI PENGARUH KARAKTERISTIK DATASET PADA PERFORMA ALGORITMA KLASIFIKASI Moch. Ali Machmudi 1) 1) Stmik Bina Patria 1) Jurusan Manjemen Informatika-D3 Email : 1 aliadhinata@gmail.com 1) Abstrak Tujuan utama
Lebih terperinciDISTRIBUTION OF HIGHWAY AXLE LOADS IN WEST JAVA AND METHODS OF MEASURING VEHICLE LOADING
DISTRIBUTION OF HIGHWAY AXLE LOADS IN WEST JAVA AND METHODS OF MEASURING VEHICLE LOADING T 388.314 ZUL SUMMARY DISTRIBUTION OF HIGHWAY AXLE LOADS IN WEST JAVA AND METHODS OF MEASURING VEHICLE LOADING,
Lebih terperinciAnalisis Chi-Square (x 2 )
Analisis Chi-Square (x 2 ) Chi square ("χ 2 " dari huruf Yunani "Chi "Kai") to determine if data good or not. Expl... to determine possible outcomes for genetic crosses. How will we know if our fruit fly
Lebih terperinciManfaat Pohon Keputusan
DECISION TREE (POHON KEPUTUSAN) Latar Belakang Pohon Keputusan Di dalam kehidupan manusia sehari-hari, manusia selalu dihadapkan oleh berbagai macam masalah dari berbagai macam bidang. Masalah-masalah
Lebih terperinciIMPLEMENTASI ALGORITMA RANDOM FORESTS UNTUK KLASIFIKASI SPAM PADA CITRA DAN TEXT INSTAGRAM TUGAS AKHIR
IMPLEMENTASI ALGORITMA RANDOM FORESTS UNTUK KLASIFIKASI SPAM PADA CITRA DAN TEXT INSTAGRAM TUGAS AKHIR RIZKY NOVRIYEDI PUTRA 1132001001 PROGRAM STUDI INFORMATIKA FAKULTAS TEKNIK DAN ILMU KOMPUTER UNIVERSITAS
Lebih terperinciTeknik Pengolahan Data
Universitas Gadjah Mada Jurusan Teknik Sipil dan Lingkungan Prodi Magister Teknik Pengelolaan Bencana Alam Teknik Pengolahan Data Uji Hipotesis (Hypothesis Tes/ng) 1 Uji Hipotesis Model Matema/ka vs Pengukuran
Lebih terperinciANALISIS CAPAIAN OPTIMASI NILAI SUKU BUNGA BANK SENTRAL INDONESIA: SUATU PENGENALAN METODE BARU DALAM MENGANALISIS 47 VARIABEL EKONOMI UNTU
ANALISIS CAPAIAN OPTIMASI NILAI SUKU BUNGA BANK SENTRAL INDONESIA: SUATU PENGENALAN METODE BARU DALAM MENGANALISIS 47 VARIABEL EKONOMI UNTU READ ONLINE AND DOWNLOAD EBOOK : ANALISIS CAPAIAN OPTIMASI NILAI
Lebih terperinciPenerapan SAS/IML Algoritma EM, Pembangkitan sebaran normal ganda, dan Bootstrap
Penerapan SAS/IML Algoritma EM, Pembangkitan sebaran normal ganda, dan Bootstrap τρ Application EM Algorithm Complete-data specification f(x Φ) f x Φ = b x eφt(x) a(φ) E-step : Estimate the complete data
Lebih terperinciLAMPIRAN III. Output SPSS
LAMPIRAN III Output SPSS 1. Output Uji Normalitas Reksa Dana Campuran dan Reksa Dana Saham Frequencies Notes Output Created 09-JUL-2014 12:58:37 Comments Input Active Dataset DataSet3 Filter Weight Split
Lebih terperinciBAB III REGRESI LOGISTIK BINER DAN CLASSIFICATION AND REGRESSION TREES (CART) Odds Ratio
21 BAB III REGRESI LOGISTIK BINER DAN CLASSIFICATION AND REGRESSION TREES (CART) 3.1 Regresi Logistik Biner Regresi logistik berguna untuk meramalkan ada atau tidaknya karakteristik berdasarkan prediksi
Lebih terperinciClassification. Decision Tree. Decision Tree. Konsep Decision Tree. Penggunaan Decision Tree. When To Consider Decision Tree?
Classification Decision Tree esi 09 Dosen Pembina : Danang Junaedi IF-UTAMA 1 IF-UTAMA Konsep Decision Tree Decision Tree Mengubah data menjadi pohon keputusan (decision tree) dan aturan-aturan keputusan
Lebih terperinciKORELASI NILAI INTERNATIONAL ROUGHNESS INDEX (IRI) HASIL PENGUKURAN ALAT MERLIN DAN BUMP INTEGRATOR
KORELASI NILAI INTERNATIONAL ROUGHNESS INDEX (IRI) HASIL PENGUKURAN ALAT MERLIN DAN BUMP INTEGRATOR ABSTRAK KORELASI NILAI INTERNATIONAL ROUGHNESS INDEX (IRI) HASIL PENGUKURAN ALAT MERLIN DAN BUMP INTEGRATOR
Lebih terperinciStatistik Bisnis 1. Week 8 Basic Probability
Statistik Bisnis 1 Week 8 Basic Probability Objectives By the end of this class student should be able to: Understand different types of probabilities Compute probabilities Revise probabilities in light
Lebih terperinciPERBANDINGAN HASIL KLASIFIKASI ANALISIS DISKRIMINAN DAN JARINGAN SYARAF TIRUAN
TUGAS AKHIR - ST 1325 PERBANDINGAN HASIL KLASIFIKASI ANALISIS DISKRIMINAN DAN JARINGAN SYARAF TIRUAN ANANG SETIYO BUDI NRP 1303 100 060 Dosen Pembimbing Dra. Kartika Fitriasari, M.Si Adatul Mukarromah,
Lebih terperincioleh WAHYUNI PUTRANTO NIM. M SKRIPSI ditulis dan diajukan untuk memenuhi sebagian persyaratan memperoleh gelar Sarjana Sains Matematika
PERBANDINGAN METODE GRADIENT DESCENT DAN GRADIENT DESCENT DENGAN MOMENTUM PADA JARINGAN SYARAF TIRUAN BACKPROPAGATION DALAM PERAMALAN KURS TENGAH RUPIAH TERHADAP DOLAR AMERIKA oleh WAHYUNI PUTRANTO NIM.
Lebih terperinciClassification (1) Classification (3) Classification (2) Contoh Classification. Classification (4)
Knowledge Discovery in Databases (IS704) dan Data Mining (CS704) Kuliah #5: Classification (Bagian 1) Gunawan Jurusan Teknik Informatika Sekolah Tinggi Teknik Surabaya Revisi 14 Agustus 2007 Classification
Lebih terperinciUKURAN ASOSIASI DALAM EPIDEMIOLOGI. Putri Handayani, M. KKK
UKURAN ASOSIASI DALAM EPIDEMIOLOGI Putri Handayani, M. KKK Tipe ukuran yang digunakan dalam epidemiologi Ukuran asosiasi Merefleksikan kekuatan atau besar asosiasi antara suatu eksposur/faktor risiko dan
Lebih terperinciABSTRAK. Teknologi pengkode sinyal suara mengalami kemajuan yang cukup. pesat. Berbagai metode telah dikembangkan untuk mendapatkan tujuan dari
ABSTRAK Teknologi pengkode sinyal suara mengalami kemajuan yang cukup pesat. Berbagai metode telah dikembangkan untuk mendapatkan tujuan dari pengkode sinyal suara yaitu output sinyal suara yang mempunyai
Lebih terperinciDecision Making Prentice Hall, Inc. A 1
Decision Making Product Design of ITATS Module based on Operation Management, 9e PowerPoint presentation to accompany Heizer/Render Lecturer: F. Priyo Suprobo, ST, MT 2008 Prentice Hall, Inc. A 1 Permasalahan
Lebih terperinciBAB I PENDAHULUAN. 1.1 Latar Belakang
BAB I PENDAHULUAN 1.1 Latar Belakang Setiap siswa di dalam kelas memiliki karakteristik diri yang berbeda beda, seperti : jujur, empati, sopan, menghargai dan sebagainya. Karakteristik diri tersebut berperan
Lebih terperinciTeori Pengambilan Keputusan. Week 10 Decision Analysis Decision Tree
Teori Pengambilan Keputusan Week 10 Decision Analysis Decision Tree Six Steps in Decision Making 1. Clearly define the problem at hand. 2. List the possible alternatives. 3. Identify the possible outcomes
Lebih terperinciHypothesis Testing SUNU WIBIRAMA
Hypothesis Testing SUNU WIBIRAMA Basic Probability and Statistics Department of Electrical Engineering and Information Technology Faculty of Engineering, Universitas Gadjah Mada CONTENTS 8.1 Introduc-on
Lebih terperinciInformasi Data Pokok Kota Surabaya Tahun 2012 BAB I GEOGRAFIS CHAPTER I GEOGRAPHICAL CONDITIONS
BAB I GEOGRAFIS CHAPTER I GEOGRAPHICAL CONDITIONS Indonesia sebagai negara tropis, oleh karena itu kelembaban udara nya sangat tinggi yaitu sekitar 70 90% (tergantung lokasi - lokasi nya). Sedangkan, menurut
Lebih terperinciUJI HIPOTESIS SATU SAMPEL. Chapter 10
UJI HIPOTESIS SATU SAMPEL Chapter 10 Tujuan 1. Mendefinisikan hypothesis and hypothesis testing. 2. Menjelaskan lima tahapan prosedur uji hipotesis. 3. Membedakan antara uji hipotesis satu sisi dan dua
Lebih terperinciIntroduction to Time Series Analysis
Introduction to Time Series Analysis Kegiatan peramalan merupakan bagian integral dari pengambilan keputusan manajemen. Peramalan mengurangi ketergantungan pada hal-hal yang belum pasti (intuitif). Dalam
Lebih terperinciStatistik Bisnis. Week 12 Analysis of Variance
Statistik Bisnis Week 12 Analysis of Variance 1 Learning Objectives This week, you learn: How to use one-way analysis of variance to test for differences among the means of several populations (also referred
Lebih terperinciFOR IMMEDIATE RELEASE
FOR IMMEDIATE RELEASE International www.roymorgan.com Finding No. 2009 Available on Website: www.roymorgan.com On March 19, 2013 KADIN-Roy Morgan Keyakinan Konsumen menurun di bulan Februari 155.5 poin
Lebih terperinciPENERAPAN DATA MINING MENGGUNAKAN ALGORITME C4.5 DALAM PENENTUAN JURUSAN SISWA SMA NEGERI 2 SURAKARTA
PENERAPAN DATA MINING MENGGUNAKAN ALGORITME C4.5 DALAM PENENTUAN JURUSAN SISWA SMA NEGERI 2 SURAKARTA oleh NADYA AL FITRIANI M0111060 SKRIPSI ditulis dan diajukan untuk memenuhi sebagian persyaratan memperoleh
Lebih terperinciOFVSBM!OFUXPSL. Latar Belakang
OFVSBM!OFUXPSL Sumber: Tim Machine Learning PENS ITS Latar Belakang Kemampuan manusia dalam memproses informasi, mengenal wajah, tulisan, dsb. Kemampuan manusia dalam mengidentifikasi wajah dari sudut
Lebih terperinciBAB II TINJAUAN PUSTAKA
BAB II TINJAUAN PUSTAKA 2.1 Data Mining 2.1.1 Pengertian Data Mining Beberapa definisi dari data mining antara lain: 1. Data Mining adalah proses menemukan korelasi baru yang memiliki makna, pola, dan
Lebih terperinciKurang Setuju Tidak Setuju Sangat Tidak Setuju
Lampiran 1 Kuesioner Penelitian PENGARUH CITRA MEREK TERHADAP KESEDIAAN MEMBAYAR MAHAL DONUT KEMASAN PAKET J.CO DONUTS & COFFEE CABANG PLAZA MEDAN FAIR PADA MAHASISWA FAKULTAS EKONOMI&BISNIS UNIVERSITAS
Lebih terperinciMANAJEMEN PROYEK LANJUT
MANAJEMEN PROYEK LANJUT Advance Project Management Dr. Ir. Budi Susetyo, MT Fakultas TEKNIK Program Magister SIPIL - MK www.mercubuana.ac.id 1 Bagian Isi 1. PM and Project financial management 2. Money
Lebih terperinciB. ACCEPTANCE SAMPLING. Analysis
Analysis Control A. PENDAHULUAN B. ACCEPTANCE SAMPLING Control Analysis Pengendalian dan pengawasan mutu untuk mengetahui kesesuaian dengan standar tidak dapat diterapkan pada semua produk karena jumlah
Lebih terperinciLEARNING. Program Studi Ilmu Komputer FPMIPA UPI RNI IK460(Kecerdasan Buatan)
LEARNING Jiawei Han and Micheline Kamber. 2006. Data Mining Concepts and Techniques. San Fransisco : Elsevier M.Tim Jones. Artificial Intelligence A System Approach. Slide Kuliah Data Mining - Klasifikasi,
Lebih terperinciBayesian Classifier. Bahan Kuliah Data Mining. Dr. Taufik Fuadi Abidin, S.Si., M.Tech. Program Studi Teknik Informatika FMIPA Universitas Syiah Kuala
Naïve Bayesian Classifier Dr. Taufik Fuadi Abidin, S.Si., M.Tech Program Studi Teknik Informatika FMIPA Universitas Syiah Kuala www.informatika.unsyiah.ac.id/tfa Bahan Kuliah Data Mining Outline Pertemuan
Lebih terperinciVirtual Memory Ch. 9. Virtual Memory. SISTIM OPERASI (Operating System) IKI Johny Moningka
Virtual Memory Ch. 9 SISTIM OPERASI (Operating System) IKI-00 Johny Moningka (moningka@cs.ui.ac.id) Fakultas Ilmu Komputer Universitas Indonesia Semester 000/00 Virtual Memory Background Demand Paging
Lebih terperinciDistribusi probabilitas dan normal. Statisitik Farmasi 2015
Distribusi probabilitas dan normal Statisitik Farmasi 2015 Part 1. DISTRIBUSI PROBABILITAS Statisitik Farmasi 2015 Tujuan Perkuliahan Setelah menyelesaikan kuliah ini, mahasiswa mampu: Membuat distribusi
Lebih terperinciMetode Pemulusan Eksponensial Sederhana
Metode Pemulusan Eksponensial Sederhana (Single Exponential Smoothing) KULIAH 3 METODE PERAMALAN DERET WAKTU rahmaanisa@apps.ipb.ac.id Review Untuk apa metode pemulusan (smoothing) dilakukan terhadap data
Lebih terperinciSISTEM PENGENALAN KARAKTER DENGAN JARINGAN SYARAF TIRUAN ALGORITMA PERCEPTRON
Jurnal Informatika Mulawarman Vol. 7 No. 3 Edisi September 2012 105 SISTEM PENGENALAN KARAKTER DENGAN JARINGAN SYARAF TIRUAN ALGORITMA PERCEPTRON Anindita Septiarini Program Studi Ilmu Komputer FMIPA,
Lebih terperinci