Informasi dan Coding

dokumen-dokumen yang mirip
TEKNIK KOMPRESI LOSSLESS TEXT

HUFFMAN CODING. Huffman Coding

Penggunaan Kode Huffman dan Kode Aritmatik pada Entropy Coding

ARITHMETIC CODING. Arithmetic Coding

[TTG4J3] KODING DAN KOMPRESI. Oleh : Ledya Novamizanti Astri Novianty. Prodi S1 Teknik Telekomunikasi Fakultas Teknik Elektro Universitas Telkom

TTG3B3 - Sistem Komunikasi 2 Teori Informasi

BAB II DASAR TEORI. 2.1 Pendahuluan

SOLUSI QUIZ#2. Soal: Untuk nomor 1-3, diketahui pesan string jaya berjaya

TEKNIK KOMPRESI LOSSLESS

[TTG4J3] KODING DAN KOMPRESI. Oleh : Ledya Novamizanti Astri Novianty. Prodi S1 Teknik Telekomunikasi Fakultas Teknik Elektro Universitas Telkom

[TTG4J3] KODING DAN KOMPRESI. Oleh : Ledya Novamizanti Astri Novianty. Prodi S1 Teknik Telekomunikasi Fakultas Teknik Elektro Universitas Telkom

BAB 2 TINJAUAN PUSTAKA

ANALISIS BEBERAPA TEKNIK CODING RAHMAD FAUZI, ST, MT JURUSAN TEKNIK ELEKTRO FAKULTAS TEKNIK UNIVERSITAS SUMATERA UTARA BAB I PENDAHULUAN

BAB 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI

BAB 2 TINJAUAN PUSTAKA

BAB 2 LANDASAN TEORI

Entropy Naskah Bahasa Sunda Dan Bahasa Jawa Untuk Kompresi Teks Menggunakan Algoritma Binary Huffman Code

PERBANDINGAN ALGORITMA HUFFMAN DAN ALGORITMA SHANNON-FANO PADA PROSES KOMPRESI BERBAGAI TIPE FILE. Irwan Munandar

Image Compression. Kompresi untuk apa?

SOLUSI QUIZ #1 SEMESTER I 2014/2015

Image Compression. Tujuan Kompresi Image. Teknik kompresi yang diharapkan. Image Compression. Kompresi untuk apa?

BAB 2 LANDASAN TEORI

Konstruksi Kode dengan Redundansi Minimum Menggunakan Huffman Coding dan Range Coding

Image Compression. Tujuan Kompresi Image. Teknik kompresi yang diharapkan. Image Compression. Kompresi untuk apa?

ALJABAR SET & AKSIOMA PROBABILITAS

BAB 1 PENDAHULUAN. 1.1 Latar Belakang

KOMPRESI FILE MENGGUNAKAN ALGORITMA HUFFMAN KANONIK

DATA COMPRESSION CODING USING STATIC AND DYNAMIC METHOD OF SHANNON-FANO ALGORITHM

IMPLEMENTASI DAN ANALISIS KINERJA ALGORITMA ARIHTMETIC CODING DAN SHANNON-FANO PADA KOMPRESI CITRA BMP

KOMPRESI TEKS MENGGUNAKAN ALGORITMA DAN POHON HUFFMAN. Nama : Irfan Hanif NIM :

Kode Huffman dan Penggunaannya dalam Kompresi SMS

Penggunaan Pohon Huffman Sebagai Sarana Kompresi Lossless Data

BAB III METODE KOMPRESI HUFFMAN DAN DYNAMIC MARKOV COMPRESSION. Kompresi ialah proses pengubahan sekumpulan data menjadi suatu bentuk kode

PERBANDINGAN ALGORITMA HUFFMAN DENGAN ALGORITMA SHANNON-FANO

MULTIMEDIA system. Roni Andarsyah, ST., M.Kom Lecture Series

PEMAMPATAN TATA TEKS BERBAHASA INDONESIA DENGAN METODE HUFFMAN MENGGUNAKAN PANJANG SIMBOL BERVARIASI

BAB 1 PENDAHULUAN. 1.1 Latar Belakang

[TTG4J3] KODING DAN KOMPRESI. Oleh : Ledya Novamizanti Astri Novianty. Prodi S1 Teknik Telekomunikasi Fakultas Teknik Elektro Universitas Telkom

KOMPRESI TEKS dengan MENGGUNAKAN ALGORITMA HUFFMAN

BAB 2 TINJAUAN PUSTAKA

BAB I PENDAHULUAN. Saat ini perkembangan teknologi berkembang sangat cepat. Penyimpanan

1. PENDAHULUAN 1.1. Latar Belakang Masalah

Implementasi Algoritma Kompresi Shannon Fano pada Citra Digital

IMPLEMENTASI DAN ANALISIS KINERJA ALGORITMA SHANNON- FANO UNTUK KOMPRESI FILE TEXT

Kompresi. Definisi Kompresi

Perbandingan Algoritma Kompresi Terhadap Objek Citra Menggunakan JAVA

KOMPRESI DATA DAN TEKS. By : Nurul Adhayanti

PEDOMAN PENGGUNAAN SIMULATOR PENYANDIAN DAN PENGAWASANDIAN SISTEM KOMUNIKASI BERBASIS PERANGKAT LUNAK VISUAL C#

BAB III METODOLOGI PENELITIAN. Penelitian ini dilakukan di Jurusan Ilmu Komputer Fakultas Matematika dan

TEKNIK PENGOLAHAN CITRA. Kuliah 13 Kompresi Citra. Indah Susilawati, S.T., M.Eng.

BAB 1 PENDAHULUAN. 1.1 Latar Belakang

BAB 2 LANDASAN TEORI


[TTG4J3] KODING DAN KOMPRESI. Oleh : Ledya Novamizanti Astri Novianty. Prodi S1 Teknik Telekomunikasi Fakultas Teknik Elektro Universitas Telkom

Penyandian (Encoding) dan Penguraian Sandi (Decoding) Menggunakan Huffman Coding

BAB 2 TINJAUAN PUSTAKA

[TTG4J3] KODING DAN KOMPRESI. Oleh : Ledya Novamizanti Astri Novianty. Prodi S1 Teknik Telekomunikasi Fakultas Teknik Elektro Universitas Telkom

BAB 2 LANDASAN TEORI

PENYANDIAN SUMBER DAN PENYANDIAN KANAL. Risanuri Hidayat

Algoritma Huffman dan Kompresi Data

BAB 2 TINJAUAN PUSTAKA

PEMAMPATAN CITRA (IMA

Deteksi dan Koreksi Error

Analisis Algoritma Huffman Statis Dalam Kompresi Teks Pada Short Message Service (SMS)

HAND OUT EK. 462 SISTEM KOMUNIKASI DIGITAL

PENGANTAR KOMPRESI DATA

NASKAH PUBLIKASI KOMPRESI CITRA DENGAN METODE ARITHMETIC CODING DALAM KAWASAN ENTROPY CODING

BAB 2 LANDASAN TEORI

BAB 1 PENDAHULUAN. 1.1 Latar Belakang

Satuan Acara Perkuliahan Arjuni Budi P.

Teknik Pengkodean (Encoding) Dosen : I Dewa Made Bayu Atmaja Darmawan

BAB 2 TINJAUAN PUSTAKA

BAB 1 PENDAHULUAN 1-1

Kata kunci: pohon biner, metode Huffman, metode Kanonik Huffman, encoding, decoding.

Kompresi Data dengan Kode Huffman dan Variasinya

Kompresi Data dengan Algoritma Huffman dan Perbandingannya dengan Algoritma LZW dan DMC

TEKNIK ENCODING SINYAL

PENERAPAN METODE HUFFMAN DALAM PEMAMPATAN CITRA DIGITAL

Teknik Kompresi Citra Menggunakan Metode Huffman

APLIKASI GREEDY PADA ALGORITMA HUFFMAN UNTUK KOMPRESI TEKS

BAB III LANDASAN TEORI. Kompresi data merupakan proses mengkonversi input data stream (aliran

1. Pendahuluan. 1.1 Latar Belakang Masalah

Kompleksitas Algoritma dari Algoritma Pembentukan pohon Huffman Code Sederhana

Standard Kompresi Citra: JPEG

ANALISA DAN PERBANDINGAN ALGORITMA RUN LENGTH ENCODING DAN ALGORITMA LZW ( LEMPEL ZIV WECH ) DALAM PEMAMPATAN TEKS

Analisa Perbandingan Rasio Kecepatan Kompresi Algoritma Dynamic Markov Compression Dan Huffman

BAB 2 Tinjauan Teoritis

BAB I PENDAHULUAN. Dalam dunia modern sekarang ini kebanyakan aktivitas manusia selalu

BAB 2 LANDASAN TEORI

BAB III METODOLOGI PENELITIAN

BAB 1 PENDAHULUAN Latar Belakang

Penerapan Pohon Biner Huffman Pada Kompresi Citra

Contoh kebutuhan data selama 1 detik pada layar resolusi 640 x 480 : 640 x 480 = 4800 karakter 8 x 8

1 PENDAHULUAN 1.1 Latar Belakang

SISTEM ANALISA PERBANDINGAN UKURAN HASIL KOMPRESI WINZIP DENGAN 7-ZIP MENGGUNAKAN METODE TEMPLATE MATCHING

BAB II DASAR TEORI. 7. Menuliskan kode karakter dimulai dari level paling atas sampai level paling bawah.

Transkripsi:

Informasi dan Coding Anhar anhar9@gmail.com Elemen Dasar Proses Komunikasi Proses komunikasi Isue (kuliah) Kompresi Informasi

Informasi dan Entropy Apakah informasi dan bagaimana mengukurnya? Mana yang memuat lebih banyak informasi? Besok matahari akan terbit Harga BBM di Indonesia turun nilai informasi ~ surprise, unexpectedness, uncertainty Jumlah kombinasi nilai informasi dari kejadian (event) yg tidak berelasi ~ jumlah nilai informasi masing-masing kejadian (mempunyai harga yang lebih kecil jika kejadian-kejadian berelasi) Hari ini hujan + Saya tidak perlu menyiram taman Hari ini hujan + Ada halaman yang hilang dari textbook saya Intuisi di atas menjadi basis dari teori informasi yang diusulkan Claude E Shannon (948) Informasi dan Entropy Set event: S = {x,.., x n } S disebut alphabet jika x i sebuah simbol (huruf) digunakan utk membangun pesan (message) Probabilitas kemunculan masing-masing event, p(x i ) = p i n P = {p,.., p n }, dimana p i 0, p = = i i Untuk sumber memoryless: Nilai self-information yg berhub. dg event x i digunakan definisi I(x i ) = -log k p i Fungsi di atas adalah ukuran informasi (surprise atau unexpectedness) dari kemunculan event x i 2

Informasi dan Entropy Fungsi self-information I Unit informasi (uncertainty) disebut bit jika digunakan algoritma dengan basis 2 (lgx = log 2 x) Informasi dan Entropy Untuk sumber biner S = {x, x 2 2}, P = {½, ½} I(x ) = -lg½ = bit I(x 2 ) = -lg½ = bit S = {x, x 2 }, P = {¼, 3/4}, I(x ) = -lg¼ = 2 bit I(x 2 ) = -lg3/4 = 0,45 bit Fungsi I hanya fokus pada satu event pada kebanyakan k situasi i (kompresi data) lebih relevan mengukur content informasi pada keseluruhan set Konsep Shannon: entropy ukuran uncertainty satu set event 3

Entropy S = {x,.., x n }, satu set event independen P ={p,.., p n }, probabilitas kemunculan Entropy: Entropy = rata-rata self-information kemunculan event x i Entropy Entropy dapat juga diinterpretasikan jumlah rata-rata minimum dari jumlah pertanyaan ya/tidak untuk menentukan harga spesifik dari variabel X Dalam konteks coding message, entropy merepresentasikan batas bawah (lower bound) dari jumlah rata-rata bit per satu nilai input yaitu rata-rata panjang code word digunakan untuk mengkodekan input 4

Entropy Contoh Untuk sumber biner, set probabilitas P = {p, p 2 } = {p, -p } H(p,p 2 ) = -p lgp p 2 lgp 2 = -p lgp ( p )lg( p ) = H(p ) Entropy Contoh Jika S = {x, x 2, x 3 }, P = {½,¼,¼}, maka: H(p,p 2,p 3 ) = - ½lg½ - ¼lg¼ - ¼lg¼ = ½ + ½ + ½ =,5 bit/event 5

Karakteristik Entropy Karakteristik-karakteristik fungsi Entropy H: Symmetry dari H : urutan dari argumen H tidak berpengaruh Fungsi H mempunyai batas atas dan bawah: 0 = H(,0,,0) H(p,,p n ) H(/n,,/n) = lgn Null set property. Menambahkan event dg prob 0 pada set event tidak mengubah entropy H(p,, p n, 0) = H(p,, p n ) Fungsi f(n) = H(/n,,/n) tumbuh monoticall: f(n) < f(n+i) utk i > 0 dan n > 0 Karakteristik Entropy Grouping axiom. Jika set S = {x,, x n }, nilai x,, x i disatukan bersama membentuk satu grup S i : H ( p,..., p. p i i+,..., p ) = H ( p +... + p, p i n i+,..., p ) + p ( p + +... pi ) H,..., p +... + pi n pi p +... + pi 6

Noiseless & Memoryless Coding Sumber tidak punya memory (simbol ditransmisikan secara independen) S = {x,, x n }, P = {p,.., p n } Codewords C = {c,.., c n } Code disebut binary code jika komposisi codeword adalah 0 dan Rata-rata panjang codeword L avg = n i= p l i i dimana l i adalah panjang codeword c i yang mengkodekan simbol x i Panjang codeword Shannon : l i = -lg p i Dalam kompresi data meminimumkan cost (L avg ) Noiseless & Memoryless Coding Definisi Suatu code adalah uniquely decodable jika hanya ada satu cara memecah deretan codeword c i c i2...c ik ke dalam codeword terpisah. Yaitu jika c i c i2 c ik = c j c j2 c jk, maka untuk tiap s, i s = j s (yaitu c is = c js ) Suatu code mempunyai prefix (atau irreducibility atau selfpunctuating) property jika tidak ada code word didapat dari codeword lain dengan menambahkan 0 atau, atau tidak ada codeword merupakan prefix dari codeword lain scanning deretan codeword, tidak memerlukan melihat kedepan (look ahead) untuk menghindari ambiguitas Tidak diperlukan tanda khusus untuk memisahkan dua codeword dalam message Optimal code adalah yang menghasilkan harga L avg terendah yang mungkin 7

Contoh Huruf code code2 code3 code4 A 0 0 00 00 B 0 0 C 0 0 0 Mana yang mempunyai karakteristik uniquely decodable prefix property optimal code Contoh 8

The Kraft Inequality Kraft s Theorem Terdapat prefix binary code dengan codeword {c,.., c n } dengan panjang {l,.., l n } jika dan hanya jika Bukti n i= 2 l i n lmax li lmax 2 2 i= atau n i= 2 li The Kraft Inequality Theorem menyatakan untuk satu set panjang codeword, prefix code dapat dibentuk dan bukan bagaimana membentuknya Memungkinkan banyak prefix code dapat dibuat dengan tetap memenuhi kondisi teorema Teorema menjamin mendapatkan prefix code tapi tidak menjamin optimal 9

The Kraft Inequality The Kraft inequality menjadi equality jika codeword tidak dp diperpendek lagi, perhatikan utk set panjang codeword {2,3,3,4} dan {333) {,3,3,3) 2 2 + + + + 3 3 3 4 2 2 2 2 = < 6 8 + + + + = = 3 3 3 3 2 2 2 2 2 8 Utk sejumlah panjang codeword prefix code dp dicari, tetapi ada kemungkinan utk set panjang yg sama, dp dibangun non-prefix code Teorema hanya berbicara prefix code, tetapi prefix code uniquely decodable code Teorema Fundamental Discrete Coding Ukuran kinerja (dari sudut pandang kompresi data): Compression Ratio = Panjang (output) Panjang (input) x 00% Compression Rate = - Compression Ratio Mis. Kompresi file dg compression ratio 75% berarti file hasil kompresi ¾ file sblm kompresi Compression rate 25% berarti file sblm kompresi dikurangi ¼ nya (persentasi space yg dp dihemat) 0

Teorema Fundamental Discrete Coding Untuk suatu rasio kompresi yang didapat, bisakah ditingkatkan lagi? Konsep Entropy menunjukan batas kompresi yang dapat dicapai Panjang codeword rata-rata > source entropy Teorema Fundamental Discrete Coding Teorema Untuk suatu prefix binary code dengan panjang rata-rata codeword Lavg = pili maka L avg H(S) Terdapat prefix binary code dimana L avg < H(S) + Shannon s Fundamental Theorem of Discrete Noiseless Coding Untuk sumber S dengan entropy H(S), dimungkinkan mengalokasikan codeword deretan k simbol dengan kondisi prefix dipenuhi, dan panjang rata-rata codeword L k Lk H ( S) < H ( S) + k k

Teorema Fundamental Discrete Coding Contoh S = {a,b,c}, P = {0., 0.45, 0.45} } H(S) =,369 Panjang codeword: p = 0, l = -lg 0, = 4 p = 0,45 l = -lg 0,45 = 2 L avg = 2,2 bit/karakter Ambil set panjang codeword = {2,2,} memenuhi Kraft inequality L avg =,55 bit/karakter,55 bit/kar lebih baik drpd 2,2 bit/kar masih ada ruang perbaikan (ingat entropy sistem =,369) Teorema Fundamental Discrete Coding L avg dp diperbaiki dg mengambil blok/deretan karakter drpd single karakter (dg bayaran kompleksitas yg meningkat) Contoh: S = {a,b,c}, P = {0., 0.45, 0.45} Bentuk sumber baru S 2 = {aa,ab,ac,ba,bb,bc,ca,cb,cc} P = {0.0, 0.045, 0.045, 0.045, 0.2025, 0.2025, 0.045, 0.2025, 0.2025} H(S 2 ) = 2H(S) = 2,738 buktikan! Panjang codeword (Shannon) -lg l 0,0 0 = 7; -lg l 0,45 = 5; -lg l 0,2025 = 3 Panjang rata-rata per sub-simbol: L 2 = 0,0. 7 + 4. 0,045. 5 + 4. 0.2025. 3 = 3,4 Panjang rata-rata per karakter = L 2 /2 =,7 bit/karakter 2

Shannon-Fano Coding Suboptimal code Shannon code Shannon-Fano code Optimal code Huffman code Arithmetic coding Efisiensi macam-macam code diukur dengan: effisiensi = H ( S).00% L avg Shannon Coding S = {x,, x n } P ={p,.., p n } p i = p(x i ) dari semua simbol sumber x i diurut dari yang paling besar: p p 2 p n Cumulative prob didefinisikan: P i = p + + p i- Codeword utk simbol x i didp dg mengambil l i = -lg p i digit pertama dari ekspansi biner P i P i = 0.b b 2 b 3 b 4 = b /2 + b 2 /2 2 + b 3 /2 3 + 3

Shannon Coding Contoh: S = {A, B, C, D, E} P = {0.35, 0.7, 0.7, 0.6, 0.5} Shannon-Fano Coding 4

Shannon-Fano Coding Contoh S = {A, B, C, D, E} P = {0.35, 0.7, 0.7, 0.6, 0.5} Pengkodean Shannon-Fano: Bagi S kedalam s dan s 2 (pilih yang memberikan perbedaan p(s ) dan p(s 2 ) terkecil s = (A,B) p(s ) = p(a) + p(b) = 0,52 s 2 = (C,D,E) p(s 2 ) = p(c) + p(d) + p(e) = 0,48 Panggil ShannonFano() Shannon-Fano Coding Panjang code rata-rata: L sh = 0,35*2 + 0,7*2 + 0,7*2 + 0,6*3+0,5*3 = 2,3 Efisiensi = (2,23284/2,3)*00 = 96,66 % 5

Kompresi Text Shannon-Fano coding salah satu yg digunakan utk kompresi text PR (Tugas-): kumpulkan minggu depan (waktu kuliah). Untuk sumber alphabet S={a,b,c} dan probabilitas P={0., 0.2, 0.7}: a. cari panjang codeword Shannon rata-rata b. Spt soal (a) utk semua pasangan yg mungkin dari 3 huruf di atas. 2. Suatu sumber S={a,b,c,d,e,f} dg probabilitas P={0.5, 0,6, 0,3, 0,20, 0,25, 0,}. Cari codeword utk masing-masing simbol dg metoda Shannon. 3. Dengan menggunakan metoda Shannon-Fano Coding, tentukan codeword utk suatu sumber dg probabilitas berikut a. (/2, /4, /8, /6, /6) b. (0.4, 0.3, 0.2, 0.) 6