BAB IV Kinerja Varian TCP Dalam Jaringan UMTS 4.1 Hasil Simulasi Dampak scheduler layer MAChs pada TCP Sesuai dengan penjelasan scenario yang telah kami berikan pada 3.5.1, maka dari simulasi ini kami memberikan gambaran mengenai scheduling yang lebih baik antara Round Robin dan MAX C/I. Simulasi 1: Tabel 4.1 Lima aliran TCP dengan input trace bervariasi Fid Input Trace Characteristic MAC hs Scheduler Average Throughput (kbps) 1 Pedestrian 700 m RR 112 2 Pedestrian 500 m RR 167 3 Pedestrian 300 m RR 211 4 Pedestrian 500 m RR 159 5 Pedestrian 300 m RR 198 1 Pedestrian 700 m MAX C/I 70 2 Pedestrian 500 m MAX C/I 173 3 Pedestrian 300 m MAX C/I 451 4 Pedestrian 500 m MAX C/I 87 5 Pedestrian 300 m MAX C/I 298 Aggregate Throughput (kbps) 847 1079 45
Simulasi 2: Tabel 4.2 Lima aliran TCP dengan input trace ideal Fid Input Trace Characteristic MAC hs Scheduler Average Throughput (kbps) 1 Ideal Condition RR 248 2 Ideal Condition RR 233 3 Ideal Condition RR 229 4 Ideal Condition RR 216 5 Ideal Condition RR 215 1 Ideal Condition MAX C/I 936 2 Ideal Condition MAX C/I 173 3 Ideal Condition MAX C/I 58 4 Ideal Condition MAX C/I 16 5 Ideal Condition MAX C/I 7 Aggregate Throughput (kbps) 1141 1190 Pebandingan Hasil Dari tabel 4.1 dapat diamati bahwa scheduling Max C / I menghasilkan throughput yang secara keseluruhan lebih baik dari penjadwalan Round Robin. Hal ini disebabkan oleh fakta bahwa Max C / I adalah algoritma penjadwalan yang bergantung pada kanal sehingga dapat menggunakan kondisi radio yang tersedia secara maksimum. 46
Apabila semua UES dikondisikan demikian maka base station dapat dikonfigurasi untuk mengirim data pada frame 2 ms berikutnya dan berapa banyak data yang harus dikirim untuk setiap UE. Hal ini sangat jelas dilihat dari tabel 4.1 dimana lebih banyak data dikirim ke UES untuk melaporkan kualitas sinyal downlink. Alokasi throughput pada strategi atau scenario ini menjadi tidak adil untuk beberapa pengguna. Untuk pengguna yang terletak pada perbatasan sel, mengalami kondisi kanal yang buruk sehingga mungkin tidak dilayani sama sekali. Hal ini dapat menyebabkan tertahannya arus data pada kanal dengan kualitas buruk, meskipun pada statistik mungkin digunakan pada kanal dengan kualitas yang terbaik (seperti dalam tabel 4.1). Penjadwalan Round Robin (RR) di sisi lain memberikan perhatian lebih terhadap keadilan distribusi sumber daya radio antara semua pengguna terlepas dari kualitas saluran sesaat mereka. Hal ini dapat dilihat dari tabel 4.1 bahwa UE dengan input trace 700 pedestrian diharapkan memiliki kualitas saluran yang relatif rendah dibandingkan UES lain ternyata memberikan kinerja yang lebih baik pada penjadwalan RR daripada di Max C / I. Hal ini disebabkan oleh fakta bahwa pada penjadwalan RR setiap aliran memberikan prioritas yang sama secara berurutan. Masalah utama dengan penjadwalan RR adalah bahwa dia tidak mempertimbangkan kualitas saluran sesaat. Hal ini mengakibatkan pemanfaatan saluran menjadi buruk dan rendahnya arus throughput dengan kualitas saluran yang lebih baik. Tabel 4.2 merupakan statistik di mana kita mencoba untuk mengevaluasi penjadwalan RR dan penjadwalan Max C / I dengan menggunakan trace yang ideal (error free) dengan nilai CQI terbaik. Statistik menunjukkan bahwa penjadwalan RR memberikan hasil yang sama dengan sebelumnya yaitu pada alokasi sumber daya radio yang sama kepada semua aliran 47
dan berakhir dengan pemanfaatan saluran yang tinggi. Sebaliknya, Max C / I yang masih menghasilkan throughput maksimum keluar dari saluran 1.2Mbit, hal ini menunjukkan alokasi sumber daya radio sangat bias. Dalam hal ini Max C / I mengalokasikan semua sumber daya radio mengalir dengan aliran id yang lebih tinggi. Hal ini menyimpulkan bahwa ketika arus berbagi sama kondisi kanal Max C / I akan mengalokasikan sumber daya untuk aliran dengan id aliran yang lebih tinggi. 4.2 Hasil Simulasi Dampak Ukuran RLC / buffer MAChs dan Ukuran TCP MSS Dalam simulasi yang dijelaskan pada 3.5.2, kami memberikan gambaran untuk ukuran RLC / buffer MAChs dan ukuran TCP MSS pada varian TCP yang dapat meningkatkan troughput dalam jaringan UMTS Gambar 4.1: Pengamatan rata-rata Throughput Vs ukuran buffer RLC/MAC-hs 48
Gambar 4.2: Pengamatan rata-rata Delay Vs ukuran buffer RLC/MAC-hs Secara umum dapat diamati bahwa RLC / ukuran buffer MAC-hs memiliki dampak yang signifikan terhadap kinerja semua varian TCP. Dan kinerja dari semua varian TCP maksimum bila RLC / MAC-hs buffer range ukuran (300, 500). Tabel 4.3 TCP MSS Varian Vs Throughput Average Average Varian MSS (bytes) Throughput Delay (kbps) (kbps) TCP Reno 500 732 92 750 901 110 1000 1088 135 1250 1012 170 1500 951 164 TCP Newreno 500 763 92 750 987 112 49
1000 1124 136 1250 1100 178 1500 998 179 TCP FAST 500 773 92 750 1036 110 1000 1177 134 1250 1112 170 1500 1035 188 TCP Vegas 500 545 85 750 769 93 1000 1012 97 1250 1162 104 1500 971 98 Seperti telah dinyatakan sebelumnya bahwa kita akan mencoba untuk mengevaluasi dampak ukuran segmen TCP (MSS) terhadap kinerja varian TCP dalam jaringan UMTS. Dari tabel 4.3 kita mengamati bahwa ketika ukuran paket TCP (MSS) menjadi kecil maka semua kinerja varian TCP menjadi buruk. Dengan meningkatnya ukuran paket, maka kinerja TCP menjadi semakin baik dan hasil terbaik dicapai dicapai pada saat ukuran paket mencapai 1000 byte untuk semua varian TCP. Salah satu alasan mengapa throughputs menjadi turun pada saat ukuran paket TCP kecil adalah karena ukuran buffer layer RLC (yaitu 500 PDU) terlalu besar untuk paket-paket TCP kecil. Sedangkan untuk ukuran paket TCP 1000 byte ukuran buffer layer RLC mencapai batas yang optimal sehingga kinerjanya juga menjadi tinggi. Ketika ukuran paket TCP meningkat melebihi 1000 byte, buffer RLC pada node RNC mulai menjatuhkan paket akibat buffer overflow. Sebagai hasil yang kita amati penurunan bertahap throughput (lihat tabel 4.3). 50
4.3 Hasil Simulasi Penggabungan beberapa alirantcp dalam jaringan UMTS. Dari hasil simulasi yang dijelaskan pada 3.5.3 ini, kami memberikan gambaran mengenai hasil penggabungan beberapa aliran dari masing-masing TCP terhadap kanal yang mengalami bottleneck (seperti terlihat di gambar 3.3). Gambar 4.3: tanpa bottleneck link pada saat terkoneksi 51
Gambar 4.4: bottleneck link pada saat terkoneksi Perbandingan hasil Gambar 4.3 menunjukkan throughput rata-rata dari varian TCP ketika link bottleneck tidak dipertimbangkan. Dalam kasus seperti itu, saluran nirkabel sendiri akan menjadi bottleneck dikarenakan terbatasnya kanal bandwidth (1.2Mb). Seperti yang terlihat dari gambar 4.3 kinerja dari semua varian secara bertahap berkurang dengan peningkatan jumlah aliran kompetitif. Hal yang perlu diperhatikan adalah cara di mana bandwidth dibagi di antara user, sehingga memberikan throughput yang sama. Hal ini disebabkan oleh fakta bahwa dalam jaringan UTRAN; penjadwalan kanal memainkan peran penting dalam menyalurkan kanal bandwidth diantara user. Seperti pada penjadwalan Round Robin, yang memberikan bagian sama dari bandwidth untuk aliran masing-masing. Ketika kita mempertimbangkan bottleneck di bagian kabel, 52
perubahan situasi seperti pertarungan yang terjadi antara beberapa aliran TCP yang dikarenakan bandwidth yang terbatas. Dari gambar 4.4 kita amati bahwa semua aliran memiliki nilai kinerja yang berbeda. Pada kondisi ini protokol yang lebih agresif akan mendapatkan bagian link bandwidth yang lebih besar. Dalam hal ini protokol yang agresif adalah TCP FAST. Agresivitas TCP FAST tergantung pada konfigurasi parameter konvergensi (α), dia menjaga kecepatan pengiriman paket (W + α) untuk setiap RTT. TCP FAST awalnya dirancang untuk Long FAST Network (LFN) yang dapat memanfaatkan secara penuh penggunaan bandwidth dari jaringan yang relatif sering mengalami persaingan aliran. Penyetelan parameter fast convergence mutlak diperlukan untuk TCP FAST. Gambar 4.5 dan Gambar 4.6 menunjukkan aggresifitas TCP FAST berdasarkan parameter fast convergence yang ditetapkan sebesar α = 100 (tuning standar untuk LFN) dan α = 20 (disetel untuk LTN). Hal ini sangat jelas terlihat dari kedua gambar dimana tingginya nilai α dalam jaringan LTN tidak hanya membuat TCP FAST agresif tapi juga tidak stabil. Dengan nilai α yang tinggi, TCP FAST mempertemukan beberapa packet loss per RTT. Di sisi lain nilai moderat α (yaitu 20 paket seperti pada Gambar 4.8) dalam TCP FAST menjadi relatif adil dalam berbagi bandwidth pada saat bottleneck. 53
Gambar 4.5 Aggressivitas TCP FAST (α=100) Gambar 4.6 Aggressivitas TCP FAST (α=20) 54
Kami mencoba untuk mengukur keadilan Inter-protokol dengan menggunakan pemanfaatan bandwidth pada link kabel bottleneck sebagai ukuran keadilan antara persaingan arus yang berbeda. Table: 4.4: Keadilan Inter-protocol dipresentasikan pada pemanfaatan bandwidth 5, 10 and 20 persaingan aliran. TCP Variant Number of flows Percentage of Bandwidth allocation TCP Reno 5, 10, 20 17%, 8%, 5% TCP Newreno 5, 10, 20 19%, 8%, 5% TCP FAST 5, 10, 20 31%, 20%, 12% TCP Vegas 5, 10, 20 6%, 5%, 5% Dari tabel 4.4 dapat dilihat bahwa semua varian TCP tidak berbagi bandwidth secara merata. TCP Vegas mendapatkan sedikit bagian dalam bandwidth bottleneck, sedangkan TCP FAST berhasil mendapatkan bagian yang lebih besar. Seperti telah disebutkan di awal bagian ini, pembagian bandwidth TCP FAST tergantung pada konfigurasi parameter α (di sini α = 20). Di sisi lain, protokol berbasis loss relatif lebih diterima satu sama lain, namun secara moderat lebih agresif dari pada TCP Vegas berbasis delay. 55