AGEN CERDAS GAME REMI BERBASIS MINIMAX

dokumen-dokumen yang mirip
KI Kecerdasan Buatan Materi 6: Pencarian dgn. Lihat Status Lawan (Adversarial Search)

IKI30320 Kuliah 8 26 Sep Ruli Manurung. Game playing. Strategi optimal. Bekerja cepat Cutoff Tree pruning. State of the art.

ALGORITMA GENETIK SEBAGAI FUNGSI PRUNING ALGORITMA MINIMAX PADA PERMAINAN TRIPLE TRIAD CARD.

AUTONOMOUS LEVELING BERBASIS FSM UNTUK PEMBUATAN GAME EDUKASI

ALGORITMA MINIMAX PADA GAME ANDROID

BAB I PENDAHULUAN. Permainan papan atau biasa disebut dengan Board Games hampir tidak

Perbandingan Penerapan Algoritma Minimax Dengan Algoritma Alpha-Beta Pruning Pada Permainan Othello

BAB I PENDAHULUAN. Dalam beberapa tahun terakhir Artificial Intelligence (AI) atau kecerdasan

Penerapan Pohon dalam Algoritma Expectiminimax untuk Permainan Stokastik

Rancangan Permainan Othello Berbasis Android Menggunakan Algoritma Depth-First Search

BAB I PENDAHULUAN. 1.1 Latar Belakang

Implementasi Graf Pohon dalam Algoritma Minimax untuk Artificial Intelligence

BAB 2 LANDASAN TEORI

PENERAPAN ALGORITMA MINIMAX PADA PERMAINAN CHECKERS

BAB I PENDAHULUAN. sangat diandalkan selama kurang lebih 70 tahun lamanya (Mahfudz, 2013:18).

IMPLEMENTASI ALGORITMA MINIMAX PADA PERMAINAN CATUR

Agen Cerdas Kompetitif Berbasis Finite State Machine Dalam Game Pembelajaran Untuk Anak

BAB III ANALISA DAN PERANCANGAN

Implementasi Algoritma Negascout Untuk Permainan Checkers

ANALISIS ALGORITMA MINIMAX DENGAN OPTIMASI ALPHA BETA PRUNIGN PADA PERMAINAN FIVE IN ROW

PERANCANGAN SYSTEM PAKAR GENERIC MENGGUNAKAN BINARY TREE

BAB 2 LANDASAN TEORI

Perancangan dan Pembuatan Kecerdasan Buatan dengan Metode Alpha Beta Pruning pada Aplikasi Permainan Kartu Capsa

APLIKASI GAME TIC TAC TOE 6X6 BERBASIS ANDROID MENGGUNAKAN ALGORITMA MINIMAX DAN HEURISTIC EVALUATION

ALGORITMA MINIMAX SEBAGAI PENGAMBIL KEPUTUSAN DALAM GAME TIC-TAC-TOE

BAB 2 LANDASAN TEORI

BAB 2 TINJAUAN PUSTAKA

BAB I PENDAHULUAN 1.1 Latar Belakang

KI Kecerdasan Buatan Materi 7: Pencarian dgn. Batasan Kondisi (Constraint Satisfaction Problems)

IMPLEMENTASI ALGORITMA MINIMAX PADA PERMAINAN TIC-TAC-TOE SKALA 9X9

Algoritma A* untuk AI Path Finding bagi NPC

Pembuatan Game NIM menggunakan Alpha-beta Pruning ABSTRAK

GAME CATUR JAWA WITH REINFORCEMENT LEARNING

PEMBUATAN APLIKASI PERMAINAN OTHELLO 16X16 BERBASIS DESKTOP DENGAN ALGORITMA ALPHA BETA PRUNNING

KECERDASAN BUATAN ARTIFICIAL INTELLIGENCE. Copyright: Anik Handayani FT-UM

UKDW BAB 1 PENDAHULUAN Latar Belakang

UKDW BAB 1 PENDAHULUAN. 1.1 Latar Belakang Masalah

BAB 1 PENDAHULUAN Latar Belakang

Artificial Intelligence Apa Itu AI?

ANALISIS DAN IMPLEMENTASI ALGORITMA MINIMAX DENGAN OPTIMASI ALPHA BETA PRUNING PADA PERMAINAN FIVE IN ROW SKRIPSI NUR JANNAH

ALGORITMA MINIMAX DALAM PERMAINAN CHECKERS

BAB I PENDAHULUAN. terlibat dalam permasalahan buatan, ditentukan oleh aturan, yang memberikan

BAB 1 PENDAHULUAN 1.1 Latar Belakang Masalah Artificial Intelligence

Implementasi Artificial Intelligence pada game Defender of Metal City dengan menggunakan Finite State Machine

OPTIMISASI TOTAL TEMPUH NPC PADA RTS GAME MENGGUNAKAN HARMONY SEARCH ALGORITHM. Herti Miawarni 1* Jl. A. Yani 114, Surabaya 60231, Telp.

BAB 1 PENDAHULUAN 1.1 Latar Belakang Masalah

BAB I PENDAHULUAN. Permainan antara manusia melawan komputer menjadi sangat populer

BAB I PENDAHULUAN 1.1 Latar Belakang

STMIK GI MDP. Program Studi Teknik Informatika Skripsi Sarjana Komputer Semester Genap tahun 2010/2011

Implementasi Permainan Reversi menggunakan Penelusuran BFS dengan Konsep Algoritma MinMax

BAB III ANALISIS MASALAH DAN RANCANGAN PROGRAM

UKDW BAB 1 PENDAHULUAN Latar Belakang

Aplikasi Pohon Keputusan pada Permainan Catur

PERANCANGAN PENERAPAN ALGORITMA NEGAMAX ALPHA BETA PRUNING PADA PERMAINAN OTHELLO NASKAH PUBLIKASI. diajukan oleh Bayu Trisna Pratama

Combinatorial Game Theory, Game Tree, dan Intelegensia Buatan

BAB III METODE PENELITIAN

BAB 1 PENDAHULUAN. Hal 1. 1 Dan W. Patterson, Introduction to Artificial Intelligence and Expert System, Prentice Hall, 1990,

Pengembangan Heuristik Diferensial Terkompresi untuk Algoritma Block A*

OPTIMASI PENCAPAIAN TARGET PADA SIMULASI PERENCANAAN JALUR ROBOT BERGERAK DI LINGKUNGAN DINAMIS

Penerapan Adaptive AI pada Game Turn Based RPG Dengan Menggunakan Metode Monte Carlo Tree Search

BAB 1 PENDAHULUAN. 1.1 Latar Belakang

Implementasi Algoritma Greedy, BFS, Branch and Bound, dan Metode Heuristik dalam Permainan Reversi

IMPLEMENTASI ALGORITMA STOCHASTIC HILL CLIMBING PADA PERMAINAN MASTERMIND

Penggunaan Metode Depth First Search (DFS) dan Breadth First Search (BFS) pada Strategi Game Kamen Rider Decade Versi 0.3

Evaluasi dan Usaha Optimalisasi Algoritma Depth First Search dan Breadth First Search dengan Penerapan pada Aplikasi Rat Race dan Web Peta

BAB II TINJAUAN PUSTAKA

Penerapan Algoritma Greedy pada Permainan Kartu 100

KECERDASAN BUATAN (ARTIFICIAL INTELLIGENCE) By :Suthami A.

BAB III ANALISIS DAN KEBUTUHAN ALGORITMA

BAB I PENDAHULUAN. remaja maupun orang dewasa. Game ini terdiri dari game tradisional dan

BAB 1 PENDAHULUAN. 1.1 Latar Belakang

Implementasi Karakteristik Sistem Multi-Agent Pada Pengujian Perangkat Lunak

BAB 1 PENDAHULUAN 1.1. Latar Belakang

BAB I PENDAHULUAN. bahwa catur adalah permainan yang digemari oleh segala usia. kendala bagi seseorang yang tergolong awam dalam catur.

IMPLEMENTASI ALGORITMA GREEDY BEST FIRST SEARCH PADA APLIKASI PERMAINAN CONGKLAK UNTUK OPTIMASI PEMILIHAN LUBANG DENGAN POLA BERFIKIR DINAMIS

BAB I PENGANTAR KECERDASAN BUATAN

Kecerdasan Buatan. Dosen : Dr. Ir. Dian Retno Sawitri, MT Buku : Russel and Norvig (1995) Turban (1993) Rich and Knight (1991) dll

ABSTRAK. Kata kunci: Kartu, Domino, Poin, Smartphone, Android

SEARCHING. Blind Search

BAB I PENDAHULUAN 1.1 Latar Belakang

Game Playing #1/5. (C) 2005, gunawan -

IMPLEMENTASI ALGORITMA DEPTH LIMITED SEARCH PADA PERMAINAN PEG SOLITAIRE

Koordinasi Non Playing Character (NPC) Follower Menggunakan Algoritma Potential Fields

Algoritma Greedy untuk Pengambilan Keputusan dalam Permainan Kartu Hearts

OPTIMALISASI AKSI NON PLAYER CHARACTER PADA GAME KARTU REMI MENGGUNAKAN ALGORITMA GENETIKA

UKDW BAB 1 PENDAHULUAN. 1.1 Latar Belakang Masalah

PELUANG DISKRIT PERMAINAN KARTU BLACKJACK

BAB 2 LANDASAN TEORI

BAB II LANDASAN TEORI

mental kita begitu penting bagi kehidupan

TK36301 PENGANTAR KECERDASAN BUATAN

Penerapan Algoritma Greedy Pada Permainan Kartu Truf

BAB 1 PENDAHULUAN. 1.1 Latar Belakang

UKDW. Bab 1 PENDAHULUAN. 1.1 Latar Belakang Masalah

PEMODELAN DAN PENGIMPLEMENTASIAN PERMAINAN CONNECT FOUR

Transkripsi:

AGEN CERDAS GAME REMI BERBASIS MINIMAX DWI KURNIAWAN SAPUTRO Program Pasca Sarjana Game Technology Institut Teknologi Sepuluh Nopember Surabaya Abstrak: Salah satu penggunaan agen game sebagai coumputer controlled character dalam game adalah sebagai lawan main dari pengguna game. Agen diharapkan dapat memberikan perlawanan agar pengguna merasa tertantang untuk memainkan game tersebut. Keberadaan agen game yang terlalu kuat akan membuat pengguna cepat merasa frustasi dan jika terlalu lemah membuat pengguna tidak tertarik lagi untuk memainkan game. Pendekatan untuk mengatasi masalah tersebut biasanya dilakukan dengan memberikan fasilitas kepada pengguna untuk dapat mengatur atau memilih tingkat kesulitan atau kemampuan agen sebelum game dimulai. Namun cara tersebut dinilai terlalu statis karena selama game berlangsung kemampuan agen game tidak dapat berubah seiring dengan perkembangan kemampauan pengguna. Penelitian ini mencoba untuk merancang kerangka kerja suatu agen game remi yang dapat berperilaku dinamis menggunakan minimax. Bentuk perilaku didasarkan pada peroleh nilai pemain yang kemudian digunakan minimax untuk melakukan pencarian maksimum atau minimum. Hasil yang diperoleh menunjukan bahwa agen dapat memberikan tanggapan yang berbeda tergantung dari perolehan nilai pemain.. Kata Kunci : game remi, agen game, perilaku dinamis, minimax PENDAHULUAN Game kartu merupakan salah satu game yang sering dimainkan oleh banyak orang. Selain alat yang digunakan mudah diperoleh, banyaknya jumlah pemain yang ikut serta dalam game tersebut, bisanya 4 orang, menyebabkannya digemari oleh banyak orang. Teknologi komputer memampukan permainan kartu ini untuk dimainkan dengan atau tanpa orang lain sebagai lawan dalam bentuk game komputer. Peran pemain lawan dapat digantikan oleh keberadaan agen game. Penelitian tentang agen game telah menjadi perhatian para peneliti di bidang Artificial Intelligence (AI). Dan sejauh ini penelitian di bidang AI untuk game playing telah sukses menghasilkan program yang kompetitif untuk two-player game, seperti checker [Schaeffer et al.(1992)], backgammon [Tesauro(1994)] dan catur dengan Deep Blue-nya [Campbell et al.(22)]. Game dengan agen sebagai lawan yang terlalu kuat akan membuat player cepat merasa frustasi dan pada akhirnya akan mengakhiri niatnya untuk bermain game [Livingstone et al.(24)]. Tetapi jika agen terlalu lemah akan menyebabkan player menjadi tidak tertarik lagi untuk memainkan game [Scott(22)]. Hal ini biasanya diatasi dengan menyediakan pengaturan level kesulitan game (easy, medium, hard) pada awal permainan. Jadi player dapat menentukan level lawan yang akan dihadapi sebelum game dimulai. Cara seperti ini dinilai terlalu statis, karena selama permainan level lawan tidak dapat serta merta berubah seiring dengan perkembangan kemampuan bermain player [Andrade(25)]. Penyelesaian masalah untuk game yang kompetitif merupakan domain dari adversarial search. Karena adversarial search menggunakan metode pencarian yang melibatkan dua pihak yang saling berlawanan. Satu pihak akan mendapatkan keuntungan sebesar kerugian yang diterima oleh pihak lainnya. Salah satu algoritma adversarial search adalah minimax. Dalam penelitian ini akan dicobakan membuat agen game remi yang dapat berperilaku dinamis. Menggunakan minimax untuk menyelesaikan permasalahan game remi. DEFINISI GAME REMI Peraturan yang berlaku dalam permainan remi ada bermacam-macam. Tiap-tiap kelompok mempunyai aturan sendiri-sendiri. Dalam penelitian ini permainan remi adalah permainan kartu yang dimainkan oleh dua orang dan memiliki aturan permainan sebagai berikut : Alat : Standar 52 kartu Ranking : As = nilai tertinggi Nilai : King, Queen, dan Jack = 1; As = 15; lainnya = 5; Pegangan : 7 buah kartu diberikan pada tiap player diawal pertandingan; kartu berikutnya membentuk tumpukan buangan; kartu yang tersisa membentuk tumpukan ambilan; tumpukan buangan selalu menghadap ke atas; tumpukan ambilan menghadap ke bawah Tujuan : membentuk urutan yang terdiri dari 3 atau lebih kartu yang se-jenis atau kumpulan 3 atau 4 buah As dan satu kartu sisa digunakan untuk menutup permainan Urutan main : setiap urutan bermain tiap player dapat mengambil satu kartu teratas yang terdapat pada tumpukan buangan atau tumpukan ambilan; setelah itu harus menaruh satu kartu pada

tumpukan buangan; kartu urut yang didapat karena mengambil satu kartu dari tumpukan buangan harus dipisahkan dari pegangan dan ditaruh pada tumpukan jadi dengan menghadap keatas; Penutup : tiap player dapat melakukan penutupan jika semua kartu dapat dijadikan urutan dan tersisa satu kartu yang digunakan untuk menutup. Penilaian : kartu penutup mempunyai nilai sebagai berikut; King, Queen, Jack = 5; As = 15; lainnya = 5; Player lawan akan mendapatkan pengurangan nilai sebesar nilai kartu penutup lawannya. Kartu jadi bernilai sama seperti nilai aslinya. Permasalahan dalam game remi adalah bagaimana menentukan strategi untuk menyusun kartu yang ada ditangan menjadi urutan seri atau pararel. Pada tiap gilirannya masing-masing permain harus dapat menentukan kartu mana yang harus diambil, menyusun kartu menjadi urutan dan menentukan kartu yang harus dibuang. AGEN GAME Penelitian tentang agen game telah menjadi perhatian para peneliti di bidang AI. Dan sejauh ini penelitian di bidang AI untuk game playing telah sukses menghasilkan program yang kompetitif untuk two-player game. Deep Blue berhasil mengalahkan juara dunia catur Garry Kasparov. Chinook menjadi juara kedua US Open tahun 199 untuk game checker. TD-Gammon menjadi tiga pemain terhebat di dunia untuk game backgammon. Agen game adalah suatu agen perangkat lunak. Agen perangkat lunak adalah suatu suatu sistem yang berada atau merupakan bagian dari suatu lingkungan dimana ia dapat merespon (sense) lingkungan tempat dia berada dan bertindak terhadapnya setiap waktu, untuk melakukan tugasnya dan yang akan dapat memberikan dampak akan apa yang akan dilakukan berikutnya [Franklin et al.(1996)]. Secara umum sebuah agen generik terlihat seperti gambar berikut ini. Gambar 1. Agen Berinteraksi dengan Lingkungan melalui Sensor dan Efektor [Russel et al. (23)] Ada kriteria yang harus dipenuhi agar suatu program dapat disebut sebagai agen. Kriteria atau ciri-ciri dasar suatu agen adalah : Reactivity : kemampuan untuk dapat cepat beradaptasi dengan adanya perubahan informasi yang ada dalam suatu lingkungan. Autonomy : kemampuan untuk dapat melakukan tugasnya sendiri dan tidak dipengaruhi secara langsung oleh manusia atau agen lain maupun oleh lingkungannya. Dapat dikatakan juga sebagai kemampuan mengatur setiap aksi yang dibuatnya. Proactivity dan Goal-Oriented : kemampuan untuk bertindak tidak hanya sebagai respon dari lingkungannya, tetapi juga berinisiatif untuk menyelesaikan permasalahan. Oleh karena itu agen mempunyai tujuan (goal) yang jelas dan selalu berorientasi pada tujuan tersebut. Continuity : kemampuan untuk dapat merespon lingkungannya secara terus menerus selama periode tertentu Kriteria lainnya dapat ditambahkan seperti kemampuan untuk beradaptasi termasuk didalamnya kemampuan untuk belajar (learning) dan reasoning. Kemampuan untuk berpindah (mobile), dinamis dan mempunyai karakter atau mempunyai emosi. PERILAKU DINAMIS Game dengan agen sebagai lawan yang terlalu kuat akan membuat pengguna akan cepat merasa, jika agen terlalu lemah akan menyebabkan player menjadi bosan dan pada akhirnya tidak tertarik lagi untuk memainkan game. Pengaturan tingkat kesulitan game pada awal permainan disediakan untuk mengatur kemampuan agen game. Cara seperti ini dinilai terlalu statis, karena selama permainan level lawan tidak dapat serta merta berubah seiring dengan perkembangan kemampuan bermain pengguna. Perilaku dinamis oleh agen game juga merupakan kajian dalam AI. Andrade menggunakan reinforcement learning yang diaplikasikan pada game Knock Em [Andrade et al.(24)] untuk membuat agen game yang dapat belajar untuk memperoleh strategi yang optimal dan agen yang dapat berperilaku adaptif untuk menentukan seleksi terhadap mekanisme untuk menentukan aksi berdasarkan kemampuan lawannya. MINIMAX Dalam multiagent environment, masing-masing agen akan mempertimbangkan perilaku dari agen lainnya dan bagaimana akibatnya terhadapnya dalam mencapai tujuannya sendiri. Hubungan antar agen yang dapat saling membantu biasa disebut cooperative multiagent environment (agen kawan) dan hubungan yang saling mengalahkan disebut competitive multiagent environment (agen lawan). Lingkungan yang kompetitif akan mengakibatkan konflik antar agen untuk mencapai tujuannya, dan hal ini disebut adversarial search problem atau biasa disebut game. Minimax sebagai salah satu algoritma untuk menyelesaikan permasalahan adversarial melakukan proses pencarian solusi dengan membangun suatu pohon

pencarian (search tree) dan mekanisme pencarian menggunakan prinsip kerja depth first search. Misalkan game dengan dua pemain, yaitu Max dan Min. Max mendapat giliran bermain pertama kemudian dilanjutkan oleh Min begitu seterusnya sampai game berakhir. Pada akhir game pemain yang menang akan mendapatkan nilai sebagai reward dan pemain yang kalah mendapatkan pinalty. Optimal strategi dari suatu pohon pencarian dapat ditentukan dengan menghitung nilai minimax pada tiap node, biasa ditulis MValue(n). MValue ini adalah nilai utility (dari sudut pandang Max) pada suatu state tertentu dengan asumsi bahwa kedua player bermain secara optimal sampai akhir. Misal diberikan pilihan, Max akan lebih memilih untuk menuju state yang mempunyai nilai maksimum sedangkan Min lebih menuju ke state yang bernilai minimum. Sedemikan hingga diperoleh persamaan sebagai berikut : Agen dirancang untuk dapat menerima input dengan lingkungannya, mengolah data yang diterimanya dan memberikan aksi berdasarkan hasil pengolahan data yang dilakukan. Mekanisme kerja agen dapat dilihat seperti pada Gambar 3. Gambar 3. Alur Kerja Agen Game Remi Untuk dapat menjalankan fungsi-fungsi tersebut maka agen disusun dari beberapa operator seperti yang ditunjukan oleh Gambar 4. MVALUE max min Utility( n) jika n terminal node ssuccessor ( n) ssuccessor ( n) MVALUE ( s) jika n MAX node MVALUE ( s) jika n MIN node (1) Gambar 4. Arsitektur Agen Game Remi Gambar 2. Contoh Pohon Pencarian Pada Gambar 2, node A adalah Max node yang menunjukkan giliran Max dan node adalah Min node. Terminal node menunjukkan nilai utility untuk Max. sedangkan node lainnya menunjukkan MValue-nya. Langkah terbaik dari Max adalah a 1 karena menuju pada successor yang mempunyai nilai tertinggi, dan langkah terbaik berikutnya oleh Min adalah b 1 karena menuju pada successor dengan nilai terendah. Menurut definisi MValue seperti pada Persamaan 1 maka Min node yaitu node dengan label B mempunyai 3 successor yang bernilai 3,12 dan 8. Sehingga MValue nya bernilai 3. Untuk nilai pada node C dan D bernilai masing-masing 2. Node root A adalah Max node mempunyai 3 successor yang bernilai 3,2 dan 2, sehingga didapatkan MValue-nya sama dengan 3. Aksi a 1 adalah pilihan optimal untuk Max karena action ini menuju pada successor yang mempunyai Minimax-Value tertinggi. AGEN GAME REMI Penelitian ini mengajukan suatu agen game remi yang dapat berperilaku dinamis selama game berlangsung. Interactor sebagai operator yang bertanggung jawab untuk menyaring input dari lingkungannya dan menyampaikan output sebagai bentuk tanggapan agen. Pada intinya interactor berfungsi sebagai operator komunikasi agen. Memory adalah komponen penyimpanan data sebagai basis pengetahuan agen. Selector bertugas untuk menentukan bentuk perilaku agen menggunakan basis pengetahuan yang dimiliki agen. Program operator yang berfungsi untuk memproses data untuk menghasilkan aksi (output) agen. Gambar 5. Flowchart Pemilihan Bentuk Perilaku Agen Dari data input yang diterima agen dapat mengetahui perolehan nilai dari kedua pemain. Dari informasi ini agen membuat aturan (rule) seperti

ditunjukan oleh Gambar 5 untuk menentukan bentuk perilaku agen berikutnya. Dalam penelitian ini ada dua bentuk perilaku yang digunakan yaitu berperilaku 'pintar' (max) dan 'bodoh' (min). Perilaku pintar berarti melakukan pencarian untuk mendapatkan nilai maksimum dan perilaku bodoh untuk mendapatkan nilai minimum. Algoritma minimax digunakan oleh agen untuk dapat menentukan kartu mana yang harus diambil, kartu yang bisa disusun seri atau pararel dan kartu yang harus dibuang pada setiap giliran main sampai game berakhir. Pengoptimalan aksi agen didapatkan dengan menggunakan rumusan seperti pada Persamaan 1. Sebagian hasil pembentukan pohon pencarian dapat dilihat seperti pada Gambar 6. Masing-masing agen akan saling dilawankan sebanyak 1 kali dan ukuran kinerja agen didasarkan pada selisih perolehan nilai tiap sesinya. 16 14 12 1 8 6 4 2-4 1 2 3 4 5 6 7 8 9 1 MaxM Gambar 7. Kinerja Agen MaxM Melawan Agen Lainnya Gambar 7 menunjukan kinerja agen MaxM terhadap ketiga tipe agen. Nilai negatif titik-titik berwarna biru menunjukan bahwa MaxM kalah terhadap dirinya sendiri dan nilai positif menunjukan kemenangan atas dirinya sendiri. Nilai positif pada titik-titik berwarna merah menunjukan bahwa agen MaxM mengalahkan pada tiap sesi dengan perbedaan nilai yang cukup bersar. Titik-titik berwarna hijau menunjukan MaxM juga selalu mengalahkan akan tetapi selisih nilainya tidak begitu besar. 2 1 2 3 4 5 6 7 8 9 1-4 -6 MaxM -8-1 -12 Gambar 6. Pohon Pencarian Agen Game Remi HASIL UJI COBA AGEN GAME REMI Sebagai uji coba, game remi dimainkan dengan menggunakan 16 kartu dimana masing-masing suit (spade,heart,diamond,club) diwakili oleh 5 macam kartu (As,2,3 dan 4), satu sesi game terdiri dari 1 ronde dan dimainkan oleh dua pemain yang berada di utara (north) dan di selatan (south). Model tipe agen yang digunakan adalah : MaxM, agen game yang selalu memilih perilaku maksimal (pintar) sebagai representasi pemain yang selalu berusaha menang., agen game yang selalu memilih perilaku minimal (bodoh) sebagai representasi pemain yang selalu berusaha kalah., agen game yang dapat memilih perilaku berdasarkan total nilai, sebagai representasi pemain yang dinamis. Gambar 8. Kinerja Agen Melawan Agen Lainnya Gambar 8 menunjukan kinerja agen. Dengan menggunakan analisa seperti sebelumnya, agen selalu kalah terhadap MaxM dengan selisih nilai yang besar. Selalu kalah juga dari tetapi selisih nilai yang kecil. 15 1 5-5 -1-15 -25-3 1 2 3 4 5 6 7 8 9 1 MaxM Gambar 9. Kinerja Agen Melawan Agen Lainnya

KESIMPULAN Agen game remi dapat berperilaku dinamis dengan menggunakan minimax dimana perilaku dinamis dilakukan dengan memperhatikan perolehan total nilai agen selama game berlangsung. Minimax digunakan untuk penyelesaian game yang dimainkan untuk dua orang. Sedangkan game remi sendiri dapat dimainkan sampai empat orang. Sebagai bahan penelitian berikutnya disarankan untuk menggunakan metode penyelesaian permasalah game remi untuk empat. Metode pemilihan perilaku agen game dapat dikembangkan dengan memperhatikan pola permainan lawan. DAFTAR REFERENSI Andrade,G.,Ramalho,G., Gomes,A., dan Corruble,V., (25), Challenge-sensitive Game Balancing: an Evaluation of User Satisfaction, In Proceedings of the 4rd Brazilian Workshop on Computer Games and Digital Entertainment (WJogos5), hal 66-76. Andrade, G., Santana, H., Furtado, A., Leitão, A., dan Ramalho, (24), G. Online Adaptation of Computer Games Agents: A Reinforcement Learning Approach, In Proceedings of the 3rd Brazilian Workshop on Computer Games and Digital Entertainment, Curitiba. Campbell,M., Hoane,A.J.,Jr. dan Hsu, F.,H.,(22), Deep Blue, Artificial Intelligence,vol.134,hal.57-83. Franklin, S. dan Graesser, A., (1996) Is it an Agent, or just a Program?: A Taxonomy for Autonomous Agents, Proceedings of the Third International Workshop on Agent Theories, Architectures and Languages, Springer-Verlag. Herik,J., Donkers,J.,dan Spronck,P.,(25), Opponent modelling and commercial games, Proceedings of the IEEE 25 Symposium on Computational Intelligence and Games (eds. Graham Kendall and Simon Lucas), hal.15-25. Livingstone, D. dan Charles, D.,(24), Intelligent interfaces for digital games, Proceedings of the AAAI- 4 Workshop on Challenges in Game Artificial Intelligence (eds. D. Fu, S. Henke, and J.Orkin), AAAI Press, Menlo Park, CA, hal.6-1. Russell, S. dan Norvig, P.,(23), Artificial Intelligence : A Modern Approach, Prentice Hall, Pearson Education, Upper Saddle River, NJ, second edition. Schaeffer, J., Culberson, J., Treloar, N., Knight, B., Lu, P. dan Szafron, D., (1992), A world championship Caliber Checkers Program, Artificial Intelligence, vol.53, hal.2-3. Tesauro, G.,(1994),TD-Gammon, a Selfteaching Backgammon Program Achieves Master-Level Play, Neural Computation, The MIT Press, Massachusetts, vol.6(2),hal.215-219.