BAB 2 PROGRAM LINIER DAN TAK LINIER. Program linier (Linear programming) adalah suatu masalah matematika

dokumen-dokumen yang mirip
BAB 2 LANDASAN TEORI

BAB II KAJIAN PUSTAKA. pemrograman nonlinear, fungsi konveks dan konkaf, pengali lagrange, dan

BAB 2 TINJAUAN PUSTAKA. ini sehingga dapat dijadikan sebagai landasan berpikir dan akan mempermudah. dalam hal pembahasan hasil utama berikutnya.

BAB II KAJIAN PUSTAKA. Pada bab ini akan diberikan landasan teori tentang optimasi, fungsi, turunan,

BAB II KAJIAN PUSTAKA

SYARAT FRITZ JOHN PADA MASALAH OPTIMASI BERKENDALA KETAKSAMAAN. Caturiyati 1 Himmawati Puji Lestari 2. Abstrak

BAB 2 TINJAUAN PUSTAKA

BAB 1 PENDAHULUAN. 1.1 Latar Belakang

Metode Simpleks (Simplex Method) Materi Bahasan

BAB 2 LANDASAN TEORI

BAB II LANDASAN TEORI

Syarat Fritz John pada Masalah Optimasi Berkendala Ketaksamaan. Caturiyati 1 Himmawati Puji Lestari 2. Abstrak

OPTIMASI (Pemrograman Non Linear)

KOMBINASI PERSYARATAN KARUSH KUHN TUCKER DAN METODE BRANCH AND BOUND PADA PEMROGRAMAN KUADRATIK KONVEKS BILANGAN BULAT MURNI

I PENDAHULUAN II LANDASAN TEORI

BAB 2 LANDASAN TEORI

BAB III PEMBAHASAN. digunakan untuk membentuk fungsi tujuan dari masalah pemrograman nonlinear

BAB 2 KAJIAN PUSTAKA. Menurut Asghar (2000), secara garis besar masalah optimisasi terbagi dalam beberapa tipe berikut:

Dr. Ir. Bib Paruhum Silalahi, M.Kom

BAB II TINJAUAN PUSTAKA. operasi yang mampu menyelesaikan masalah optimasi sejak diperkenalkan di

II. TINJAUAN PUSTAKA. Pada bab ini akan didiskusikan tentang istilah-istilah, teorema-teorema yang akan

Bab 2 LANDASAN TEORI. 2.1 Pengantar Proses Stokastik

BAB I PENDAHULUAN 1.1. Latar Belakang

PROGRAM LINEAR: METODE SIMPLEX

PLAGIAT MERUPAKAN TINDAKAN TIDAK TERPUJI

BAB 2 LANDASAN TEORI

BAB 3 METODE PENELITIAN

Metode Simpleks M U H L I S T A H I R

BAB 2 LANDASAN TEORI

METODE SEQUENTIAL QUADRATIC PROGRAMMING (SQP) PADA OPTIMASI NONLINIER BERKENDALA SKRIPSI

OPTIMISASI KONVEKS: Konsep-konsep

BAB 1 PENDAHULUAN Latar Belakang

Ada beberapa kasus khusus dalam simpleks. Kadangkala kita akan menemukan bahwa iterasi tidak berhenti, karena syarat optimalitas atau syarat

BAB II KAJIAN TEORI. Berikut diberikan landasan teori mengenai teori himpunan fuzzy, program

METODE STEEPEST DESCENT

BAB IV. METODE SIMPLEKS

BAB 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI

Algoritma Simplex. Algoritma Simplex adalah algoritma yang digunakan untuk mengoptimalkan fungsi objektif dan memperhatikan semua persamaan

Algoritma Simpleks Dan Analisis Kepekaan

BAB II METODE SIMPLEKS

Modul Pendalaman Materi Program Linear, PPG Dalam Jabatan hal 1

Taufiqurrahman 1

BAB III SOLUSI GRAFIK DAN METODE PRIMAL SIMPLEKS

II LANDASAN TEORI. suatu fungsi dalam variabel-variabel. adalah suatu fungsi linear jika dan hanya jika untuk himpunan konstanta,.

BAB II KAJIAN TEORI. yang diapit oleh dua kurung siku sehingga berbentuk empat persegi panjang atau

a. untuk (n+1) genap: terjadi ekstrem, dan jika (ii) f (x ) > 0, maka f(x) mencapai minimum di titik x.

Perhatikan model matematika berikut ini. dapat dibuat tabel

BAB 2 LANDASAN TEORI

Bab 1 PENDAHULUAN. 1.1 Latar Belakang

BAB II KAJIAN PUSTAKA. Berikut diberikan landasan teori mengenai Teori Portofolio, Turunan

METODE BIG M. Metode Simpleks, oleh Hotniar Siringoringo, 1

BAB I PENDAHULUAN Latar Belakang Masalah

III RELAKSASI LAGRANGE

BAB II KAJIAN TEORI. berkaitan dengan optimasi, pemrograman linear, pemrograman nonlinear, quadratic

Pemrograman Linier (2)

I PENDAHULUAN II LANDASAN TEORI

BAB III. METODE SIMPLEKS

BAB IV PEMBAHASAN. optimasi biaya produksi pada home industry susu kedelai Pak Ahmadi

BAB III TURUNAN DALAM RUANG DIMENSI-n

OPTIMISASI KONVEKS: KONSEP-KONSEP

Kalkulus Multivariabel I

BAB II LANDASAN TEORI. selanjutnya sebagai bahan acuan yang mendukung tujuan penulisan. Materi-materi

BAB VI PROGRAMA LINIER : DUALITAS DAN ANALISIS SENSITIVITAS

OPTIMASI FUNGSI MULTIVARIABLE TANPA KENDALA DENGAN METODE NEWTON

Teori Dualitas dan Penerapannya (Duality Theory and Its Application)

Manajemen Sains. Eko Prasetyo. Teknik Informatika UMG Modul 3 PEMROGRAMAN LINIER METODE SIMPLEKS

Model Optimisasi dan Pemrograman Linear

Riset Operasional LINEAR PROGRAMMING

BAB III PEMBAHASAN. Bab III terbagi menjadi tiga sub-bab, yaitu sub-bab A, sub-bab B, dan subbab

BAB II TINJAUAN PUSTAKA

BAB 2 LANDASAN TEORI

METODE dan TABEL SIMPLEX

SILABUS PENGALAMAN BELAJAR ALOKASI WAKTU

BAB 1 PENDAHULUAN. 1.1 Latar Belakang

BAB II LANDASAN TEORI

BAB 2 KAJIAN PUSTAKA

Bab 2 LANDASAN TEORI

BAB 2 LANDASAN TEORI

11. FUNGSI MONOTON (DAN FUNGSI KONVEKS)

Konvergensi Global Metode Spectral Conjugate Descent yang Baru Menggunakan Pencarian Garis Armijo yang Termodifikasi

BAB III FUNGSI KUASIKONVEKS

untuk setiap x sehingga f g

BAB 2 TINJAUAN PUSTAKA

I PENDAHULUAN II LANDASAN TEORI

RENCANA PELAKSANAAN PEMBELAJARAN NO: 1

Masalah maksimisasi dapat ditinjau dari metode minimisasi, karena

OPTIMASI TANAMAN PANGAN DI KOTA MAGELANG DENGAN PEMROGRAMAN KUADRATIK DAN METODE FUNGSI PENALTI EKSTERIOR

Pertemuan Minggu ke Bidang Singgung, Hampiran 2. Maksimum dan Minimum 3. Metode Lagrange

PENERAPAN METODE BRANCH AND BOUND DALAM PENYELESAIAN MASALAH PADA INTEGER PROGRAMMING

TURUNAN DALAM RUANG DIMENSI-n

Ilustrasi Persoalan Matematika

Rivised Simpleks Method (metode simpleks yang diperbaiki)

BAB I PENDAHULUAN. 1.1 Latar Belakang

BAB V PROGRAMA LINIER : METODE SIMPLEKS

PROGRAM LINEAR. sudir15mks

I PENDAHULUAN II LANDASAN TEORI

METODE SIMPLEKS MATAKULIAH RISET OPERASIONAL Pertemuan Ke-3. Riani Lubis Program Studi Teknik Informatika Universitas Komputer Indonesia

BAB 1 PENDAHULUAN Latar Belakang

Transkripsi:

BAB 2 PROGRAM LINIER DAN TAK LINIER 2.1 Program Linier Program linier (Linear programming) adalah suatu masalah matematika yang mempunyai fungsi objektif dan kendala berbentuk linier untuk meminimalkan atau memaksimalkan suatu permasalahan dalam bidang optimisasi. Masalah program linier dapat dinyatakan dalam model berikut: Maks Z = c T y (2.1) Kendala A(x) 0 (2.2) x 0 (2.3) Dimana x adalah variabel, c dan b adalah koefisien vektor dan A adalah matriks. Ekpresi untuk memaksimalkan atau meminimalkan disebut fungsi tujuan z = c T x, dan Ax b disebut fungsi kendala. Pemecaham program linier dapat dilakukan dengan metode grafik, akan tetapi untuk fungsi objektif atau kendala mempunyai tiga variabel atau lebih metode grafik sulit atau tidak dapat dilakukan. Suatu prosedur umum untuk menyelesaikan permasalahan program linier disebut metode simpleks. 10

11 2.2 Metode Pemecahan 2.2.1 Metode Grafik Pemecahan program linier dengan metode grafik dilakukan apabila hanya mempunyai dua variabel keputusan, artinya, hanya mempunyai dua dimensi. Sehingga prosedur metode grafik dapat digunakan untuk menentukan nilai variabel keputusan. Solusi optimum selalu berada pada titik pojok daerah layak 2.2.2 Metode Simpleks Suatu prosedur umum untuk menyelesaikan permasalahan program linier yang mempunyai tiga variabel atau lebih disebut metode simpleks. Metode ini dikembangkan oleh George Dantzig pada tahun 1947. Metode simpleks adalah suatu penyelesaian secara aljabar, tetapi konsep yang mendasarinya adalah geometris. Metode ini dirancang untuk menyelesaikan permasalahan program linier, baik dua variabel atau lebih yang penyelesaiannya dilakukan melalui perhitungan berulang (iterasi) dengan langkah yang sama hingga solusi optimum dicapai. Penyelesaian program linier dengan metode simpleks didasari dengan ide metode grafik, dimana solusi optimum selalu berada pada titik pojok daerah layak. Langkah-langkah metode simpleks dilakukan sebagai berikut: 1. Inisialisasi dimulai dengan memilih solusi awal dari sebuah titik pojok layak 2. Uji optimalitas dengan bergerak dari suatu titik pojok layak ke titik pojok

12 layak yang berdekatan. Pergerakan akan meningkatkan atau penurunan nilai variabel non-basis, sehingga akan meningkatkan fungsi tujuan untuk masalah maksimalisasi atau menurunkan nilai fungsi tujuan untuk masalah minimalisasi. 3. Iterasi dilakukan berulang-ulang sampai diperoleh solusi yang lebih baik dan iterasi berhenti apabila solusi optimum diperoleh. Untuk mempermudah perhitungan simpleks, bentuk baku model program linier dapat diubah ke dalam bentuk tabel, dan disebut tabel simpleks. Langkahlangkah perhitungan dalam algoritma simpleks adalah sebagai berikut. 1. Inisialisasi dengan menetapkan n-m variabel non-basis awal sama dengan nol, dimana n jumlah variabel dan m banyak kendala 2. Uji optimalitas, solusi layak basis sudah optimal jika dan hanya jika setiap koefisien dalam baris nol adalah tidak negatif. Bila tidak, dilakukan iterasi untuk mendapatkan solusi layak basis berikutnya 3. Iterasi pertama dilakukan dengan menetukan variabel basis yang masuk dengan memilih variabel (secara otomatis variabel non-basis) yang memiliki koefisien paling negatif dalam suatu kolom tertentu, dimana kolom itu disebut kolom sumbu (pivot). 4. Kemudian iterasi kedua dilakukan uji rasio minimum, yaitu:

13 a. Mengambil masing-masing koefisien dalam kolom sumbu yang berinilai positif, b. Menetapkan baris yang memiliki rasio terkecil dari hasil pembagian kolom ruas kanan dengan koefisien kolom sumbu, c. Variabel basis pada baris rasio terkecil adalah variabel yang keluar, dan digantikan dengan variabel basis yang masuk dalam kolom variabel basis tabel simpleks berikutnya. 2.2.3 Metode Reduced Gradient Metode reduced gradient digunakan untuk mengeluarkan beberapa variabel keputusan dari kendala linier dengan mengurangi ruang matriks dari kendala (Murtagh dan Saunders, 1982). Masalah LP dinyatakan sebagai berikut. Min f(x) (2.4) Kendala A(x) = b (2.5) x R n Partisi variabel keputusan x ke dalam variabel terikat atau basic (x B ) dan variabel bebas atau superbasic (x S ) sehingga dapat dinyatakan menjadi: x = x B x S (2.6)

14 Akibatnya, matriks A dipartisi ke dalam matriks B dan S, sehingga persamaan kendala (2.6) dinyatakan menjadi: Ax = [B S] x B x S = b (2.7) Dimana matriks B adalah matriks kuadratik, dan sisanya adalah matriks S. Mempertimbangkan x, yaitu suatu pergerakan variabel x, sehingga Pers.(2.6) dapat dinyatakan menjadi: x B x = = x B x k B (2.8) x S x S x k S Persamaan (2.7) dan (2.8) dapat memenuhi persamaan (2.6). Oleh karena itu Bx B + Sx S = b dan Bx k B + Sxk S = b dapat dinyatakan menjadi; B x B + S x S = 0 (2.9) atau x B = BS x S (2.10) Sehingga x dapat dinyatakan menjadi: B 1 x B x = x S (2.11) I atau x = Z x S (2.12)

15 B 1 x B Dimana Z = disebut sebagai transformasi matriks I Dari derivatif kedua ekspansi deret Taylor dari f(x) pada iterasi ke - k, x k, maka dapat dinyatakan menjadi: f(x) = f(x k ) + f(x k ) T x + 1/2( x T ) x f(x k ) x (2.13) Hasil subsitusi Pers.(2.12) ke dalam Pers.(2.13) menjadi: f(x S ) = f(x k ) + f(x k ) T Z x S + 1/2 ( x S ) T Z T x f(x k )Z x S (2.14) Dinyatakan reduced gradien g T R = f(xk ) T z dan reduced Hessi H R = z T x f(x k )z, sehingga Pers.(2.13) (2.14) dapat dinyatakan menjadi: f(x s ) = f(x k ) + g T R x S + 1/2( x S ) T H R x S (2.15) Kondisi penting untuk syarat minimum dipenuhi bila δf δ x S = 0, yaitu; g T R + H R x S = 0 (2.16) Oleh karena itu, H R x S = g T R adalah sistem linier dari persamaan dalam (n m) variabel. 2.3 Program Tak Linier Program tak linier (Non linear programming (NLP)) adalah suatu program dalam masalah optimisasi yang mempunyai fungsi objektif tidak linier dan beberapa atau semua fungsi kendala tidak linier, akan tetapi tidak diketahui konveks atau tidak konveks. Pembahasan tentang program tak linier dapat dilihat dalam

16 Luenberger (1984), Sugden (1992), Hiller dan Lieberman (2005), Boyd dan Vandenberghe (2009). Model program tak linier (NLP) dapat dinyatakan seperti berikut ini. Min f(x) (2.17) Kendala g(x) 0 (2.18) h(x) = 0 (2.19) x 0 Dimana f(x) adalah fungsi tak linier, h(x) dan g(x) keduanya fungsi tak linier atau salah satu tidak linier dengan n variabel keputusan. Pemecahan masalah program tak linier adalah untuk menentukan nilai variabel X = (x 1, x 2,..., x n ) dari kendala yang memperoleh solusi optimum (minimum atau maksimum) untuk fungsi objektif. Terdapat beberapa bentuk masalah dalam program tak linier, bentuknya tergantung pada ciri-ciri fungsi objektif dan kendala. Sehingga pemecahan yang digunakan akan berbeda sesuai dengan ketidaklinieran fungsi objektif dan kendala yang muncul dalam berbagai bentuk, seperti fungsi konveks atau tidak konveks. Akibatnya daerah layak dapat menjadi menjadi daerah layak konveks atau tak konveks. 2.3.1 Fungsi Tak Linier 2.3.1.1 Himpunan Konveks dan Tak Konveks Definisi 2.1: Himpunan C disebut himpunan konveks atau konkaf, apabila semua titik pada segmen garis melalui sembarang dua titik dalam himpunan C juga ele-

17 men himpunan C. Definisi 2.2: Misalkan x i, x j R titik-titik yang dapat dibuat dalam bentuk λx i + (1 λ)x j untuk 0 λ 1 disebut kombinasi garis dari x i dan x j. Definisi 2.3: Suatu himpunan C R disebut himpunan konveks apabila untuk setiap sebarang dua elemen x i, x j C termuat dalam λx i + (1 λ) x j untuk 0 λ 1 Definisi 2.4. Suatu himpunan N C R disebut himpunan tak konveks apabila untuk setiap sebarang dua elemen x i, x j N C terdapat titik x k sedemikian sehingga x k pada λx i + (1 λ)x j untuk 0 λ 1 tetapi x k / N C. 2.3.1.2 Fungsi Konveks dan Konkaf Fungsi konveks adalah suatu fungsi yang memenuhi untuk setiap dua titik x i dan x j, dapat ditarik garis yang menghubungkan f(x i ) dan f(x j ) pada fungsi tersebut (Luenberger, 1984). Definisi 2.5: Suatu fungsi f(x) disebut fungsi konveks apabila untuk sebarang dua titik x i dan x j pada R n dipenuhi f(λx i + (1 λ)x j λf(x i ) + (1 λ)f(x j ), untuk

18 0 λ 1. Suatu fungsi f(x) dikatakan fungsi konveks kuat (strictly) apabila untuk sebarang dua titik, x i dan x j pada R n dipenuhi f(λx i + (1 λ)x j > λf(x i ) + (1 λ)f(x j ), untuk 0 λ 1 Definisi 2.6: Suatu fungsi f(x) dikatakan fungsi konkaf apabila untuk sebarang dua titik x i dan x j pada R n dipenuhi f(λx i + (1 λ)x j λf(x i ) + (1 λ)f(x j ), untuk 0 λ 1. Suatu fungsi f(x) disebut fungsi konkaf kuat (strictly) apabila untuk sebarang dua titik x i dan x j pada R n dipenuhi f(λx i + (1 λ)x j < λf(x i ) + (1 λ)f(x j ), untuk 0 λ 1 2.2.1.3 Fungsi tak Konveks Definisi 2.7: Suatu fungsi f(x) dikatakan tak konveks, apabila fungsi tak linier yang tidak dapat dinyatakan fungsi konveks atau konkaf. Definisi 2.8: Suatu fungsi f(x) disebut tak konveks apabila untuk sebarang dua titik x i dan x j pada R n terdapat suatu titik x k λf(x i ) + (1 λ)f(x j ) untuk 0 λ 1 tidak memenuhi f(λx i + (1 λ)x j λf(x i ) + (1 λ)f(x j ), untuk 0 λ 1.

19 2.2.1.4 Daerah Layak Konveks Definisi 2.9: Daerah layak F adalah konveks apabila untuk setiap dua titik pada daerah layak F, semua kombinasi konveks titik-titik dalam F juga dalam daerah layak F. Dalam permasalahan optimisasi, daerah layak konveks dalam fungsi objektif F, dinyatakan dalam F = {x : x R n, h(x) = 0, g(x) 0, x 0} dapat digambarkan sebagai berikut. Daerah layak F(x) adalah konveks, karena untuk sebarang titik x 1, x 2 F, setiap kombinasi konveks dari titik-titik x 1, dan x 2 dalam daerah layak F, yaitu x = λx 1 + (1 λ)x 2 F untuk semua nilai λ, dimana 0 λ 1. 2.2.1.5 Daerah Layak Tak Konveks Definisi 2.10. Daerah layak dikatakan tidak konveks apabila beberapa titik dalam garis yang menghubungkan dua titik tidak berada dalam daerah layak. Definisi 2.11. Daerah layak F dikatakan tidak konveks apabila kombinasi konveks dari sebarang dua titik dalam F tidak dalam daerah layak F.

20 Dalam permasalahan optimisasi, daerah layak tak konveks dari daerah layak F = x : x R n, h(x) = 0, g i (x) 0, i = 1,..., n, dapat digambarkan sebagai berikut. Daerah layak F(x adalah tidak konveks, karena untu sebarangk dua titik titik x 1, x 2 F (x) terdapat titik x k / F (x) sedemikian sehingga x k = λ x 1 +(1 λ) x 2 / F (x) untuk semua nilai λ untuk 0 λ 1. 2.3.2 Metode Pemecahan Membahas masalah program tak linier tidak terlepas dari pemecahan masalah fungsi tak linier. Terdapat beberapa pendekatan yang digunakan untuk pemecahan fungsi tak linier dalam rangka mencari titik ekstrim. Perbedaan pendekatan tergantung kepada bentuk fungsi dan tujuan yang akan dicapai. Pendekatan atau metode yang biasa digunakan dalam pemecahan fungsi tak linier, seperti deret Taylor, fungsi Lagrange, dan Kondisi Kuhn-Tucher, pendekatan tersebut dapat dilihat dalam Rao (2009), Mital (1976), Bronson (1996), Chachuat (2007). Pemecahan itu diuraikan secara ringkas berikut ini

21 2.3.2.1 Deret Taylor Deret Taylor digunakan untuk mengembangkan konsep dasar dari fungsi objektif, yaitu dengan gradient fungsi dan matriks Hessian untuk memperoleh karakteristik solusi optimal dari pengujian konveksitas suatu fungsi dan titik ekstrim. Andaikan fungsi f(x) adalah fungsi yang dapat dideferensialkan secara kontinu dan mempunyai nilai riel dari X dalam R n. Dapat diambil x + δx sebagai persekitaran dari x dalam R n sedemikian sehingga X = {δx 1, δx 2,..., δx n } dan X + x = {x 1 + δx 1, x 2 + δx 2,..., x n + δx n }, dimana derivatif dari f(x) adalah [ f = x 1, x 2,..., x n ], sehingga deret Taylor untuk f(x) dalam variabel n dapat dinyatakan dengan f{x 1 +δx 1, x 2 +δx 2,..., x n +δx n } = f(x 1, x 2,..., x n )+f(δx 1 x 1 + δx 2 x 2 +... + δx n x n ) + 1 2 f(δx 1 x 1 + δx 2 x 2 +... + δx n x n ) 2 +... + 1 n f(δx 1 x 1 +δx 2 x 2 +...+δx n x n ) n + 1 f(δx n+1 1 x 1 +δx 2 x 2 +...+δx n x n ) n+1 Matriks Hessian dari fungsi f(x) sebagai matriks n x n, yaitu: 2 f 2 f 2 f,,..., 2 x 1 x 1 x 2 x 1 x n 2 f, 2 f 2 f,..., H(x) = x 2 x 1 2 x 2 x 2 x n...,...,... 2 f 2 f,,..., 2 f x n x 1 x n x 2 2 x n (2.20) Sehingga deret Taylor dapat dinyatakan menjadi:

22 F (x + x) = f(x) + ( x) 1 f(x) + 1 2 ( x)1 H(x) x + E(x, x) x 2 (2.21) Dimana E(x, x) 0, dan x 0 2.3.2.2 Titik Ekstrim Titik ekstrim adalah suatu titik maksimum atau minimum dari seluruh nilai variabel suatu fungsi. Titik yang membuat f(x) minimum mengakibatkan ( f(x)) menjadi maksimum atau sebaliknya. Hal itu berarti, suatu masalah maksimum dapat diubah menjadi masalah minimum, dan sebaliknya. Definisi 3.11. Titik x D disebut minimum lokal dari fungsi f(x) pada D apabila terdapat persekitaran ε > 0 dari x sedemikian sehingga untuk semua x dalam persekitaran x memenuhi f(x) f(x ). Titik x D disebut maksimum lokal dari fungsi f(x) pada D apabila terdapat persekitaran ε > 0 dari x sedemikian sehingga untuk semua x di persekitaran x memenuhi f(x) f(x ). Definisi 3.12. Titik x D disebut minimum global dari fungsi f(x)pada D apabila untuk semua x D memenuhi f(x) f(x ). Titik x D disebut maksimum global dari fungsi f(x) pada D apabila untuk semua x D memenuhi f(x) f(x ). Beberapa syarat penting untuk mengidentifikasi titik stationer dengan menggunakan fungsi gradient dan matriks Hessi, yaitu: 1. Kondisi cukup untuk minimum lokal pada titik x a. Fungsi gradien f(x ) = 0

23 b. Matriks Hessi H(x ) adalah definit positif 2. Kondisi cukup untuk maksimum lokal pada titik x a. Fungsi gradien f(x ) = 0 b. Matriks Hessi H(x ) adalah definit negatif 3. Kondisi cukup untuk titik sadle (pelana) pada titik x a. Fungsi gradien ff(x ) = 0 b. Matriks Hessi H(x ) adalah indefinit 2.3.2.3 Fungsi Lagrange Suatu metode klasik menyangkut pemecahan permasalahan pada program linier atau non-linier adalah dengan metode pengali Lagrange. Metode ini digunakan untuk mencari solusi dari suatu permasalahan titik ekstrim dari beberapa variabel dan fungsi yang memenuhi semua persamaan kendala. Prosedur metode ini dimulai dengan merumuskan fungsi Lagrange seperti berikut. Maks/min f(x) (2.22) Kendala: g i (x ( i,., x n )) = b i, i = 1,, m; m < n (2.23) x i 0 dimana f(x) dan g(x) adalah fungsi yang dapat dideferensialkan dan mempunyai nilai riel untuk setiap variabel x.

24 Fungsi F(x) dinyatakan dengan ekspresi: F (x, λ) = λ 0 f(x) + λ 1 [b 1 g 1 (x)] +... + λ m [b m g m (x)] (2.24) disebut fungsi lagrange, dan bilangan λ i disebut pengali lagrange, dengan memenu hi persyaratan pengali, apabila x = x 1,..., x n adalah solusi dari masalah pada suatu titik ekstim dari Pers.(2.22) - (2.23), maka terdapat bilangan yang paling kecil tidak nol dari pengali lagrange λ = λ 0,..., λ m sedemikian sehingga titik-titik x, λ adalah titik stationer dari fungsi lagrange yang memenuhi variabel x j dan λ i, i 0 disebut sebagai variabel bebas. Kondisi penting untuk titik stationer dari fungsi lagrange adalah suatu kepastian sistem pada persamaan m + n Bukti: Teorema 2. 1. Misalkan x L R n, f(x) dan g(x) adalah fungsi yang dapat dideferensialkan dan mempunyai nilai real untuk setiap x dalam L. Jika f(x) mempunyai relatif ekstrim di x terhadap kendala g k (x) = 0, k = 1,..., m, maka terdapat λ k, k = 1,..., m sedemikian sehingga x adalah titik stationer. Tanpa mengurangi keumuman dari kendala g k (x) = 0, diasumsikan Jacobian sebagai berikut: (g 1, g 2,..., g m ) (x 1, x 2,..., x m ) 0 (2.25)

25 Karena x adalah relatif ekstrim dari f(x), maka ( x)( f(x )) = 0, atau pada x berlaku: x 1 x 1 + x 2 x 2 +... + x n x n = 0 (2.26) Karena kendala g k (x) = 0, k = 1,..., m, x j, j = 1,..., m tidak bebas linier, maka dengan pendeferensialan diperoleh: g k x 1 x 1 + g k x 2 x 2 +... + g k x n x n = 0, k = 1,..., m (2.27) Dengan mengalikan Pers. (2. 27) dengan λ 1, λ 2,..., λ m, dan menambahkannya ke Pers. (2. 26), diperoleh: n ( g 1 g 2 g m + λ 1 + λ 2 +... + λ m ) = 0 (2.28) i=1 Dengan mempertimbangkan persamaan: atau ( + λ 1 g 1 + λ 2 g 2 +... + λ m g m ) = 0, i = 1,..., m (2.29) g 1, g 2,..., g m x 1 x 1 x 1 g 1, g 2,..., g m x 2 x 2 x 2....,...,... g 1, g 2,..., g. m x n x n x n λ 1 λ 2 λ m x 1 = x 2... x m (2.30) Karena Pers.(2.24) merupakan matriks non singular, maka terdapat nilai unik dari λ 1, λ 2,..., λ m yang memenuhi Pers.(2.29).

26 Dengan mengurangi variabel x i, i = 1,..., n dalam Pers.(2.28) maka diperoleh: n i=m+1 ( g 1 g 2 g m + λ 1 + λ 2 +... + λ m ) = 0 Karena terdapat variabel x i, i = m + 1,..., n adalah variabel bebas linier mengakibatkan: + λ 1 g 1 + λ 2 g 2 +... + λ m g m = 0, i = m + 1,..., n (2.31) Berdasarkan penyederhanaan Pers.(2.29) dan (2.31) diperoleh: L(x, λ) = 0, i = 1,..., n pada x (2.32) Dengan demikian x adalah titik stationer dari f(x). 2.3.2.4 Kondisi Kuhn-Tucher Solusi optimal dari permasalahan program tak linier dianalisis oleh Karush (1939) dan Kuhn-Tucher (1951). Kondisi optimal Karush-Kuhn-Tucher (KKT) adalah valid untuk pemecahan masalah program tak linier dengan fungsi objektif dan kendala tak linier yang mempunyai kendala bentuk pertidaksamaan atau persamaan. Jadi, syarat perlu untuk memperoleh solusi optimal dari program tak linier adalah adanya kondisi Karush-Kuhn-Tucher dari model berikut. Min f(x) (2.33) Kendala g(x) 0 (2.34) x 0 Berdasarkan fungsi Lagrange diperoleh L(x, λ) = f (x) + λg i (x), i = 1,..., n, dimana λ 0 adalah pengali Lagrange. Sehingga untuk memperoleh titik stationer

27 harus memenuhi; L(x,λ) = 0, i = 1,..., n sehingga kondisi Karush-Kuhn-Tucher (KTT) adalah; L(x, λ) = + m k=1 (λ k g k g i ) = 0, i = 1,..., n (2.35) dan g k (x) 0 λ k g k (x) = 0, k = 1,..., m (2.36) λ k 0 atau + [ x j m k=1 + (λ k g k g i ) 0 m k=1 (λ k g k g i ) ] = 0 (2.37) x j 0 dan g i (x) 0 λ i g i (x) = 0, k = i,..., m (2.38) λ i 0 Dimana kondisi Pers.(2.34)-(2.35) merupakan syarat perlu pada (x, λ ) untuk titik pelana (saddle) dari f(x, λ) dengan variabel x tidak dibatasi dan λ 0. Dengan kondisi yang sama Pers. (2.36)-(2.37) untuk x 0, λ 0. Apabila f(x) dan g i (x) adalah fungsi konveks dengan titik sadle (x, λ ), λ 0 dari L(x, λ)

28 dengan demikian x adalah titik minimum dari f(x) dengan kendala g i (x). Karena f(x) adalah fungsi konveks maka f(x) hanya mempunyai satu titik optimum yang menjadi titik minimumnya. Jadi kondisi ini merupakan solusi perkiraan kondisi Kuhn-Tucher yang memberikan titik minimum dari f(x). Sehingga masalah program tak linier mempunyai solusi optimum hanya jika terdapat m bilangan λ 1,..., λ m sedemikian sehingga semua kondisi berikut dipenuhi. (1) x j = (2) x j( x j m k=1 m k=1 λ k g i x j 0, i = 1,..., n di x j = x j λ k g i x j ) = 0, i = 1,..., n di x j = x j (4) λ i (g i (x j) b i ) = 0, i = 1,..., m (5) x i 0, i = 1,..., n (6) λ i 0, i = 1,..., m, dimana λ i disebut pengali Lagrange 2.3.1 Program Konveks Program konveks suatu klas khusus dari program tak linier yang memiliki fungsi tujuan linier atau tidak linier dan kendala tidak linier, dimana semua solusi layak berada dalam daerah layak. Program konveks berarti fungsi adalah konveks, sehingga daerah pencarian adalah konveks. Fungsi dapat dideferensialkan dari banyak variabel bila matriks Hessian (suatu matriks untuk semua derivative keduanya) adalah definit positif pada semua (entire) domainnya, dan masalah program konveks mengacu pada masalah optimisasi yang hanya mempunyai satu minimum lokal, dan dapat menemukan minimum global.

29 Model program konveks dinyatakan sebagai berikut; Min f(x) (2.39) Kendala g i (x) 0, i = 1,..., 0 (2.40) x 0 Dimana fungsif, g i,..., g m : R n R adalah fungsi konveks Definisi 3.13. Misal C adalah himpunan konveks yang tidak kosong di dalam R n. Jika f : C R adalah konveks pada C, maka min f(x) x C konveks. disebut program Dalam program konveks diasumsikan minimum lokal menjadi minimum global. Nilai f(x ) adalah minimum pada titik x yang memenuhi f(x) f(x ) untuk x x < δ, dan minimum global dalam daerah layak F nilai pada f(x ) adalah minimum yang memenuhi memenuhi f(x) f(x ), x F, dan menentukan nilai x = x menjadi solusi minimum dilakukan dengan derivarif pertama dari f(x), yaitu (x) x j = 0, pada x = x, untuk j = 1, 2,..., n. Teorema 2.2. Misal x adalah minimum lokal pada program konveks, maka x adalah juga minimum global. Bukti: Misalkan variabel x adalah minimum lokal, berarti ε > 0 sedemikian sehingga f(x) f(x ), x C ε (x ). Dengan kontradiksi, andaikan x bukan minimum global, maka x C sedemikian sehingga f(x) < f(x ). Misalkan λ [0, 1] adalah pilihan sedemikian sehingga dengan konveksitas pada C, dan f(x) dalam C, berarti f(x) = λx + (1 λ) x C ε (x ).

30 Selanjutnya, dengan konveksitas dari f pada C, berarti; f(x) λ f(x) + (1 λ)f(x ) < λf(x ) + (1 λ)f(x ) f(x ) atau f(x) f(x ). Hal ini bertentangan dengan pengandaian, bahwa x adalah minimum lokal. Jadi haruslah x adalah minimum global. Dalam masalah program konveks, dengan penambahan asumsi bahwa f dan g adalah fungsi konveks. Biasanya, bila masalah tidak diasumsikan pada masalah konveks, maka masalah mempunyai solusi optimum lokal. Hasil yang diperoleh berdasarkan penggunaan metode eksak dapat menemukan solusi global, disebut metode optimisasi global. 2.3.2 Program Tak Konveks Program tak konveks adalah suatu program yang mempunyai fungsi objektif tak linier dan beberapa atau semua kendala tak linier. Masalah program tak konveks mungkin mempunyai banyak titik optimum lokal, hal itu akan memerlukan banyak waktu untuk mengidentifikasi apakah masalah mempunyai solusi atau tidak, apabila solusi yang akan dicari adalah minimum global. Oleh karena itu, masalah pemecahan masalah program tak konveks pada umumnya lebih sulit, bahkan fungsi adalah sangat smooth (halus). Dalam program tak konveks, diasumsikan bahwa minimum lokal tidak menjadi minimum global, atau maksimum lokal tidak menjadi maksimum global. Masalah tersebut digambarkan seperti dalam gambar 2.5 berikut.

31 2.4 Metode Pemecahan Beberapa penggunaan algoritma yang efektif dalam pemecahan masalah NLP dapat dilihat dalam Bertsimas (1999), Boyd dan Vabdenberghe (2004), Fletcher (2000), Nocedal dan Wright (2006), pemecahan itu diuraikan secara ringkas berikut ini. 2.4.1 Line Search Pencarian garis (line search) digunakan untuk masalah optimisasi tak berkendala dengan fungsi objektif non-linier. Pada tiap iterasi suatu penaksiran dari fungsi non-linier dipertimbangkan dan (i) suatu petunjuk pencarian ditentukan, (ii) penjang langkah pencarian selama arah pengambilan diperhitungkan. Pendekatan berbeda untuk menentukan arah dan panjang langkah seperti Steepest des cent, N ewton, Quasi N ewton, Conjugate Direction methods.

32 2.4.2 Trust Region Daerah kepercayaan (Trust region) adalah suatu metode yang digunakan sebagai suatu alternatif untuk pencarian garis. Pada tiap-tiap iterasi, pencarian dari titik terbaik menggunakan perkiraan yang dibatasi ke dalam suatu trust region, dan ditetapkan dengan suatu panjang langkah maksimum. Pendekatan ini didorong oleh fakta bahwa perkiraan dari fungsi non-linier pada titik yang diberikan tidak dapat menjadi titik terbaik. Oleh karena itu trust region dapat menunjukkan bagian seharusnya yang dapat memberikan perkiraan yang baik. Kemudian arah dan panjang langkah pencarian memberikan perbaikan terbaik untuk nilai fugsi objektif sampai daerah kepercayaan diambil. 2.4.3 Penalty and Augmented Lagrangian Metode P enalty mendefinisikan ulang fungsi objektif dari NLP untuk memperoleh kelayakan dan nilai optimalitas dari suatu penambahan syarat-syarat solusi yang menetapkan ketidaklayakan solusi. Ketika suatu fungsi penalty meminimalkan solusi dari NLP awal. Hal itu disebut eksak, dengan kata lain minimalisasi fungsi penalty mengarahkan kepada solusi optimal dari masalah asli. Suatu contoh dari metode penalty eksak adalah metode Augmented Lagrangian yang membuat dengan jelas penggunaan dari penduga pengali Lagrange.

33 2.4.4 Active Set Himpunan aktif (active set) adalah himpunan variabel aktif dalam suatu persamaan kendala. Metode himpunan aktif adalah suatu metode iteratif untuk pemecahan masalah N LP dengan pertidaksamaan kendala. Berdasarkan pengertian kendala dalam himpunan aktif, suatu pergerakan mengidentifikasi titik baru untuk iterasi selanjutnya. Algoritma simpleks oleh Dantzig (1956) adalah suatu metode kendala aktif untuk pemecahan masalah program linier. Suatu hasil yang efektif dan luas digunakan dalam kasus khusus dengan metode himpunan aktif untuk masalah N LP adalah program kuadratik (Quadratic programming), yaitu suatu rangkaian pemecahan masalah untuk menaksir masalah NLP terakhir. Suatu contoh seperti penyelesaian menggunakan metode Newtons dengan kondisi KKT dari masalah NLP. Metode himpunan aktif adalah suatu metode yang mengestimasi himpunan variabel aktif dari solusi optimal. Masalah N LP dibagi dalam dua bagian himpunan kendala, yaitu pertidaksamaan yang menjadikannya sebagai kendala aktif, dan kendala tidak aktif. Pertidaksamaan kendala dalam himpunan tidak aktif dianggap sebagai pertidaksamaan kuat pada solusi optimum dan mengabaikan yang sangat utama. Sisa masalah dipecahkan dengan suatu metode untuk memecahkan persamaan kendala dari masalah optimisasi. Pemecahan masalah NLP terdiri dari dua tahap iterasi yang memberikan suatu estimasi himpunan aktif dari solusi. Tahap pertama adalah tahap kelayakan, dima-

34 na fungsi objektif diabaikan ketika titik layak ditemukan pada kendala Ax=b dan Dx f. Tahap kedua adalah tahap optimalitas, dimana fungsi objektif diminimalkan ketika kelayakan diperbaiki. Kedua tahap dari algoritma terkait dengan perubahan minimalisasi fungsi dari suatu fungsi yang menggambarkan tingkat dari ketidaklayakan kepada fungsi objektif. Metode ini mempunyai prosedur untuk meninjau ulang himpunan aktif, salah satu cara adalah dengan penghapusan pertidaksamaan kendala dari kendala asli, atau menambahkan pertidaksamaan kendala dari himpunan tak aktif ke dalamnya. Pembahasan metode himpunan aktif (Active set) dapat dilihat dalam Panier (1987), Murty dan Yu (1997), Oberlin dan Wright (2006). Kontribusi metode active set tersebut mendasari pemecahan masalah NLP dengan kendala aktif.