digilib@itb.ac.id +62 812 2508 8800

Dokumen Asli
PUBLIC Open In Flipbook Dessy Rondang Monaomi

Kebutuhan masyarakat yang semakin besar membuat industri harus menggunakan sebuah sistemnya dapat bekerja secara efesien. Salah satunya adalah industri kimia yang telah selama ini sangat bermanfaat untuk Masyarakat dari segala sektor industri migas dan nonmigas serta industri tekstil, farmasi, makanan dan minuman, dan produk bahan kimia lainnya. Untuk itu kemajuan teknologi dibidang kimia ini sangat diperlukan. Salah satu proses yang sering digunakan dalam industri adalah proses distilasi. Proses ini merupakan proses pemisahan unsur atau senyawa dari sebuah campuran yang ada. Dengan menggunakan plant distilasi kolom pada Lab Honeywell yang ada di ITB, penelitian yang dilakukan bertujuan untuk mengatur konsentrasi alkohol sebagai produk hasil distilasi dengan cara mengendalikan katup refluks yang ada. Permasalahan utama dalam proses pengendalian konsentrasi alkohol ini yaitu, adanya sifat nonlinear dari sistem disitilasi ini. Berbagai macam metode pengendalian pada sistem distilasi ini, dengan berbagai macam bentuk pemodelan telah dilakukan. Namun, sistem perlu mencari bentuk model sistemnya secara tepat agar dapat dibangun sistem pengendali secara tepat juga. Namun, untuk mendapatkan model dari sistem yang nonlinear umumnya sulit untuk dilakukan. Oleh karena itu, penelitian dilakukan dengan menggunakan kendali reinforcement learning berbasis free-model. Penelitian ini mencoba untuk mensimulasikan sistem pengendalian katup refluks dengan menggunakan metode reinforcement learning yaitu Q-Learning dan SARSA. Dengan konsentrasi alkohol sebagai state dan katup refluks sebagai action. Penelitian dilakukan dengan mengatur jumlah diskritisasi state dan action serta menentukan nilai parameter alpha, gamma, dan epsilon yang sesuai untuk pengendalian tersebut. Berdasarkan hasil pengujian yang dilakukan, dapat disimpulkan Q-Learning maupun SARSA untuk nilai diskritisasi state 200 dan nilai diskritisasi aksi 25, dengan waktu pembelajaran pada Q-Learning lebih singkat dibandingkan dengan SARSA. Untuk parameter Q-Learning dengan performa terbaik dengan nilai ESS 0,1663, dengan rise time yang membutuhkan 1942 langkah, settling time dengan 2407 langkah dan overshoot bernilai 0,47% yang ditemukan pada parameter alpha, gamma, dan epsilon masing masing bernilai 0,05, 0,1 dan 0,01. Sedangkan untuk kendali dengan algoritma SARSA performa terbaik didapatkan dari parameter alpha, gamma, dan epsilon dengan masing masing bernilai 0,05, 0,65, dan 0,01 dengan menghasilkan nilai ESS 0,1519, rise time sebesar 1941 langkah, settling time 2407 langkah dan overshoot sebesar 0,46%.