digilib@itb.ac.id +62 812 2508 8800

23220007 Annisa Izaty.pdf
PUBLIC Open In Flip Book Dessy Rondang Monaomi

Robot mobil dikatagorikan otonom jika memiliki kemampuan navigasi yang baik sehingga mampu bergerak dari posisi awal ke posisi target tanpa menabrak obstacles. Untuk memenuhi tugas tersebut, dibutuhkan sistem perencanaan jalur. Thesis ini bertujuan untuk membuat sistem perencanaan jalur, baik global maupun lokal yang mengoptimalkan panjang jalur yang ditempuh, waktu komputasi dan efisiensi penggunaan memori. Pada perencanaan jalur global digunakan algoritma Rapidly-Exploring Random Trees (RRT*) yang dikombinasikan dengan pendekatan fixed node, mesh grid dan metode sampling visibility graph. Sedangkan untuk perencanaan jalur lokal diterapkan algoritma Dynamic Window Approach (DWA) dengan Deep Reinforcement Learning untuk menentukan kecepatan translasi dan kecepatan rotasi yang optimal. Jalur global yang ditemukan akan dieksekusi oleh robot menggunakan perencanaan jalur lokal. Pasangan kecepatan (v,?) ditentukan dengan algoritma DRL yang telah dilatih pada Gazebo ROS. Pengujian dilakukan di lingkungan simulasi dan lingkungan nyata dengan 3 variasi lingkungan, yaitu tanpa obstacles dengan pelatihan agen pada lingkungan pertama, dengan obstacles dan pelatihan agen pada lingkungan kedua, dan dengan obstacles tanpa pelatihan agen pada lingkungan ketiga. Pelatihan pada penelitian ini dilakukan sebanyak 1000 episode. Dari proses pengujian, didapatkan hasil bahwa pada lingkungan pertama, keberhasilan robot menuju target pada lingkungan simulasi yaitu 100%, sedangkan pada lingkungan nyata yaitu 80%. Selanjutnya untuk lingkungan kedua dan ketiga pada lingkungan simulasi dan lingkungan nyata didapatkan persentase keberhasilan mencapai target yaitu 90% dan 60% untuk lingkungan kedua, lalu 80% dan 60% untuk lingkungan ketiga. Berdasarkan hasil tersebut, robot dapat dilatih dengan baik pada dua variasi lingkungan. Dan juga dapat mencapai pose taget dari pose awal pada tiga variasi lingkungan dengan panjang jalur terpendek, waktu dan penggunaan memori komputasi yang efisien. Namun untuk mendapatkan hasil yang lebih optimal harus dilakukan pelatihan pada variasi lingkungan dan jumlah episode pelatihan yang lebih banyak.