Robot mobil dikatagorikan otonom jika memiliki kemampuan navigasi yang baik
sehingga mampu bergerak dari posisi awal ke posisi target tanpa menabrak
obstacles. Untuk memenuhi tugas tersebut, dibutuhkan sistem perencanaan jalur.
Thesis ini bertujuan untuk membuat sistem perencanaan jalur, baik global maupun
lokal yang mengoptimalkan panjang jalur yang ditempuh, waktu komputasi dan
efisiensi penggunaan memori. Pada perencanaan jalur global digunakan algoritma
Rapidly-Exploring Random Trees (RRT*) yang dikombinasikan dengan
pendekatan fixed node, mesh grid dan metode sampling visibility graph. Sedangkan
untuk perencanaan jalur lokal diterapkan algoritma Dynamic Window Approach
(DWA) dengan Deep Reinforcement Learning untuk menentukan kecepatan
translasi dan kecepatan rotasi yang optimal. Jalur global yang ditemukan akan
dieksekusi oleh robot menggunakan perencanaan jalur lokal. Pasangan kecepatan
(v,?) ditentukan dengan algoritma DRL yang telah dilatih pada Gazebo ROS.
Pengujian dilakukan di lingkungan simulasi dan lingkungan nyata dengan 3 variasi
lingkungan, yaitu tanpa obstacles dengan pelatihan agen pada lingkungan pertama,
dengan obstacles dan pelatihan agen pada lingkungan kedua, dan dengan obstacles
tanpa pelatihan agen pada lingkungan ketiga. Pelatihan pada penelitian ini
dilakukan sebanyak 1000 episode. Dari proses pengujian, didapatkan hasil bahwa
pada lingkungan pertama, keberhasilan robot menuju target pada lingkungan
simulasi yaitu 100%, sedangkan pada lingkungan nyata yaitu 80%. Selanjutnya
untuk lingkungan kedua dan ketiga pada lingkungan simulasi dan lingkungan nyata
didapatkan persentase keberhasilan mencapai target yaitu 90% dan 60% untuk
lingkungan kedua, lalu 80% dan 60% untuk lingkungan ketiga. Berdasarkan hasil
tersebut, robot dapat dilatih dengan baik pada dua variasi lingkungan. Dan juga
dapat mencapai pose taget dari pose awal pada tiga variasi lingkungan dengan
panjang jalur terpendek, waktu dan penggunaan memori komputasi yang efisien.
Namun untuk mendapatkan hasil yang lebih optimal harus dilakukan pelatihan pada
variasi lingkungan dan jumlah episode pelatihan yang lebih banyak.