Forklift otonom merupakan salah satu aplikasi robot bergerak yang berperan
penting dalam otomasi pergudangan modern. Teknologi ini mampu meningkatkan
efisiensi distribusi barang serta mengurangi risiko kecelakaan kerja. Namun,
tantangan utamanya adalah merancang strategi pengendali gerak yang adaptif
terhadap kondisi gudang yang kompleks, seperti lorong sempit dan tata letak rak
yang padat. Dynamic Window Approach (DWA) merupakan metode populer untuk
penjejak jalur karena mampu menghasilkan perintah gerak yang dapat dicapai dan
layak secara kinematis. Meski demikian, performa DWA sangat dipengaruhi oleh
bobot fungsi objektif, yang pada DWA konvensional nilanya tetap sehingga kurang
adaptif pada kondisi yang bervariasi. Penelitian ini mengusulkan Q-Learning
Dynamic Window Approach (Q-DWA), yaitu integrasi Q-Learning sebagai
mekanisme adaptasi bobot DWA. Q-Learning melatih forklift melalui interaksi
dengan lingkungan simulasi gudang sehingga dapat menyesuaikan bobot
berdasarkan kondisi orientasi terhadap target, kecepatan forklift, dan kepadatan
hambatan. Algoritma A* juga digunakan sebagai perencana jalur global untuk
menemukan jalur tercepat. Metode penelitian meliputi pemodelan kinematika
forklift, perancangan Q-table, serta pelatihan sebanyak 1.000-episode
menggunakan strategi ?-greedy. Simulasi dilakukan pada empat skenario khas
pergudangan. Hasil uji menunjukkan bahwa Q-DWA mampu menyelesaikan
semua skenario dengan tingkat keberhasilan lebih dari 98%, sedangkan DWA
konvensional hanya berhasil 91% dan 74%. Q-DWA menghasilkan perintah gerak
yang lebih halus namun tetap menjaga akurasi penjejakan dengan RMSE 0,118.
Kebaruan penelitian ini adalah penerapan Reinforcement Learning sebagai
mekanisme tuning bobot DWA secara online untuk mengikuti waypoints/lintasan
dari A*. Kontribusi utamanya memperkaya literatur adaptive path planning,
sekaligus membuktikan bahwa Q-Learning dapat mengatasi keterbatasan DWA
konvensional.
Perpustakaan Digital ITB