ABSTRAK Muhammad Riza Tanwirul Fuad
PUBLIC Irwan Sofiyan
COVER - Muhammad Riza.pdf
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
BAB I - Muhammad Riza.pdf
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
BAB II - Muhammad Riza.pdf
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
BAB III - Muhammad Riza.pdf
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
BAB IV - Muhammad Riza.pdf
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
BAB V - Muhammad Riza.pdf
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
PUSTAKA Muhammad Riza Tanwirul Fuad
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
LAMPIRAN - Muhammad Riza.pdf
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
Jumlah kebutuhan transportasi mengalami peningkatan dalam beberapa dekade
terakhir seiring meningkatnya aktivitas manusia. Salah satu dampak negatif yang
sangat dirasakan yaitu meningkatnya kemacetan. Solusi jangka pendek yang
memungkinkan untuk mengatasi masalah ini yaitu dengan menggunakan
algoritma kontrol lalu lintas yang adaptif. Hal ini dikarenakan sistem algoritma
kontrol lalu lintas di Indonesia sebagian besar masih menggunakan algoritma
klasik dengan urutan fase lalu lintas yang sudah ditetapkan. Pada penelitian ini
diperkenalkan pengontrol lalu lintas yang adaptif menggunakan algoritma
Reinforcement Learning. Algoritma ini akan diterapkan pada perangkat lunak
simulasi lalu lintas SUMO.
Dalam perancangan algoritma kontrol digunakan algoritma Reinforcement
Learning (RL) yang dinamakan Deep Q-Network (DQN). Action yang dilakukan
oleh DQN berupa penentuan fase lalu lintas dengan reward yang divariasikan dari
tekanan hingga pemberian beban adaptif pada tekanan dan panjang antrian.
Algoritma kontrol DQN dengan beban adaptif memiliki performa yang paling
baik diantara algoritma kontrol lainnya dengan jumlah kendaraan yang
menyelesaikan perjalanan sebanyak 56.384 kendaraan yang lebih tinggi dibanding
algoritma kontrol Webster (50.366), Max-Pressure (50.541) dan Uniform
(46.241). Peningkatan jumlah kendaraan yang menyelesaikan perjalanan ini akan
meningkatkan produktivitas suatu wilayah.