ABSTRAK Eric Okto Fernandez
PUBLIC Irwan Sofiyan
COVER - Eric Okto Fernandez.pdf
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
BAB I - Eric Okto Fernandez.pdf
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
BAB II - Eric Okto Fernandez.pdf
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
BAB III - Eric Okto Fernandez.pdf
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
BAB IV - Eric Okto Fernandez.pdf
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
BAB V - Eric Okto Fernandez.pdf
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
PUSTAKA Eric Okto Fernandez
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
LAMPIRAN - Eric Okto Fernandez.pdf
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
Terbatas  Irwan Sofiyan
» Gedung UPT Perpustakaan
Jumlah kebutuhan transportasi mengalami peningkatan dalam beberapa dekade
terakhir seiring meningkatnya aktivitas manusia. Salah satu dampak negatif yang
sangat dirasakan yaitu meningkatnya kemacetan. Solusi jangka pendek yang
memungkinkan untuk mengatasi masalah ini yaitu dengan menggunakan algoritma
kontrol lalu lintas yang adaptif. Hal ini dikarenakan sistem algoritma kontrol lalu
lintas di Indonesia sebagian besar masih menggunakan algoritma klasik dengan
urutan fase lalu lintas yang sudah ditetapkan. Pada penelitian ini diperkenalkan
pengontrol lalu lintas yang adaptif menggunakan algoritma Reinforcement
Learning. Algoritma ini akan diterapkan pada perangkat lunak simulasi lalu lintas
SUMO.
Dalam perancangan algoritma kontrol digunakan algoritma Reinforcement
Learning (RL) yang dinamakan Deep Q-Network (DQN). Action yang dilakukan
oleh DQN berupa penentuan fase lalu lintas dengan reward yang divariasikan dari
tekanan hingga pemberian beban adaptif pada tekanan dan panjang antrian.
Algoritma kontrol DQN dengan beban adaptif memiliki performa yang paling baik
diantara algoritma kontrol lainnya dengan jumlah kendaraan yang menyelesaikan
perjalanan sebanyak 56.384 kendaraan yang lebih tinggi dibanding algoritma
kontrol Webster (50.366), Max-Pressure (50.541) dan Uniform (46.241).
Peningkatan jumlah kendaraan yang menyelesaikan perjalanan ini akan
meningkatkan produktivitas suatu wilayah.