digilib@itb.ac.id +62 812 2508 8800


COVER
PUBLIC Open In Flipbook Rina Kania

BAB I
PUBLIC Open In Flipbook Rina Kania

Bab II
PUBLIC Open In Flipbook Rina Kania

Bab III
PUBLIC Open In Flipbook Rina Kania

BAB IV
PUBLIC Open In Flipbook Rina Kania

BAB V
PUBLIC Open In Flipbook Rina Kania

BAB VI
PUBLIC Open In Flipbook Rina Kania

DAFTAR PUSTAKA
PUBLIC Open In Flipbook Rina Kania

LAMPIRAN
PUBLIC Open In Flipbook Rina Kania

Peningkatan jumlah kendaraan secara pesat di lingkungan perkotaan telah menimbulkan tantangan signifikan, terutama dalam hal kemacetan lalu lintas, pemborosan bahan bakar dan peningkatan polusi udara. Metode pengendalian lalu lintas dengan menggunakan lampu lalu lintas statis atau fixed time, seringkali tidak mampu beradaptasi secara dinamis dengan kondisi lalu lintas yang terus berubah. Reinforcement Learning (RL), khususnya Deep Reinforcement Learning (DRL), memiliki harapan yang cukup besar untuk pengendalian sinyal lalu lintas, karena dapat melakukan pembelajaran melalui uji coba. Namun, Deep Neural Networks (DNN) yang mendukung model DRL rentan terhadap gangguan eksternal yang merugikan, karena dapat menyebabkan kesalahan klasifikasi dan keliru dalam mengambil keputusan. Hal ini menegaskan perlunya algoritma RL yang tegar. Untuk meningkatkan fungsi pengatur lalu lintas yang dinamis dan mampu mengatasi permasalahan di jalan raya khususnya kemacetan lalu lintas, perlu adanya sistem yang dapat mengatur dan mengendalikan lalu lintas dengan ketahanan terhadap serangan adversarial. Salah satu upaya untuk mengatasi kondisi tersebut, dilakukan penelitian dengan metode Robas Deep Q Network (DQN) dan Robas Proximal Policy Optimization (PPO) yang memanfaatkan (Robust Adversarial Loss) RADIAL-RL untuk dapat menahan serangan atau gangguan, dengan menambahkan fungsi loss adverserial pada loss nominal, yang tahan terhadap serangan adverserial dalam mengendalikan arus lalu lintas. Penelitian menggunakan metode DQN, PPO dan RADIAL-RL, dilakukan dengan uji coba serangan PGD adveserial untuk mengetahui ketahanan sistem. Hasil dari penelitian ini diketahui bahwa penambahan Robas DQN dan Robas PPO dapat berpengaruh pada kondisi pengelolaan arus lalu lintas, yang terbukti dengan hasil MFD DQN dan PPO yang menggambarkan arus lalu lintas yang tinggi (pergerakan kendaraan per jam cepat) dan kepadatan kendaraan yang rendah. Algoritma DQN dan PPO juga terbukti cukup robust terhadap serangan adversarial PGD, dengan ketahanan masing-masing yaitu untuk DQN 95,92 % dan PPO 98,94 %. Meskipun terjadi penurunan performa, keduanya tetap dapat mempertahankan kinerja yang stabil, sehingga layak digunakan pada sistem pembelajaran penguatan di lingkungan yang rentan terhadap gangguan eksternal.