digilib@itb.ac.id +62 812 2508 8800

Dokumen Asli
Terbatas  Dessy Rondang Monaomi
» Gedung UPT Perpustakaan

Seiring dengan meningkatnya kepadatan lalu lintas global, komunikasi Vehicle-to-Vehicle (V2V) menjadi kunci untuk meningkatkan keselamatan dan efisiensi transportasi. Namun, performa komunikasi V2V yang mengandalkan pertukaran pesan periodik (beacon) sangat rentan terhadap kemacetan kanal (channel congestion), terutama pada skenario lalu lintas padat. Kondisi ini dapat menyebabkan tingginya packet loss dan latensi, sehingga mengurangi efektivitas sistem keselamatan. Penelitian yang ada seringkali berfokus pada optimasi parameter tunggal, seperti beacon rate atau daya transmisi saja, yang terbukti kurang efektif untuk mengatasi kondisi jaringan yang sangat dinamis. Oleh karena itu, penelitian ini mengusulkan sebuah sistem optimasi gabungan untuk beacon rate dan daya transmisi secara simultan menggunakan pendekatan Reinforcement Learning (RL), yang memiliki kemampuan adaptasi superior dalam lingkungan yang kompleks.Tujuan dari penelitian ini adalah untuk merancang dan membangun sebuah sistem adaptif berbasis algoritma Q-Learning yang mampu menyesuaikan beacon rate dan daya transmisi secara dinamis untuk mencapai komunikasi V2V yang optimal dalam skenario lalu lintas yang berubah-ubah. Sistem ini dikembangkan secara terintegrasi menggunakan Python, yang terdiri dari tiga subsistem utama: subsistem simulasi Vehicular Ad-Hoc Network (VANET), subsistem implementasi algoritma RL, dan subsistem display berbasis Streamlit. Subsistem simulasi VANET dibangun untuk memodelkan komunikasi pada lapisan fisik (PHY) dan MAC sesuai standar IEEE 802.11bd, dengan menggunakan data mobilitas dari SUMO. Algoritma Q-Learning diimplementasikan sebagai server eksternal yang berkomunikasi dengan simulator melalui socket. Agent RL dilatih untuk memaksimalkan fungsi reward yang dirancang untuk menjaga metrik performa Channel Busy Ratio (CBR) dan Signal-to-Interference-plus-Noise Ratio (SINR) dalam rentang target optimal, yaitu 0,6–0,7 untuk CBR dan 15–20 dB untuk SINR. Hasil pengujian yang dilakukan pada skenario simulasi lalu lintas berupa highway line-of-sight dengan durasi 500 detik, lebar 6 lajur, panjang jalan 250 meter, dengan 44 kendaraan yang terlibat, menunjukkan bahwa agent Q-Learning berhasil nunjukkan tren pembelajaran yang positif. Apabila dibandingkan dengan skenario baseline tanpa optimasi, model yang telah dilatih mampu meningkatkan utilisasi kanal, yang ditunjukkan dengan nilai CBR mencapai rentang target acuan yakni 0,6 – 0,7 walaupun masih dietmukan beberapa fluktuasi diluar rentang. Selain itu, agent juga berhasil menjaga kualitas sinyal (SINR) agar tetap berada di dalam rentang acuan 15–20 dB, walaupun masih ditemukan beberapa fluktuasi. Akan tetapi, hasil keseluruhan menunjukkan bahwa agent pada algoritma Q-Learning mampu mengendalikan parameter CBR dan SINR pada rentang acuan sesuai dengan keberjalanan skenario simulasi lalu lintas kendaraan pada simulasi VANET. Lalu, hasil pada penelitian juga menunjukkan bahwa pada keberjalanan optimalisasi parameter performa untuk menjaga keandalan kanal komunikasi, didapatkan bahwa terjadi trade-off antara kondisi beban kanal (CBR) dengan PDR dan latency kanal komunikasi antar kendaraan. Hasil analisis menunjukkan bahwa agent mampu menjaga parameter performa PDR hingga 0,95 dan latensi dibawah 60 ms pada kondisi kanal CBR ideal dan rendah. Sehingga dibuktikkan jika penggunaan RL untuk adaptasi gabungan dapat menghasilkan parameter yang lebih optimal dibandingkan pendekatan statis. Maka dari itu, dapat dikatakan bahwa penelitian yang dilakukan berhasil mencapai tujuan yang telah ditentukan serta besar harapan bahwa penelitian ini memberikan kontribusi berupa bukti konsep terkait sebuah sistem adaptif yang terintegrasi penuh dan menjadi fondasi bagi pengembangan algoritma Deep Reinforcement Learning (DRL) yang lebih canggih di masa depan untuk mengatasi persoalan optimasi V2V yang lebih kompleks.