Perkembangan teknologi kendaraan otonom telah menjadi fokus utama dalam transformasi industri transportasi global, karena menjanjikan peningkatan keselamatan, efisiensi operasional, dan mobilitas yang lebih menyeluruh. Salah satu tantangan utama dalam pengembangan kendaraan otonom adalah menciptakan sistem persepsi citra yang mampu menginterpretasikan kondisi lingkungan secara cepat dan akurat dalam berbagai kondisi dinamis. Sistem persepsi konvensional yang mengandalkan LiDAR atau radar seringkali mahal dan tidak efisien untuk implementasi skala luas. Oleh karena itu, pemanfaatan kamera tunggal dengan dukungan pembelajaran mendalam berbasis segmentasi semantik gabungan menjadi solusi yang menjanjikan dari biaya dan kinerja. Penelitian ini bertujuan untuk menngembangkan dan mengimplementasikan model segmentasi gabungan berbasis Multi- Task Learning (MTL) dengan memanfaatkan arsitektur YOLOP dan modifikasinya YOLOP (new) untuk menyelesaikan tiga tugas utamanya dalam persepsi berkendara: deteksi objek, segmentasi area yang dapat dilalui dan segmentasi garis jalan. Dengan mengkombinasi backbone CSPDarkNet dan GhostNet serta mengintegrasikan fungsi kerugian SIoU dan fungsi aktivasi SiLU, penelitian ini berupaya meningkatkan efisiensi komputasi tanpa mengorbankan akurasi.
Metodologi penelitian mencakup studi pustaka, pengambilan data lapangan di Kota Bandung, pengembangan model menggunakan dataset BDD100k, serta pelatihan dan evaluasi dengan metric Precision, Recall, mAP@0.5, IoU dan mIoU. Hasil percobaan menunjukan bahwa YOLOP (new) mencapai mAP@0.5 sebesar 0.60 dibanding pada YOLOP 0.44 dan kecepatan inferensi 0.0017 s/frame, lebih cepat dari 0.0030 s/frame pada model awal. YOLOP (new) juga menunjukan peningkatan pada segmentasi garis jalan, meskipun sedikit penurunan pada segmentasi area yang dapat dilalui. Kesimpulannya, arsitektur MTL berbasis YOLOP yang dimodifikasi mampu meningkatkan kinerja dan efisiensi sistem persepsi kedaraan otonom dengan sumber daya yang terbatas.
Perpustakaan Digital ITB