digilib@itb.ac.id +62 812 2508 8800

Kebutuhan data berlabel dalam jumlah banyak dan komputasi yang besar menjadi permasalahan umum pada segmentasi semantik. Semi-supervised menjawab problema dengan memanfaatkan data tanpa label dalam proses pelatihannya, namun memilih metode pretext teask yang tepat dalam pada proses belajar unsupervised menjadi tantangan sendiri. Penelitian siamese network yang dilakukan oleh X. Chen dan He (X. Chen dan He, 2020) menunjukkan bahwa contrastive learning dapat dicapai tanpa menggunakan pasangan negatif. Pada penelitian ini kami mengusulkan SimFCN, sebuah model semi-supevised learning berbasis siamese network untuk domain segmentasi semantik. Dengan mengkombinasikan FCN sebagai main decoder dengan projection layer dari siamese network, metode ini mampu membangun parameter untuk model dengan data berlabel terbatas pada domain segmentasi semantik menggunakan model berkomputasi rendah seperti ResNet-18d. SimFCN pada dataset PASCAL VOC mendapatkan nilai mIoU 30.9% untuk jumlah data berlabel sebanyak 60 gambar (~0.5%) dan 51.3% untuk jumlah data berlabel 1000 (~10%). SimFCN lebih unggul dibandingkan model Cross- Consistency Training dengan jumlah parameter yang lebih sedikit dan komputasi yang lebih ringan. Dari studi evaluasi yang dilakukan, SimFCN lebih unggul dalam membangun encoder dibandingkan Cross-Consistency Training. Dalam penelitian ini juga kami mengusulkan KD-Siamese, yakni mengadopsi knowledge distillation pada bagian supervised dan menggunakan teacher encoder untuk membangun triplet-loss pada siamese network. KD-Siamese mendapatkan mIoU 10.4% untuk validasi dengan 100 data berlabel (~1%). Dari studi ini kami mendapati bahwa untuk mencapat kondisi fit, knowledge distillation membutuhkan iterasi yang panjang serta model teacher yang kompleks belum tentu dapat membangun student model yang baik.