Metode untuk rekonstruksi model tiga dimensi dari gambar dua dimensi
single view telah berkembang dengan pesat dalam beberapa tahun terakhir. Namun
sebagian besar metode tersebut masih berupa penelitian dengan bentuk masukan
yang sangat terkendali. Misalnya pada metode Pixel-aligned Implicit Function,
rekonstruksi telah berhasil mencapai model tiga dimensi dengan bentuk dan tekstur
dengan detail yang tinggi dari gambar dua dimensi single view, namun gambar
masukan terbatasi berbagai kriteria dan harus menyertakan gambar mask yang
menunjukkan posisi manusia dalam gambar. Karena itu, tugas akhir ini bertujuan
membangun aplikasi yang dapat merekonstruksi model tiga dimensi dari gambar
dua dimensi single view dengan kriteria yang lebih luas dan tidak membutuhkan
masukan tambahan selain gambar dua dimensi yang bersangkutan.
Untuk itu, akan dibuat sebuah modul segmentasi yang menggunakan
metode semantic segmentation bernama Fully Convolutonal DenseNet untuk
menghasilkan informasi mask yang dibutuhkan dalam rekonstruksi. Modul
segmentasi ini juga memungkinkan penanganan rekonstruksi objek untuk gambar
berisi lebih dari satu objek.
Penggunaan modul segmentasi ini menghasilkan penurunan kualitas
rekonstruksi namun juga meningkatkan otomatisasi dan memperbesar jangkauan
input yang dapat diproses.