digilib@itb.ac.id +62 812 2508 8800

Abstrak
PUBLIC karya

COVER Rahmad Yesa Surya
Terbatas  karya
» Gedung UPT Perpustakaan

BAB 1 Rahmad Yesa Surya
Terbatas  karya
» Gedung UPT Perpustakaan

BAB 2 Rahmad Yesa Surya
Terbatas  karya
» Gedung UPT Perpustakaan

BAB 3 Rahmad Yesa Surya
Terbatas  karya
» Gedung UPT Perpustakaan

BAB 4 Rahmad Yesa Surya
Terbatas  karya
» Gedung UPT Perpustakaan

BAB 5 Rahmad Yesa Surya
Terbatas  karya
» Gedung UPT Perpustakaan

PUSTAKA Rahmad Yesa Surya
Terbatas  karya
» Gedung UPT Perpustakaan

Deep learning training terdistribusi pada saat ini menggunakan alokasi sumber daya statis. Menggunakan arsitektur parameter server, training pada saat ini memiliki jumlah ps node dan worker node yang tetap selama training berjalan hingga selesai. Bagi training yang berjalan pada klaster umum, yang sumber dayanya dibagi dengan proses-proses yang lain, adakalanya sumber daya menjadi bebas ketika training sedang berjalan, misalnya ketika proses lain yang menggunakan sumber daya tersebut telah selesai. Dengan alokasi sumber daya statis, training tidak dapat memanfaatkan sumber daya bebas ini. Pada tugas akhir ini, dirancang dan diimplementasikan sistem alokasi sumber daya dinamis untuk training menggunakan TensorFlow yang berjalan pada klaster Kubernetes. Implementasi ini dilakukan dengan membangun sebuah komponen baru bernama ConfigurationManager (CM). Komponen tersebut berperan untuk mengetahui informasi sumber daya klaster serta menentukan penambahan ps node dan worker node pada training. Selain itu, training diimplemetasikan agar dapat berkomunikasi dengan CM secara periodik. Hasil pengujian menunjukkan bahwa training dengan alokasi sumber daya dinamis lebih unggul daripada training dengan alokasi sumber daya statis pada beberapa metrik kinerja, yakni penggunaan sumber daya klaster, waktu per epoch, dan total waktu training. Namun demikian, training dengan alokasi sumber daya dinamis memiliki akurasi yang sedikit lebih rendah dibandingkan training dengan alokasi sumber daya statis.