digilib@itb.ac.id +62 812 2508 8800

ABSTRAK_ Zaiman Aufar Purnama [13321022]
Terbatas  Rina Kania
» Gedung UPT Perpustakaan

COVER
Terbatas  Rina Kania
» Gedung UPT Perpustakaan

BAB I
Terbatas  Rina Kania
» Gedung UPT Perpustakaan

Bab II
Terbatas  Rina Kania
» Gedung UPT Perpustakaan

Bab III
Terbatas  Rina Kania
» Gedung UPT Perpustakaan

BAB IV
Terbatas  Rina Kania
» Gedung UPT Perpustakaan

BAB V
Terbatas  Rina Kania
» Gedung UPT Perpustakaan

DAFTAR PUSTAKA
Terbatas  Rina Kania
» Gedung UPT Perpustakaan

LAMPIRAN
Terbatas  Rina Kania
» Gedung UPT Perpustakaan

Convolutional Neural Network (CNN) merupakan salah satu algoritma utama dalam bidang Computer Vision yang terbukti mampu memberikan akurasi tinggi pada berbagai aplikasi seperti klasifikasi citra dan deteksi objek. Namun, implementasi CNN pada perangkat dengan sumber daya terbatas, seperti edge device atau sistem Internet of Things (IoT), sering terkendala oleh kebutuhan komputasi yang tinggi serta konsumsi daya yang besar. Untuk mengatasi hal ini, diperlukan akselerator perangkat keras yang mampu menjalankan komputasi CNN secara lebih efisien. Pada penelitian ini dilakukan perancangan dan implementasi akselerator CNN berbasis Field Programmable Gate Array (FPGA) dengan dua pendekatan, yaitu arsitektur streaming dan arsitektur reconfigurable. Arsitektur streaming dirancang untuk mempercepat aliran data secara berkesinambungan dengan latensi rendah, sementara arsitektur reconfigurable memberikan fleksibilitas dalam menyesuaikan konfigurasi layer CNN tanpa memerlukan sintesis ulang perangkat keras. Hasil pengujian menunjukkan bahwa akselerator berbasis streaming mampu mempercepat inference hingga 173 kali dibandingkan CPU, sedangkan akselerator reconfigurable mencapai percepatan hingga 101 kali dengan fleksibilitas konfigurasi model. Dari sisi pemanfaatan sumber daya FPGA, arsitektur streaming memaksimalkan penggunaan blok DSP hingga 205 dan 217 buah (93% dan 99%), sedangkan arsitektur reconfigurable menggunakan lebih sedikit DSP, yaitu 89 buah (40%), tapi memanfaatkan LUT dan BRAM lebih banyak, masing-masing meningkat 6% dan 20%. Dengan begitu, streaming memberikan inference yang lebih cepat 1,6 kali dibandingkan reconfigurable namun tidak memiliki fleksibelitas dan tidak dapat mengimplementasi model yang lebih kompleks. Sedangkan reconfigurable memiliki infrence yang lebih lambat namun mampu mengimplementasi dan mengubah model yang lebih kompleks tanpa perlu adanya sintesis ulang perangkat keras.