Dokumen Asli
Terbatas  Dessy Rondang Monaomi
» Gedung UPT Perpustakaan
Terbatas  Dessy Rondang Monaomi
» Gedung UPT Perpustakaan
Strategi cache eviction yang adaptif menjadi semakin penting seiring dengan
meningkatnya dinamika beban kerja pada sistem penyimpanan modern. Salah satu
pendekatan yang telah dikembangkan untuk menangani hal ini adalah GL-Cache,
sebuah algoritma eviction berbasis machine learning yang melakukan pelatihan ulang
model setiap hari. Namun, pendekatan ini memiliki keterbatasan dalam menghadapi
pola akses yang berubah dengan cepat atau berulang. Penelitian ini mengusulkan
strategi manajemen model yang melengkapi GL-Cache dengan tiga strategi, yaitu
Matchmaker, Accuracy-Updated Ensemble (AUE), dan DriftSurf. Ketiga strategi ini
memungkinkan penyimpanan, pembobotan, maupun penggantian model yang
digunakan untuk inferensi secara dinamis.
Skema diimplementasikan menggunakan LibCacheSim dan dievaluasi pada 2.103
jejak block-I/O dari tiga dataset: Alibaba (? 9 hari), CloudPhysics (? 7 hari), dan
Tencent (± 1 bulan). Dua skenario kapasitas cache digunakan, yaitu kecil (0.1% dari
working set) dan besar (10%). Evaluasi dilakukan berdasarkan nilai perbaikan miss
ratio serta overhead dari strategi. Signifikansi statistik dianalisis menggunakan uji
Wilcoxon satu arah dengan ambang ? = 0.05.
Hasil eksperimen menunjukkan bahwa pada cache 0.1%, Matchmaker memberikan
peningkatan yang signifikan secara statistik (p < 0.05) di semua dataset. Selain itu,
seluruh strategi juga menunjukkan perbaikan signifikan pada dataset Tencent yang
berdurasi lebih panjang. Namun, ketika ukuran cache diperbesar menjadi 10%,
keunggulannya menjadi kurang signifikan. Analisis menunjukkan bahwa overhead
yang dihasilkan dari deployment strategi secara praktis tidak berdampak pada tier
berbasis HDD, namun lebih sensitif untuk sistem yang didukung SSD
Perpustakaan Digital ITB