digilib@itb.ac.id +62 812 2508 8800

Dokumen Asli
Terbatas  Dessy Rondang Monaomi
» Gedung UPT Perpustakaan

Strategi cache eviction yang adaptif menjadi semakin penting seiring dengan meningkatnya dinamika beban kerja pada sistem penyimpanan modern. Salah satu pendekatan yang telah dikembangkan untuk menangani hal ini adalah GL-Cache, sebuah algoritma eviction berbasis machine learning yang melakukan pelatihan ulang model setiap hari. Namun, pendekatan ini memiliki keterbatasan dalam menghadapi pola akses yang berubah dengan cepat atau berulang. Penelitian ini mengusulkan strategi manajemen model yang melengkapi GL-Cache dengan tiga strategi, yaitu Matchmaker, Accuracy-Updated Ensemble (AUE), dan DriftSurf. Ketiga strategi ini memungkinkan penyimpanan, pembobotan, maupun penggantian model yang digunakan untuk inferensi secara dinamis. Skema diimplementasikan menggunakan LibCacheSim dan dievaluasi pada 2.103 jejak block-I/O dari tiga dataset: Alibaba (? 9 hari), CloudPhysics (? 7 hari), dan Tencent (± 1 bulan). Dua skenario kapasitas cache digunakan, yaitu kecil (0.1% dari working set) dan besar (10%). Evaluasi dilakukan berdasarkan nilai perbaikan miss ratio serta overhead dari strategi. Signifikansi statistik dianalisis menggunakan uji Wilcoxon satu arah dengan ambang ? = 0.05. Hasil eksperimen menunjukkan bahwa pada cache 0.1%, Matchmaker memberikan peningkatan yang signifikan secara statistik (p < 0.05) di semua dataset. Selain itu, seluruh strategi juga menunjukkan perbaikan signifikan pada dataset Tencent yang berdurasi lebih panjang. Namun, ketika ukuran cache diperbesar menjadi 10%, keunggulannya menjadi kurang signifikan. Analisis menunjukkan bahwa overhead yang dihasilkan dari deployment strategi secara praktis tidak berdampak pada tier berbasis HDD, namun lebih sensitif untuk sistem yang didukung SSD