digilib@itb.ac.id +62 812 2508 8800

Kadek Denaya Rahadika Diana [23521027].pdf
PUBLIC Dessy Rondang Monaomi

Dalam era perkembangan teknologi yang pesat, informasi yang melimpah dari internet dapat menyebabkan information overload. Untuk mengatasi masalah ini, domain penelitian text summarization dikembangkan dengan tujuan mengekstrak intisari dari suatu dokumen. Saat ini, pendekatan neural network dalam text summarization bertipe ekstraktif dengan teknik deep learning telah mengungguli pendekatan lain. Namun, terdapat masalah diskrepansi antara objektif pelatihan model yaitu cross entropy loss dengan metriks evaluasi model, yaitu ROUGE. Untuk mengatasi perbedaan ini, beberapa penelitian menggunakan pendekatan reinforcement learning. Contohnya adalah REFRESH. REFRESH secara langsung menggunakan ROUGE sebagai salah satu komponen dalam fungsi objektif dalam pelatihan model. Namun, dalam implementasi REFRESH, terdapat permasalahan long-distance dependency yang disebabkan oleh penggunaan CNN sebagai sentence encoder. Maka dari itu, penelitian ini mengusulkan pemanfaatan SentenceBERT (SBERT) sebagai sentence encoder alternatif pengganti CNN dalam REFRESH. SBERT adalah sebuah model berbasis transformer yang mampu menghasilkan representasi vektor sebuah kalimat yang bermakna secara semantik dan mampu mengatasi permasalahan long-distance dependency. Namun, saat ini belum ada SBERT untuk Bahasa Indonesia. Penelitian ini menyajikan dua kontribusi utama. Pertama, dikembangkan model sentence embedding khusus untuk Bahasa Indonesia, yang disebut IndoSBERT, yang dilatih dengan menggunakan arsitektur jaringan siamese network terhadap tugas Semantic Textual Similarity yang mampu menghasilkan representasi kalimat Bahasa Indonesia yang bermakna secara semantik. Model ini akan digunakan dalam REFRESH sebagai pengganti CNN untuk bagian sentence encoder, dalam rangka menghindari masalah long distance dependency. Kedua, dikembangkan REFRESH untuk Bahasa Indonesia dengan memanfaatkan IndoSBERT yang sudah dibuat sebelumnya. Model IndoSBERT menunjukkan peningkatan kinerja dalam tugas Semantic Textual Similarity dibandingkan dengan model IndoBERT dan beberapa model multilingual lainnya, dengan nilai Spearman Rank Correlation Score 0.856. Dalam pengujian model REFRESH, penggunaan IndoSBERT sebagai sentence embedding juga menghasilkan skor ROUGE yang lebih tinggi dibandingkan dengan penggunaan CNN sebagai sentence embedding. IndoSBERT-REFRESH menghasilkan nilai ROUGE-1 0.324, lebih baik dari CNN-REFRESH dengan nilai ROUGE-1 0.273.