digilib@itb.ac.id +62 812 2508 8800

ABSTRAK Anthony
PUBLIC Dwi Ary Fuziastuti

Ringkasan adalah penyajian tulisan dalam bentuk yang lebih singkat dan tetap mengandung informasi penting dari tulisan tersebut. Membaca artikel beserta ringkasan dapat membantu manusia untuk memahami isi artikel secara efisien dan efektif. Tetapi, membuat ringkasan artikel yang abstraktif membutuhkan waktu dan sumber daya manusia dengan keterampilan di atas batas tertentu. Tugas akhir ini bertujuan untuk membuat program peringkasan abstraktif berita Indonesia dengan PEGASUS. PEGASUS adalah model pembelajaran mendalam dengan arsitektur Transformer enkoder-dekoder yang digunakan untuk meringkas teks secara abstraktif. Transformer enkoder-dekoder memiliki keunggulan dalam mengolah data teks karena menggunakan mekanisme atensi, yaitu mekanisme memproses data yang terinspirasi dari proses atensi manusia. Sebanyak 5,670,868 artikel berita Indonesia tanpa ringkasan dan 357,499 artikel berita Indonesia dengan ringkasan dari berbagai sumber digunakan untuk melatih model PEGASUS. Model PEGASUS dilatih dengan objektif pre-training khusus Gap Sentence Generation. Proses Gap Sentence Generation membantu model untuk mengidentifikasi kalimat penting pada artikel. Performa model secara kuantitatif dievaluasi menggunakan metrik ROUGE-1, ROUGE- 2 dan ROUGE-L. Model PEGASUS pada tugas akhir ini berhasil meraih nilai ROUGE- 1 F1/ROUGE-2 F1/ROUGE-L F1 sebesar 52.43/41.23/48.18 pada dataset uji IndoSum, 38.27/20.22/31.26 pada dataset uji Liputan6, 26.97/9.99/21.70 pada dataset uji XLSum. Sedangkan, performa model secara kualitatif dievaluasi dengan meninjau sampel ringkasan artikel pada dataset dan hasil ringkasan artikel berita terbaru dan artikel nonberita. Hasil evaluasi menunjukkan bahwa model PEGASUS berhasil menghasilkan ringkasan artikel yang koheren dan ringkas. Secara keseluruhan, kemampuan model PEGASUS dalam menghasilkan ringkasan sudah setara dengan kemampuan manusia pada umumnya.