digilib@itb.ac.id +62 812 2508 8800

Data Mining atau Penambangan Data adalah proses untuk mendapatkan pola dan pengetahuan yang didapatkan dari data (Han dkk., 2012). Proses ini dapat membantu pengguna karena dapat digunakan sebagai pertimbangan untuk menentukan langkah bisnis selanjutnya. Namun, hasil prediksi yang dihasilkan tidak dapat diandalkan 100%. Salah satu alasannya karena hasil prediksi berkemungkinan tidak adil. Ketidakadilan ini dapat terjadi karena data pelatihan mengandung informasi sensitif. Pola yang didapat dari pelatihan tersebut dipengaruhi oleh informasi sensitif yang menyebabkan diskriminasi terhadap informasi sensitif tersebut. Dengan begitu, hasil ini berkemungkinan merugikan pihak terkait karena terjadi diskriminasi Sistem inilah yang disebut Unfair AI. Beberapa cara yang telah diusulkan oleh berbagai peneliti untuk menangani kasus AI unfairness berupa teknik pada tahap preprocessing, inprocessing, dan postprocessing. Penelitian ini difokuskan pada tahap preprocessing Fairness AI dalam Binary Label Dataset. Tujuannya agar atribut sensitif dalam dataset dapat ditangani sebelum tahap pelatihan sehingga tingkat diskriminasi berkurang. Teknik preprocessing Fairness AI yang digunakan pada penelitian ini terdiri dari teknik Uniform Sampling, Preferential Sampling, Preferential Sampling, Massaging the Dataset, Reweighing, Suppression, dan empat teknik modifikasi dari Suppression. Berdasarkan hasil dari penelitian ini, diketahui bahwa teknik Uniform Sampling, Massaging the Dataset, dan Reweighing cenderung mengurangi tingkat diskriminasi. Namun demikian, keenam teknik preprocessing Fairness AI lainnya masih dapat digunakan untuk mengurangi tingkat keadilan walaupun hasilnya tidak selalu lebih baik. Berdasarkan hasil tersebut, dapat diketahui bahwa tidak ada teknik yang paling cocok untuk semua dataset sehingga kesembilan teknik tersebut tetap perlu digunakan untuk mencari teknik mana yang cocok untuk dataset tertentu yang akan digunakan.