32 Bab IV Hasil dan Pembahasan IV.1 Pelatihan Model Pada tahap pelatihan ini, tiga model Machine Learning diterapkan, yaitu Artificial Neural Network (ANN), Convolutional Neural Network (CNN), dan Recurrent Neural Network (RNN). IV.1.1 Pelatihan Model ANN Arsitektur ANN yang digunakan dirancang untuk memproses data tabular atau non- sekuensial. Input model didefinisikan melalui parameter input_shape, yang sesuai dengan jumlah fitur pada data training. Model ini terdiri dari tiga lapisan tersembunyi (hidden layers), masing-masing dengan 128, 64, dan 32 neuron, yang menggunakan fungsi aktivasi ReLU untuk menangkap hubungan non-linear antara fitur. Lapisan keluaran (output layer) memiliki satu neuron tanpa fungsi aktivasi, karena model ditujukan untuk tugas predksi yang menghasilkan nilai kontinu, yaitu berupa nila prediksi nilai HOMO-LUMO gap (eV). Model dikompilasi menggunakan optimizer Adam untuk pembaruan bobot yang cepat dan stabil, Dengan fungsi kehilangan Mean Squared Error (MSE) untuk mengukur kesalahan prediksi, serta metrik evaluasi seperti Mean Absolute Error (MAE), Root Mean Squared Error (RMSE), dan R-squared dan model dievaluasi secara menyeluruh. Arsitektur ini cocok untuk tugas prediktif berbasis fitur numerik yang memerlukan analisis hubungan non-linear, dengan konfigurasi sederhana namun efektif. Pada model ANN, dilakukan fine-tuning dengan konfigurasi hyperparameter yang berbeda untuk meningkatkan performa model. Hal ini bertujuan untuk menemukan kombinasi parameter pelatihan yang paling optimal sehingga model dapat mempelajari pola data dengan baik tanpa mengalami overfitting atau underfitting. Pada proses ini, jumlah epoch yang diuji adalah 100, 200, 300, 400, dan 500, dengan variasi parameter pembelajaran (learning rate) sebesar 0,01, 0,001, dan 0,0001. Setiap kombinasi konfigurasi hyperparameter diuji secara sistematis, dan kinerjanya dievaluasi menggunakan metrik MAE. Tabel IV.1 menunjukkan hasil MAE untuk setiap konfigurasi pada pelatihan. 33 Tabel IV.1 Hasil Mean Absolute Error (MAE) untuk Konfigurasi Epoch dan Learning Rate pada Pelatihan Model ANN. Learning Rate Epoch 100 200 300 400 500 0,01 0,2121 0,1819 0,1657 0,1783 0,1308 0,001 0,1822 0,1536 0,1374 0,1276 0,1162 0,0001 0,1304 0,0995 0,0836 0,0831 0,0608 Tabel IV.1 menunjukkan hasil Mean Absolute Error (MAE) untuk setiap konfigurasi pelatihan. Berdasarkan tabel tersebut, MAE menunjukkan penurunan seiring bertambahnya jumlah epoch, terutama pada learning rate yang lebih kecil seperti 0,0001, yang memberikan hasil pelatihan paling stabil dengan MAE terendah pada 500 epoch. Namun, learning rate yang lebih tinggi seperti 0,01 menghasilkan MAE yang lebih fluktuatif, menunjukkan pelatihan yang kurang stabil. Hasil analisis ini membantu dalam menentukan konfigurasi hyperparameter yang paling efektif untuk memastikan model ANN bekerja secara optimal dalam memprediksi nilai HOMO-LUMO gap. IV.1.2 Pelatihan Model CNN Arsitektur CNN yang digunakan dirancang untuk memproses data numerik sekuensial guna melakukan prediksi berbasis data tersebut. Model dibangun menggunakan kerangka kerja TensorFlow/Keras dan dimulai dengan mendefinisikan bentuk input melalui variabel input_shape, yang menggambarkan jumlah fitur dalam data setelah preprocessing dan satu fitur per elemen sekuens. Model diimplementasikan secara berurutan menggunakan keras.Sequential, dimulai dengan lapisan input yang menerima data sesuai dengan bentuk yang telah ditentukan. Lapisan berikutnya adalah Conv1D, yang memiliki 32 filter dan ukuran kernel 3, bertugas menangkap pola lokal dalam data sekuensial. Fungsi aktivasi ReLU diterapkan untuk memperkenalkan non-linearitas, yang penting untuk mempelajari hubungan kompleks antar fitur. Setelah itu, lapisan MaxPooling1D dengan ukuran pool 2 digunakan untuk mereduksi dimensi data, sehingga membantu mengurangi kompleksitas dan risiko overfitting. Selanjutnya, data yang telah diproses oleh 34 lapisan konvolusi diratakan menggunakan Flatten, yang mengubah data menjadi vektor 1 dimensi agar kompatibel dengan lapisan dense. Kemudian, lapisan dense dengan 64 neuron dan fungsi aktivasi ReLU digunakan untuk memproses fitur lebih lanjut. Lapisan terakhir adalah lapisan output dengan satu neuron, yang menghasilkan nilai kontinu sebagai hasil prediksi, sesuai dengan tugas regresi. Model ini dikompilasi dengan optimizer Adam, yang dikenal karena efisiensinya dalam memperbarui bobot secara adaptif, serta fungsi Mean Squared Error (MSE) untuk mengukur kesalahan prediksi, serta metrik evaluasi seperti Mean Absolute Error (MAE), Root Mean Squared Error (RMSE), dan R-squared. Dengan arsitektur ini, model memiliki kemampuan untuk mengenali pola dalam data sekuensial dan menghasilkan prediksi akurat. Desainnya yang seimbang antara efisiensi dan kompleksitas memastikan model dapat mempelajari pola yang relevan tanpa risiko overfitting, menjadikannya solusi yang sesuai untuk tugas prediksi yaitu estimasi nilai HOMO-LUMO gap. Pada model CNN, dilakukan fine-tuning dengan berbagai konfigurasi hyperparameter untuk meningkatkan performa model. Tujuannya adalah menemukan kombinasi parameter pelatihan yang optimal sehingga model mampu mempelajari pola data secara efektif tanpa mengalami overfitting atau underfitting. Dalam proses ini, jumlah epoch yang diuji meliputi 100, 200, 300, 400, dan 500, dengan variasi learning rate sebesar 0,01, 0,001, dan 0,0001. Setiap kombinasi konfigurasi hyperparameter diuji secara sistematis, dan performa model dievaluasi menggunakan metrik MAE. Hasil evaluasi MAE untuk setiap konfigurasi ditampilkan dalam Tabel IV.2. Tabel IV.2 Hasil Mean Absolute Error (MAE) untuk Konfigurasi Epoch dan Learning Rate pada Pelatihan Model CNN. Learning Rate Epoch 100 200 300 400 500 0,01 0,1227 0,1146 0,0608 0,0506 0,0459 0,001 0,0922 0,0701 0,0550 0,0386 0,0293 0,0001 0,0495 0,0448 0,0430 0,0445 0,0359 35 Tabel IV.2 menunjukkan hasil evaluasi performa model CNN berdasarkan metrik MAE untuk berbagai konfigurasi learning rate (0,01, 0,001, dan 0,0001) pada jumlah epoch tertentu (100, 200, 300, 400, dan 500). Dengan learning rate 0,01, model menunjukkan penurunan MAE secara signifikan pada awal pelatihan, tetapi nilai MAE tetap lebih tinggi dibandingkan konfigurasi lainnya setelah 500 epoch, yaitu sebesar 0,0459. Untuk learning rate 0,001, model menghasilkan nilai MAE yang lebih rendah pada setiap epoch dibandingkan 0,01, dengan hasil terbaik pada epoch 500 sebesar 0,0293, menunjukkan konvergensi yang baik. Pada learning rate 0,0001, MAE mulai dari nilai yang relatif kecil yaitu 0,0495 dan menurun secara perlahan. Setelah 500 epoch, nilai MAE mencapai 0,0359, yang meskipun stabil, masih sedikit lebih tinggi dibandingkan konfigurasi 0,001. Dari hasil ini, dapat disimpulkan bahwa learning rate 0,001 dan epoch 500 memberikan keseimbangan terbaik antara kecepatan konvergensi dan hasil akhir, menjadikannya pilihan optimal untuk pelatihan model CNN dalam studi ini. IV.1.3 Pelatihan Model RNN Arsitekur yang digunakan merupakan Recurrent Neural Network (RNN) sederhana dengan lapisan SimpleRNN yang dirancang untuk memproses data sekuensial seperti SMILES. Model ini memiliki tiga lapisan utama yaitu lapisan pertama adalah SimpleRNN dengan 64-unit dan fungsi aktivasi ReLU, yang bertugas memproses data secara berurutan dan menangkap hubungan temporal antar langkah waktu. Lapisan kedua adalah lapisan Dense dengan 32 neuron, menggunakan fungsi aktivasi ReLU untuk menangkap pola non-linear dari keluaran RNN. Lapisan terakhir adalah Dense dengan satu neuron tanpa fungsi aktivasi, menghasilkan output kontinu berupa nilai target, yaitu HOMO-LUMO gap. Model ini dikompilasi dengan optimizer Adam, yang menggabungkan kecepatan konvergensi dan stabilitas, serta menggunakan fungsi Mean Squared Error (MSE) untuk mengukur kesalahan prediksi, serta metrik evaluasi seperti Mean Absolute Error (MAE), Root Mean Squared Error (RMSE), dan R-squared. Pada model RNN, dilakukan proses fine-tuning dengan berbagai konfigurasi hyperparameter untuk meningkatkan kinerja model. Proses ini bertujuan untuk 36 menentukan kombinasi parameter pelatihan yang paling optimal agar model dapat mempelajari pola dalam data secara efisien tanpa mengalami overfitting atau underfitting. Dalam eksperimen ini, jumlah epoch yang diuji adalah 100, 200, 300, 400, dan 500, dengan variasi learning rate sebesar 0,01, 0,001, dan 0,0001. Setiap kombinasi konfigurasi hyperparameter diujikan secara sistematis, dan performanya diukur menggunakan metrik Mean Absolute Error (MAE).