TUNGKY, ANGELA GABRIELLE (2025) Implementasi Algoritma Embedding Statis dan Kontekstual BERT Dalam Sistem Penilaian Esai Otomatis Berbasis Kemiripan Semantik = Implementation of Static and Contextual Embedding Algorithms BERT in Semantic Similarity Based Automatic Essay Grading System. Skripsi thesis, Universitas Hasanuddin.
D121211055-SKRIPSI-COVER.jpg
Download (450kB) | Preview
D121211055-SKRIPSI-BAB 1-2.pdf
Download (676kB)
D121211055-SKRIPSI-DAPUS.pdf
Download (207kB)
D121211055-SKRIPSI-FULL TEXT.pdf
Restricted to Repository staff only until 19 February 2027.
Download (4MB)
Abstract (Abstrak)
ANGELA GABRIELLE TUNGKY. Implementasi Algoritma Embedding Statis dan Kontekstual BERT Dalam Sistem Penilaian Esai Otomatis Berbasis Kemiripan Semantik (dibimbing oleh Christoforus Yohannes). Latar Belakang. Esai merupakan metode penilaian yang efektif untuk mengukur kemampuan berpikir kritis siswa, namun penilaian manual cenderung memakan waktu dan subjektif. Tujuan. Penelitian ini bertujuan untuk membandingkan kinerja embedding statis (Word2Vec, FastText) dengan embedding kontekstual berbasis deep learning (BERT) dalam mengukur kemiripan semantik antara jawaban siswa dan kunci jawaban dalam bahasa Indonesia dan Inggris. Metode. Penelitian menggunakan embedding statis dengan ekstraksi fitur (Average Cosine Similarity, smooth inverse frequency, Word Mover’s Distance) dan embedding kontekstual dengan BERT. Evaluasi model dilakukan menggunakan Mean Absolute Error (MAE), Root Mean Square Error (RMSE), dan korelasi Pearson. Hasil. Pada dataset uji, BERT menunjukkan performa terbaik. Untuk bahasa Inggris, BERT menghasilkan RMSE 0.1337, MAE 0.0948, dan Pearson 0.8242, sementara untuk Bahasa Indonesia, RMSE 0.1668, MAE 0.1119, dan Pearson 0.9012. Embedding statis dengan kombinasi FastText-AvgCos-Linear memberikan RMSE 0.20396, MAE 0.1587, dan Pearson 0.5187 untuk bahasa Inggris, sedangkan FastText-WMD-SVR menghasilkan RMSE 0.203961, MAE 0.1445, dan Pearson 0.8407 untuk bahasa Indonesia. Hasil optimum juga diperoleh dari model pretrained Word2Vec-WMD-SVR 70:15:15 pada data uji dengan MAE 0.1602, RMSE 0.205183, dan Pearson 0.8416. Pada dataset baru, Word2Vec-AvgCos-RFR unggul dengan RMSE 1.3553, MAE 1.0930, dan Pearson 0.1983, sedangkan BERT mengalami overfitting. Namun, skenario tanpa fine-tuning meningkatkan performa BERT dengan RMSE 0.3225, MAE 0.2483, dan Pearson -0.1997. Kesimpulan. Kesimpulannya, BERT unggul pada dataset latih tetapi rentan terhadap overfitting. Dengan penyesuaian tanpa fine-tuning, performa BERT dapat lebih optimal, sementara embedding statis menunjukkan performa baik pada dataset baru dengan kombinasi model yang bervariasi tergantung pada karakteristik data.
| Item Type: | Thesis (Skripsi) |
|---|---|
| Uncontrolled Keywords: | penilaian esai otomatis; word embedding; BERT; Word2Vec; FastText; kemiripan semantik |
| Subjects: | Q Science > QA Mathematics > QA75 Electronic computers. Computer science |
| Divisions (Program Studi): | Fakultas Teknik > Teknik Informatika |
| Depositing User: | Unnamed user with username pkl2 |
| Date Deposited: | 05 Mar 2026 02:32 |
| Last Modified: | 05 Mar 2026 02:32 |
| URI: | http://repository.unhas.ac.id:443/id/eprint/54385 |
