Pengenalan Entitas Bernama Menggunakan Bi-LSTM pada Chatbot Bahasa Indonesia
Autor: | Anshar Zulhilmi, Rizal Perdana, Indriati |
---|---|
Jazyk: | indonéština |
Rok vydání: | 2024 |
Předmět: | |
Zdroj: | Jurnal Teknologi Informasi dan Ilmu Komputer, Vol 11, Iss 5 (2024) |
Druh dokumentu: | article |
ISSN: | 2355-7699 2528-6579 |
DOI: | 10.25126/jtiik.1077968 |
Popis: | Institusi publik perlu mengitegrasikan e-government ke dalam struktur pengelolaan mereka. Sistem pelayanan terpadu harus dapat menyelesaikan masalah yang dihadapi oleh pengguna layanan. Apabila sistem pelayanan terpadu hanya mengandalkan manusia, maka sistem pelayanan terpadu dapat terhambat. Chatbot adalah salah satu solusi untuk menggantikan peran manusia dalam sistem pelayanan terpadu. Salah satu komponen pada chatbot adalah pengenalan entitas bernama. Pada penelitian ini, pengenalan entitas bernama dilakukan dalam beberapa tahap. Tahapan-tahapan tersebut antara lain penghilangan noise, pelabelan data, pembuatan kamus kata dan label, encoding urutan dan pemisahan data, inisiasi model, dan pelatihan model. Model yang digunakan yakni bidirectional long-short term memory. Skor F1 terbaik yang didapat dari pengujian adalah 87,44% dengan hyperparameter jumlah layer sebanyak 2, hidden size sebanyak 100, dan learning rate sebesar 0,01. Kemudian, penambahan jumlah layer maupun hidden size kurang berpengaruh terhadap skor F1 yang dihasilkan oleh model. Learning rate memengaruhi seberapa cepat model mencapai solusi optimal. Abstract Public institutions must integrate e-government into their management structures. An integrated service system must be able to solve the problems faced by service users. If the integrated service system only relies on humans, then the integrated service system can be hampered. Chatbot is one of the solutions to replace the human role in an integrated service system. One component of the chatbot is named entity recognition. In this study, the named entity recognition was carried out in several stages. These stages include noise removal, data labeling, word and label dictionary creation, sequence encoding and data separation, model initiation, and model training. The model used is bidirectional long-short term memory. The best F1 score obtained from the test is 87.44% with hyperparameters of the number of layers of 2, hidden size of 100, and learning rate of 0.01. The addition of the number of layers and hidden size has little effect on the F1 score produced by the model. The learning rate affects how fast the model reaches the optimal solution. |
Databáze: | Directory of Open Access Journals |
Externí odkaz: |