1. Trang chủ
  2. » Luận Văn - Báo Cáo

(Luận án tiến sĩ) nghiên cứu một số bài toán trong hỏi đáp cộng đồng

128 2 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

BỘ GIÁO DỤC VÀ ĐÀO TẠO TRƯỜNG ĐẠI HỌC BÁCH KHOA HÀ NỘI HÀ THỊ THANH NGHIÊN CỨU MỘT SỐ BÀI TOÁN TRONG HỎI ĐÁP CỘNG ĐỒNG LUẬN ÁN TIẾN SĨ HỆ THỐNG THÔNG TIN HÀ NỘI−2021 luan an BỘ GIÁO DỤC VÀ ĐÀO TẠO TRƯỜNG ĐẠI HỌC BÁCH KHOA HÀ NỘI HÀ THỊ THANH NGHIÊN CỨU MỘT SỐ BÀI TỐN TRONG HỎI ĐÁP CỘNG ĐỒNG Ngành: Hệ thống thơng tin Mã số: 9480104 LUẬN ÁN TIẾN SĨ HỆ THỐNG THÔNG TIN TẬP THỂ HƯỚNG DẪN KHOA HỌC: PGS.TS NGUYỄN THỊ KIM ANH TS NGUYỄN KIÊM HIẾU HÀ NỘI−2021 luan an LỜI CAM ĐOAN Tôi xin cam đoan kết trình bày luận án cơng trình nghiên cứu thân nghiên cứu sinh thời gian học tập nghiên cứu Đại học Bách khoa Hà Nội hướng dẫn tập thể hướng dẫn khoa học Các số liệu, kết trình bày luận án hồn tồn trung thực Các kết sử dụng tham khảo trích dẫn đầy đủ theo quy định Hà Nội, ngày tháng năm 2021 Nghiên cứu sinh Hà Thị Thanh TẬP THỂ HƯỚNG DẪN KHOA HỌC PGS.TS Nguyễn Thị Kim Anh luan an TS Nguyễn Kiêm Hiếu LỜI CẢM ƠN Trong q trình nghiên cứu hồn thành luận án này, nghiên cứu sinh nhận nhiều giúp đỡ đóng góp quý báu Đầu tiên, nghiên cứu sinh xin bày tỏ lòng biết ơn sâu sắc tới tập thể hướng dẫn: PGS.TS Nguyễn Thị Kim Anh TS Nguyễn Kiêm Hiếu Các thầy cô ln ln tận tình hướng dẫn, bảo, giúp đỡ động viên nghiên cứu sinh suốt trình nghiên cứu Nghiên cứu sinh xin chân thành cảm ơn thầy cô Bộ môn Hệ thống thông tin Phịng thí nghiệm Khoa học liệu, Viện Cơng nghệ thông tin truyền thông - Trường Đại học Bách khoa Hà Nội, nơi nghiên cứu sinh học tập tạo điều kiện cho nghiên cứu sinh tham gia nghiên cứu suốt thời gian học tập Trong thời gian này, nghiên cứu sinh nhận nhiều kiến thức kinh nghiệm từ thầy cô bạn sinh viên lab đặc biệt nhóm nghiên cứu Nghiên cứu sinh xin chân thành cảm ơn Phòng Đào tạo - Trường Đại học Bách Khoa Hà Nội tạo điều kiện để nghiên cứu sinh hồn thành thủ tục bảo vệ luận án tiến sĩ Nghiên cứu sinh cảm ơn trường ĐH CNTT&TT Thái Nguyên - nơi NCS làm việc, tạo điều kiện thời gian hỗ trợ học phí cho nghiên cứu sinh tham gia học tập nghiên cứu trường ĐH Bách Khoa Hà Nội Nghiên cứu sinh xin cảm ơn chương trình 911 Công ty TNHH Đầu tư Phát triển thị Gia Lâm thuộc Tập đồn Vingroup hỗ trợ Quỹ Đổi sáng tạo Vingroup (VINIF) Dự án mã số VINIF.2019.DA18 tài trợ cho NCS thời gian nghiên cứu thực luận án Cuối cùng, nghiên cứu sinh xin gửi lời cảm ơn sâu sắc tới gia đình, bạn bè đồng nghiệp động viên, giúp đỡ nghiên cứu sinh, giúp nghiên cứu sinh yên tâm nghiên cứu vượt qua khó khăn để hoàn thành luận án luan an MỤC LỤC DANH MỤC CÁC TỪ VIẾT TẮT VÀ THUẬT NGỮ iv DANH MỤC HÌNH VẼ vi DANH MỤC BẢNG viii DANH MỤC KÝ HIỆU TOÁN HỌC x MỞ ĐẦU CHƯƠNG TỔNG QUAN VỀ HỆ THỐNG HỎI ĐÁP VÀ CÁC KIẾN THỨC NỀN TẢNG 1.1 Hệ thống hỏi đáp 1.1.1 Định nghĩa hệ thống hỏi đáp 1.1.2 Kiến trúc hệ thống QA 1.1.3 Các cách tiếp cận tới hệ thống QA 1.1.4 Thách thức hệ thống QA 12 1.2 Hỏi đáp cộng đồng 13 1.2.1 Kiến trúc hệ thống CQA 14 1.2.2 So sánh hệ thống QA CQA 15 1.3 Các toán hệ thống hỏi đáp cộng đồng CQA 16 1.3.1 Xác định chất lượng câu trả lời 16 1.3.2 Bài tốn tìm câu hỏi tương đồng 18 1.4 Thách thức hệ thống hỏi đáp CQA 18 1.5 Tập liệu hỏi đáp 19 1.6 Kiến thức tảng học sâu 22 1.6.1 Mơ hình mạng truy hồi 23 1.6.2 Mơ hình LSTM 24 1.6.3 Mơ hình mạng tích chập 25 1.6.4 Cơ chế ý 27 1.6.5 Mơ hình Transformer 29 1.6.6 Học biểu diễn từ nhúng 31 1.7 Kết luận chương 34 i luan an CHƯƠNG BÀI TOÁN LỰA CHỌN CÂU TRẢ LỜI ĐÚNG TRONG HỆ THỐNG HỎI ĐÁP CỘNG ĐỒNG 36 2.1 Giới thiệu 36 2.2 Các cơng trình liên quan 39 2.2.1 Các nghiên cứu toán lựa chọn câu trả lời 39 2.2.2 Các nghiên cứu dựa vào chế ý NLP 44 2.2.3 Các nghiên cứu chế ý có giám sát tốn NLP 44 2.3 Mơ hình đề xuất 44 2.3.1 Mơ hình match-LSTM 45 2.3.2 Mở rộng mơ hình 46 2.3.3 Cơ chế ý có giám sát 48 2.4 Các thử nghiệm kết 49 2.4.1 Tập liệu 49 2.4.2 Chọn tham số mơ hình 50 2.4.3 Kết thảo luận 51 2.4.4 Trực quan hóa trọng số ý 54 2.5 Kết luận chương 55 CHƯƠNG BÀI TỐN TĨM TẮT CÂU TRẢ LỜI TRONG HỆ THỐNG HỎI ĐÁP CỘNG ĐỒNG 57 3.1 Giới thiệu 57 3.2 Các cơng trình liên quan 59 3.3 Mơ hình tóm tắt câu trả lời cho câu hỏi non-factoid 60 3.3.1 Biểu diễn câu 61 3.3.2 Trích rút tóm tắt 64 3.4 Đánh giá mơ hình 65 3.4.1 Tập liệu 65 3.4.2 Thiết lập thử nghiệm 66 3.4.3 Kết thực nghiệm 66 3.5 Kết luận chương 70 CHƯƠNG BÀI TỐN TÌM CÂU HỎI TƯƠNG ĐỒNG TRONG HỆ THỐNG HỎI ĐÁP CỘNG ĐỒNG 71 4.1 Giới thiệu 72 ii luan an 4.2 Các cơng trình liên quan 74 4.3 Tập liệu 76 4.4 Mơ hình BERT cho tốn tìm kiếm câu hỏi tương đồng 78 4.4.1 Mơ hình BERT 78 4.4.2 BERT cho tốn tìm kiếm câu hỏi tương đồng 79 4.4.3 Các kết thực nghiệm thảo luận 80 4.5 Mơ hình SBERT 88 4.5.1 Mô hình SBERT cho tốn tìm câu hỏi tương đồng 88 4.5.2 Các thử nghiệm kết 90 4.6 Kết luận chương 93 KẾT LUẬN 94 DANH MỤC CÁC CƠNG TRÌNH ĐÃ CƠNG BỐ 97 TÀI LIỆU THAM KHẢO 98 iii luan an (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong DANH MỤC CÁC TỪ VIẾT TẮT VÀ THUẬT NGỮ Viết tắt Tiếng Anh Tiếng Việt CQA Community Question Answering Hỏi đáp cộng đồng AQ Question Answering Hệ thống hỏi đáp MMR Maximal Marginal Relevance Thuật toán MMR MAP Mean Average Presision Độ đo MAP MRR Mean Reciprocal Rank Độ đo MRR LSTM Long Short - Term Memory Mô hình LSTM RNN Recurent Neural Network Mơ hình mạng truy hồi RNN AE Auto Encoder Mơ hình AE BERT Bidirectional Encoder Represen- Mơ hình biểu diễn mã hóa hai chiều tation from Transformers từ Transformer - Mơ hình BERT SBERT Sentence BERT Mơ hình SBERT NLP Natural Language Processing Xử lý ngôn ngữ tự nhiên tf.idf Term Frequency – Inverse Docu- Trọng số tf.idf ment Frequency BM25 Best Match25 Mô hình BM25 IR Information Retrieval Tìm kiếm thơng tin WE Word Embedding Từ nhúng PE Position Embedding Nhúng vị trí POS Part of Speech Gán nhãn từ loại NER Named Entity Recognition Nhận dạng thực thể có tên OOV Out Of Vocabulary Ngoài tập từ vựng LCS Longest Common Subsequence Dãy chung lớn ILP Interger Linear Programming Thuật toán ILP SemEval International workshop on Se- Hội thảo đánh giá ngữ nghĩa mantic Evaluation SNLI Stanford Natural Language Infer- Tập liệu suy diễn ngôn ngữ ence SVM Support Vector Machine Mơ hình máy véc tơ hỗ trợ SVM LDA Latent Dirichlet allocation Mơ hình chủ đề ẩn LDA CNN Covolutional Neural Network Mơ hình mạng tích chập CNN iv (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong luan an (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong ROUGE Recall-Oriented Understudy for Độ đo ROUGE Gisting Evaluation ROC Receiver Operating Characteris- Đường cong ROC tic AUC Area Under the Curve ABCNN Attention-Based Diện tích đường cong AUC Convolutional Mơ hình mạng tích chập dựa vào Neural Network chế ý - ABCNN v (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong luan an (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong DANH MỤC HÌNH VẼ 1.1 Kiến trúc chung hệ thống QA 1.2 Ví dụ hỏi đáp Yahoo!answer 14 1.3 Kiến trúc hệ thống CQA[1] 15 1.4 Mơ hình RNN 24 1.5 Mơ hình LSTM 25 1.6 Mơ hình CNN 26 1.7 Mơ hình attention tốn dịch máy Bahdanau 28 1.8 Mơ hình Transformer[2] 29 1.9 Q trình tính ý 31 1.10 Mơ hình CBOW Skip-gram [3] 33 2.1 Ví dụ câu hỏi câu trả lời tập liệu SemEval 2017 38 2.2 Một ví dụ chế ý theo từ học mơ hình match-LSTM Các từ chứa nội dung của câu hỏi câu trả lời có trọng số thấp Trong đó, hình (a), ý lại tập trung vào từ dừng từ ’not’ từ ’anyone’ câu hỏi lại từ quan trọng với câu trả lời tương ứng Hình (b) ý số từ câu hỏi lại tập trung vào phần chào hỏi câu trả lời 40 2.3 Mơ hình match-LSTM [4] cho tốn lựa chọn câu trả lời 45 2.4 Mơ hình mở rộng từ mơ hình match-LSTM cho toán lựa chọn câu trả lời 47 2.5 Một ví dụ minh họa trọng số ý học mơ hình matchLSTM kết hợp với chế ý có giám sát với cặp câu hỏi câu trả lời tốt 54 2.6 Một ví dụ trọng số ý học mơ hình match-LSTM kết hợp với chế ý có giám sát với cặp câu hỏi câu trả lời khơng tốt 55 3.1 Ví dụ câu hỏi, câu trả lời đoạn tóm tắt câu trả lời theo kiểu trích rút tập liệu Yahoo!Answer 58 vi (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong luan an (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong vào cách lấy mẫu Trong để thực hàm multiple negative cần phải tạo ngẫu nhiên nhiều mẫu negative từ câu hỏi gốc khác Các mẫu negative ngẫu nhiên thường không chứa câu chứa nhiều thách thức Các nghiên cứu hàm Triplet cho kết cao hàm Contrastive lấy mẫu ngẫu nhiên 4.6 Kết luận chương Tóm lại, chương luận án đặt số kết sau: • Mơ hình BERT điều chỉnh cho tốn tìm câu hỏi tương đồng liệu tiếng Việt với miền thương mại điện tử sử dụng từ nhúng huấn luyện miền liệu khác Kết cho thấy mơ hình BERT cho kết tốt mơ hình LSTM/CNN thơng thường Đặc biệt BERT4ECOMMERCE cho kết tốt sử dụng từ nhúng huấn luyện miền liệu với miền liệu tốn đích • Mơ hình SBERT đề xuất để học biểu diễn câu giúp giảm thời gian tìm kiếm câu hỏi Mơ hình SBERT đáp ứng u cầu người dùng tốt với thời gian nhanh nhiều lần so với mơ hình BERT Kết chương trình bày hai báo: "Utilizing BERT for Question Retrieval in Vietnamese E-commerce sites" hội thảo tính tốn ngơn ngữ thơng tin Châu Á Thái Bình Dương PACLIC20208 lần thứ 34 "Utilizing SBERT for Finding Similar Question in Community Question Answering" hội thảo KSE 2021 lần thứ 139 https://aclanthology.org/2020.paclic-1.11.pdf https://iisi.siit.tu.ac.th/KSE2021/front/show/program2 93 (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong luan an (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong KẾT LUẬN Trong luận án, số toán quan trọng hệ thống hỏi đáp cộng đồng nghiên cứu toán lựa chọn câu trả lời tốt nhất, toán tóm tắt câu trả lời tốn tìm câu hỏi tương đồng Luận án trình bày chi tiết tiếp cận giải toán sở đề xuất số mơ hình phù hợp để giải toán hệ thống hỏi đáp CQA Tính hiệu mơ hình đề xuất xem xét khía cạnh thực nghiệm giải thích thực nghiệm A Kết đạt luận án Với kết cấu luận án gồm chương, kết đạt luận án tóm tắt sau: (1) Luận án đề xuất cách kết hợp mơ hình học sâu match-LSTM với chế ý có giám sát để giải tốn lựa chọn câu trả lời Mơ hình mơ hình học sâu mạng nơ ron dựa vào chế ý theo từ giúp học trọng số ý từ câu trả lời với từ câu hỏi Mơ hình đề xuất học ma trận trọng số ý tốt so với mơ hình gốc tập liệu mạng xã hội Đồng thời mơ hình đề xuất giúp cho tốn dự đốn tốt mơ hình gốc cho kết tương đương với đội tốt thi Semeval 2017 tốn tìm câu trả lời hệ thống CQA (2) Tiếp theo chủ đề đảm bảo chất lượng câu trả lời, tốn tóm tắt câu trả lời xem xét giải Phương pháp tóm tắt sử dụng mơ hình học khơng giám sát để biểu diễn câu thuật tốn MMR trích rút tập tóm tắt đề xuất để giải toán Phương pháp biểu diễn câu mơ hình khơng giám sát cho kết tương tương với phương pháp biểu diễn câu có giám sát (3) Để tiếp cận tốn tìm câu hỏi tương đồng, mơ hình BERT4ECOMMERCE thực tập liệu tiếng Việt miền thương mại điện tử Mơ hình BERT điều chỉnh tốn tìm câu hỏi tương đồng sử dụng từ nhúng huấn luyện nguồn liệu tiếng Việt khác Kết cho thấy liệu tốn đích với liệu pha tiền huấn luyện miền thương mại điện tử Thế giới di động cho kết 94 (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong luan an (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong tốt Nhìn chung mơ hình BERT cho kết tốt hẳn so với mô hình học sâu khác Đồng thời chương này, mơ hình SBERT đề xuất để giải tốn tìm câu hỏi tương đồng với mục đích rút ngắn thời gian suy diễn từ O(m.n) xuống O(m) Mơ hình giúp cho hệ thống đáp ứng u cầu thời gian phản hồi lại người dùng tốt Các mơ hình đề xuất đáp ứng tốt yêu cầu toán hệ thống CQA Các mơ hình triển khai áp dụng trực tiếp vào hệ thống CQA B Định hướng phát triển Trong luận án, mơ hình đề xuất để giải số toán hỏi đáp cộng đồng Các mơ hình cho thấy phù hợp hiệu liệu cộng đồng Tuy nhiên cải tiến thực liệu CQA khác Một số công việc sau tiếp tục thực tương lai: • Đánh giá cách tổng thể mơ hình đề xuất tập liệu cộng đồng khác • Với tốn đánh giá chất lượng câu trả lời, kết hợp tìm chuyên gia hệ thống tích hợp thơng tin chun gia để đánh giá chất lượng câu trả lời Để thực tích hợp thơng tin chun gia, nghiên cứu sinh nghiên cứu đề xuất giải pháp tìm chun gia cho hệ thống hỏi đáp • Mở rộng tốn tìm câu trả lời cho câu hỏi cách tự động giúp hệ thống phản hồi nhanh đáp ứng yêu cầu đưa câu trả lời tự động chưa có người dùng khác trả lời câu hỏi Giải pháp kết hợp toán tìm câu hỏi tương đồng hỗ trợ cho tốn sử dụng nguồn tri thức bên hỗ trợ tìm kiếm câu trả lời tự động • Tiếp tục đánh giá giải thích mơ hình tập liệu tiếng Việt đề xuất giải thách thức cho ngôn ngữ tiếng Việt tập liệu cộng đồng tách từ tiếng Việt • Làm giàu liệu cộng đồng tiếng Việt phục vụ cho toán hỏi đáp cộng đồng đồng thời bổ sung thu thập thêm liệu miền liệu khác cho toán hệ thống hỏi đáp cộng đồng không riêng cho tốn tìm câu hỏi tương đồng luận án • Tiến tới việc thiết kế xây dựng hệ thống hỏi đáp tiếng Việt cho miền liệu cụ thể sử dụng phương pháp nghiên cứu vào giải 95 (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong luan an (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong toán hệ thống 96 (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong luan an (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong DANH MỤC CÁC CƠNG TRÌNH ĐÃ CƠNG BỐ CỦA LUẬN ÁN Van-Chung Vu, Thi-Thanh Ha, and Kiem-Hieu Nguyen (2018) Towards Event Timeline Generation from Vietnamese News, CICLING 2018 - 19th International Conference on Computational Linguistics and Intelligent Text Processing Thi-Thanh Ha, Thanh-Chinh Nguyen, Kiem-Hieu Nguyen, Van-Chung Vu, Kim-Anh Nguyen (2018) Unsupervised Sentence Embeddings for Answer Summarization in Non-factoid CQA, Computación y Sistemas journal, 22(3), 2018 (Scopus, ESCI) Thi-Thanh Ha, Atsuhiro Takasu, Thanh Chinh Nguyen, Kiem Hieu Nguyen, Van Nha Nguyen, Kim Anh Nguyen, Son Giang Tran (2020) Supervised attention for answer selection in community question answering, IAES International Journal of Artificial Intelligence (IJ-AI), Vol 09, No.02, 2020 (Scopus) Thi-Thanh Ha, Van-Nha Nguyen, Kiem-Hieu Nguyen, Tien-Thanh Nguyen and Kim-Anh Nguyen (2020) Utilizing Bert for Question Retrieval on Vietnameses E-commerce Sites, PACLIC 2020 - The 34th Pacific Asia Conference on Language, Information and Computation Thi-Thanh Ha, Van-Nha Nguyen, Kiem-Hieu Nguyen, Kim-Anh Nguyen, Quang-Khoat Than (2021) Utilizing SBERT for finding similar question in Community Question Answering, KSE 2021 -The 13th International Conference on Knowledge and Systems Engineering 97 (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong luan an (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong TÀI LIỆU THAM KHẢO [1] John B and Kurian J (01 2011) Research issues in community based question answering In PACLIC 2011 - 15th Pacific Asia Conference on Information Systems: Quality Research in Pacific, p 29 [2] Vaswani A., Shazeer N., Parmar N., Uszkoreit J., Jones L., Gomez A.N., Kaiser L., and Polosukhin I (2017) Attention is all you need In Proceedings of the 31st International Conference on Neural Information Processing Systems, NIPS’17, p 6000–6010 Curran Associates Inc., Red Hook, NY, USA ISBN 9781510860964 [3] Mikolov, Chen K., Corrado G., and Dean J (2013) Efficient estimation of word representations in vector space In Y Bengio and Y LeCun, editors, 1st International Conference on Learning Representations, ICLR 2013, Scottsdale, Arizona, USA, May 2-4, 2013, Workshop Track Proceedings [4] Wang S and Jiang J (June 2016) Learning natural language inference with LSTM In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp 1442–1451 Association for Computational Linguistics, San Diego, California doi:10.18653/v1/N16-1170 [5] Devlin J., Chang M.W., Lee K., and Toutanova K (June 2019) BERT: Pre-training of deep bidirectional transformers for language understanding In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume (Long and Short Papers), pp 4171–4186 Association for Computational Linguistics, Minneapolis, Minnesota doi: 10.18653/v1/N19-1423 [6] Feng M., Xiang B., Glass M.R., Wang L., and Zhou B (2015) Applying deep learning to answer selection: A study and an open task 2015 IEEE Workshop on Automatic Speech Recognition and Understanding (ASRU), pp 813–820 [7] Tan M., dos Santos C., Xiang B., and Zhou B (August 2016) Improved representation learning for question answer matching In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp 464–473 Association for Computational Linguistics, Berlin, Germany doi:10.18653/v1/P16-1044 98 (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong luan an (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong [8] Liu Y., Li S., Cao Y., Lin C.Y., Han D., and Yu Y (2008) Understanding and summarizing answers in community-based question answering services In Proceedings of the 22nd International Conference on Computational Linguistics - Volume , COLING ’08, p 497–504 Association for Computational Linguistics, USA ISBN 9781905593446 [9] Woods W (1977) Lunar rocks in natural English: Explorations 20 in natural language question answering In A Zampolli, editor, Linguistic Structures Processing, pp 521–569 North-Holland, Amsterdam [10] Green B.F., Wolf A.K., Chomsky C., and Laughery K (1961) Baseball: An automatic question-answerer In Papers Presented at the May 9-11, 1961, Western Joint IRE-AIEE-ACM Computer Conference, IRE-AIEEACM ’61 (Western), p 219–224 Association for Computing Machinery, New York, NY, USA ISBN 9781450378727 doi:10.1145/1460690.1460714 [11] Sasikumar U and L S (December 2014) Article: A survey of natural language question answering system International Journal of Computer Applications, 108(15):pp 42–46 Full text available [12] Peter Clark John Thomption B.P (1999) A knowledge-based approad to question-answering In Proceedings of In: AAAI’99 Fall Symposium on Question Answering Systems, CA:AAAI [13] Berger A., Caruana R., Cohn D., Freitag D., and Mittal V (2000) Bridging the lexical chasm: Statistical approaches to answer-finding In Proceedings of the 23rd Annual International ACM SIGIR Conference on Research and Development in Information Retrieval , SIGIR ’00, p 192–199 Association for Computing Machinery, New York, NY, USA ISBN 1581132263 doi: 10.1145/345508.345576 [14] Moschitti A (2003) Answer filtering via text categorization in question answering systems In Proceedings 15th IEEE International Conference on Tools with Artificial Intelligence, pp 241–248 doi:10.1109/TAI.2003 1250197 [15] Ravichandran D and Hovy E (July 2002) Learning surface text patterns for a question answering system In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp 41–47 Association for Computational Linguistics, Philadelphia, Pennsylvania, USA doi:10 3115/1073083.1073092 99 (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong luan an (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong [16] Nakov P., i Villodre L.M., Magdy W., Moschitti A., Glass J.R., and Randeree B (2015) Semeval-2015 task 3: Answer selection in community question answering In SemEval@NAACL-HLT [17] Chan W., Zhou X., Wang W., and Chua T.S (2012) Community answer summarization for multi-sentence question with group l1 regularization In Proceedings of the 50th Annual Meeting of the Association for Computational Linguistics: Long Papers - Volume , ACL ’12, pp 582–591 Association for Computational Linguistics, Stroudsburg, PA, USA [18] Cai L., Zhou G., Liu K., and Zhao J (November 2011) Learning the latent topics for question retrieval in community QA In Proceedings of 5th International Joint Conference on Natural Language Processing, pp 273–281 Asian Federation of Natural Language Processing, Chiang Mai, Thailand [19] Wang M., Smith N.A., and Mitamura T (2007) What is the jeopardy model? a quasi-synchronous grammar for qa In EMNLP-CoNLL, pp 22– 32 [20] Nakov P., Màrquez L., Moschitti A., Magdy W., Mubarak H., Freihat A.A., Glass J., and Randeree B (jun 2016) SemEval-2016 task 3: Community question answering In Proceedings of the 10th International Workshop on Semantic Evaluation (SemEval-2016), pp 525–545 Association for Computational Linguistics, San Diego, California doi:10.18653/v1/S16-1083 [21] Nakov P., Hoogeveen D., Màrquez L., Moschitti A., Mubarak H., Baldwin T., and Verspoor K (August 2017) SemEval-2017 task 3: Community question answering In Proceedings of the 11th International Workshop on Semantic Evaluation (SemEval-2017), pp 27–48 Association for Computational Linguistics, Vancouver, Canada doi:10.18653/v1/S17-2003 [22] Patra B (2017) A survey of community question answering CoRR, abs/1705.04009 ˇ [23] Mikolov T., Karafiát M., Burget L., Cernocký J., and Khudanpur S (2010) Recurrent neural network based language model In Proceedings of the 11th Annual Conference of the International Speech Communication Association (INTERSPEECH 2010), volume 2010, pp 1045–1048 International Speech Communication Association ISBN 978-1-61782-123-3 ISSN 19909772 100 (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong luan an (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong [24] Hochreiter S and Schmidhuber J (November 1997) Long short-term memory Neural Computation, 9(8):p 1735–1780 ISSN 0899-7667 doi: 10.1162/neco.1997.9.8.1735 [25] Shen Y., He X., Gao J., Deng L., and Mesnil G (2014) Learning semantic representations using convolutional neural networks for web search In Proceedings of the 23rd International Conference on World Wide Web, WWW ’14 Companion, p 373–374 Association for Computing Machinery, New York, NY, USA ISBN 9781450327459 doi:10.1145/2567948.2577348 [26] Kalchbrenner N., Grefenstette E., and Blunsom P (June 2014) A convolutional neural network for modelling sentences In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp 655–665 Association for Computational Linguistics, Baltimore, Maryland doi:10.3115/v1/P14-1062 [27] Bahdanau D., Cho K., and Bengio Y (2014) Neural machine translation by jointly learning to align and translate [28] Graves A., Wayne G., and Danihelka I (2014) Neural turing machines CoRR, abs/1410.5401 [29] Luong T., Pham H., and Manning C.D (September 2015) Effective approaches to attention-based neural machine translation In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp 1412–1421 Association for Computational Linguistics, Lisbon, Portugal doi:10.18653/v1/D15-1166 [30] Bengio Y., Ducharme R., Vincent P., and Janvin C (March 2003) A neural probabilistic language model J Mach Learn Res., 3(null):p 1137–1155 ISSN 1532-4435 [31] Pennington J., Socher R., and Manning C (October 2014) GloVe: Global vectors for word representation In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp 1532– 1543 Association for Computational Linguistics, Doha, Qatar doi:10 3115/v1/D14-1162 [32] Chen D and Manning C (October 2014) A fast and accurate dependency parser using neural networks In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp 740– 750 Association for Computational Linguistics, Doha, Qatar doi:10.3115/ v1/D14-1082 101 (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong luan an (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong [33] Yin Y., Wei F., Dong L., Xu K., Zhang M., and Zhou M (2016) Unsupervised word and dependency path embeddings for aspect term extraction In Proceedings of the Twenty-Fifth International Joint Conference on Artificial Intelligence, IJCAI’16, p 2979–2985 AAAI Press ISBN 9781577357704 [34] Bordes A., Weston J., Collobert R., and Bengio Y (2011) Learning structured embeddings of knowledge bases In Proceedings of the Twenty-Fifth AAAI Conference on Artificial Intelligence, AAAI’11, p 301–306 AAAI Press [35] Bojanowski P., Grave E., Joulin A., and Mikolov T (06 2017) Enriching Word Vectors with Subword Information Transactions of the Association for Computational Linguistics, 5:pp 135–146 ISSN 2307-387X doi:10 1162/tacl_a_00051 [36] Peters M., Neumann M., Iyyer M., Gardner M., Clark C., Lee K., and Zettlemoyer L (June 2018) Deep contextualized word representations In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume (Long Papers), pp 2227–2237 Association for Computational Linguistics, New Orleans, Louisiana doi:10.18653/v1/N18-1202 [37] Bonadiman D., Uva A., and Moschitti A (April 2017) Effective shared representations with multitask learning for community question answering In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 2, Short Papers, pp 726–732 Association for Computational Linguistics, Valencia, Spain [38] Joty S., Màrquez L., and Nakov P (October-November 2018) Joint multitask learning for community question answering using task-specific embeddings In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp 4196–4207 Association for Computational Linguistics, Brussels, Belgium doi:10.18653/v1/D18-1452 [39] Tran N.K and Niedereée C (2018) Multihop attention networks for question answer matching In The 41st International ACM SIGIR Conference on Research Development in Information Retrieval , SIGIR ’18, p 325–334 Association for Computing Machinery, New York, NY, USA ISBN 9781450356572 doi:10.1145/3209978.3210009 [40] Wu W., Sun X., and Wang H (July 2018) Question condensing networks for answer selection in community question answering In Proceedings of 102 (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong luan an (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp 1746–1755 Association for Computational Linguistics, Melbourne, Australia doi:10.18653/v1/P18-1162 [41] Wang X., Kapanipathi P., Musa R., Yu M., Talamadupula K., Abdelaziz I., Chang M., Fokoue A., Makni B., Mattei N., and Witbrock M (2019) Improving natural language inference using external knowledge in the science questions domain AAI-19 , The Thirty-Third AAAI Conference on Artificial Intelligence [42] Mozafari J., Fatemi A., and Nematbakhsh M.A (2021) Bas: An answer selection method using bert language model Journal of Computing and Security, 8(2):pp 1–18 ISSN 2322-4460 doi:10.22108/jcs.2021.128002 1066 [43] Wan S., Dras M., Dale R., and Paris C (01 2006) Using dependencybased features to take the “para-farce” out of paraphrase Proceedings of the Australasian Language Technology Workshop, pp 131–138 [44] Surdeanu M., Ciaramita M., and Zaragoza H (December 2008) Learning to rank answers on large online qa collections In ACL-08 , ACL-08: HLT - 46th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, Proceedings of the Conference, pp 719– 727 ISBN 9781932432046 46th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, ACL-08: HLT ; Conference date: 15-06-2008 Through 20-06-2008 [45] Soergel D (10 1998) Wordnet an electronic lexical database [46] Sequiera R., Baruah G., Tu Z., Mohammed S., Rao J., Zhang H., and Lin J.J (2017) Exploring the effectiveness of convolutional neural networks for answer selection in end-to-end question answering CoRR, abs/1707.07804 [47] Punyakanok V., Roth D., and tau Yih W (2004) Mapping dependencies trees: An application to question answering In In Proceedings of the 8th International Symposium on Artificial Intelligence and Mathematics, Fort [48] Heilman M and Smith N.A (June 2010) Tree edit models for recognizing textual entailments, paraphrases, and answers to questions In Human Language Technologies: The 2010 Annual Conference of the North American Chapter of the Association for Computational Linguistics, pp 1011–1019 Association for Computational Linguistics, Los Angeles, California 103 (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong luan an (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong [49] Jansen P., Surdeanu M., and Clark P (June 2014) Discourse complements lexical semantics for non-factoid answer reranking In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp 977–986 Association for Computational Linguistics, Baltimore, Maryland doi:10.3115/v1/P14-1092 [50] Wang M and Manning C.D (2010) Probabilistic tree-edit models with structured latent variables for textual entailment and question answering In Proceedings of the 23rd International Conference on Computational Linguistics, COLING ’10, p 1164–1172 Association for Computational Linguistics, USA [51] Wang K., Ming Z., and Chua T.S (2009) A syntactic tree matching approach to finding similar questions in community-based qa services In Proceedings of the 32nd International ACM SIGIR Conference on Research and Development in Information Retrieval , SIGIR ’09, p 187–194 Association for Computing Machinery, New York, NY, USA ISBN 9781605584836 doi:10.1145/1571941.1571975 [52] Severyn A and Moschitti A (2012) Structural relationships for large-scale learning of answer re-ranking In Proceedings of the 35th International ACM SIGIR Conference on Research and Development in Information Retrieval , SIGIR ’12, p 741–750 Association for Computing Machinery, New York, NY, USA ISBN 9781450314725 doi:10.1145/2348283.2348383 [53] Yih W.t., Chang M.W., Meek C., and Pastusiak A (August 2013) Question answering using enhanced lexical semantic models In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp 1744–1753 Association for Computational Linguistics, Sofia, Bulgaria [54] Severyn A and Moschitti A (October 2013) Automatic feature engineering for answer selection and extraction In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, pp 458–467 Association for Computational Linguistics, Seattle, Washington, USA [55] Severyn A and Moschitti A (2015) Learning to rank short text pairs with convolutional deep neural networks In Proceedings of the 38th International ACM SIGIR Conference on Research and Development in Information Retrieval , SIGIR ’15, p 373–382 Association for Computing Machinery, New York, NY, USA ISBN 9781450336215 doi:10.1145/2766462 2767738 104 (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong luan an (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong [56] Bromley J., Guyon I., LeCun Y., Săackinger E., and Shah R (1993) Signature verification using a "siamese" time delay neural network NIPS’93, p 737–744 Morgan Kaufmann Publishers Inc., San Francisco, CA, USA [57] Lai T.M., Bui T., and Li S (August 2018) A review on deep learning techniques applied to answer selection In Proceedings of the 27th International Conference on Computational Linguistics, pp 2132–2144 Association for Computational Linguistics, Santa Fe, New Mexico, USA [58] He H., Gimpel K., and Lin J (September 2015) Multi-perspective sentence similarity modeling with convolutional neural networks In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp 1576–1586 Association for Computational Linguistics, Lisbon, Portugal doi:10.18653/v1/D15-1181 [59] Tayyar Madabushi H., Lee M., and Barnden J (August 2018) Integrating question classification and deep learning for improved answer selection In Proceedings of the 27th International Conference on Computational Linguistics, pp 3283–3294 Association for Computational Linguistics, Santa Fe, New Mexico, USA [60] Rao J., He H., and Lin J (2016) Noise-contrastive estimation for answer selection with deep neural networks In Proceedings of the 25th ACM International on Conference on Information and Knowledge Management, CIKM ’16, p 1913–1916 Association for Computing Machinery, New York, NY, USA ISBN 9781450340731 doi:10.1145/2983323.2983872 [61] Yang L., Ai Q., Guo J., and Croft W.B (2016) Anmm: Ranking short answer texts with attention-based neural matching model In Proceedings of the 25th ACM International on Conference on Information and Knowledge Management, CIKM ’16, p 287–296 Association for Computing Machinery, New York, NY, USA ISBN 9781450340731 doi: 10.1145/2983323.2983818 [62] Wen J., Ma J., Feng Y., and Zhong M (2018) Hybrid attentive answer selection in cqa with deep users modelling In AAAI [63] Li Y., Du N., Liu C., Xie Y., Fan W., Li Q., Gao J., and Sun H (2017) Reliable medical diagnosis from crowdsourcing: Discover trustworthy answers from non-experts In Proceedings of the Tenth ACM International Conference on Web Search and Data Mining, WSDM ’17, p 253–261 Association for Computing Machinery, New York, NY, USA ISBN 9781450346757 doi:10.1145/3018661.3018688 105 (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong luan an (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong [64] Yoon S., Shin J., and Jung K (June 2018) Learning to rank questionanswer pairs using hierarchical recurrent encoder with latent topic clustering In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume (Long Papers), pp 1575–1584 Association for Computational Linguistics, New Orleans, Louisiana doi:10.18653/v1/N18-1142 [65] Shen Y., Deng Y., Yang M., Li Y., Du N., Fan W., and Lei K (2018) Knowledge-aware attentive neural network for ranking question answer pairs In The 41st International ACM SIGIR Conference on Research Development in Information Retrieval , SIGIR ’18, p 901–904 Association for Computing Machinery, New York, NY, USA ISBN 9781450356572 doi: 10.1145/3209978.3210081 [66] He H and Lin J (June 2016) Pairwise word interaction modeling with deep neural networks for semantic similarity measurement In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp 937– 948 Association for Computational Linguistics, San Diego, California doi: 10.18653/v1/N16-1108 [67] Wang S and Jiang J (2017) A compare-aggregate model for matching text sequences In 5th International Conference on Learning Representations, ICLR 2017, Toulon, France, April 24-26, 2017, Conference Track Proceedings [68] Wang Z., Hamza W., and Florian R (2017) Bilateral multi-perspective matching for natural language sentences In Proceedings of the TwentySixth International Joint Conference on Artificial Intelligence, IJCAI-17 , pp 4144–4150 doi:10.24963/ijcai.2017/579 [69] Bian W., Li S., Yang Z., Chen G., and Lin Z (2017) A compare-aggregate model with dynamic-clip attention for answer selection In Proceedings of the 2017 ACM on Conference on Information and Knowledge Management, CIKM ’17, p 1987–1990 Association for Computing Machinery, New York, NY, USA ISBN 9781450349185 doi:10.1145/3132847.3133089 [70] Shen G., Yang Y., and Deng Z.H (September 2017) Inter-weighted alignment network for sentence pair modeling In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp 1179– 1189 Association for Computational Linguistics, Copenhagen, Denmark doi:10.18653/v1/D17-1122 106 (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong luan an (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong [71] Howard J and Ruder S (July 2018) Universal language model fine-tuning for text classification In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp 328–339 Association for Computational Linguistics, Melbourne, Australia doi:10.18653/v1/P18-1031 [72] Wang Z., Mi H., and Ittycheriah A (2017) Sentence similarity learning by lexical decomposition and composition [73] Yang R., Zhang J., Gao X., Ji F., and Chen H (July 2019) Simple and effective text matching with richer alignment features In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp 4699–4709 Association for Computational Linguistics, Florence, Italy doi:10.18653/v1/P19-1465 [74] Rocktăaschel T., Grefenstette E., Hermann K.M., Kociský T., and Blunsom P (2016) Reasoning about entailment with neural attention In Y Bengio and Y LeCun, editors, 4th International Conference on Learning Representations, ICLR 2016, San Juan, Puerto Rico, May 2-4, 2016, Conference Track Proceedings [75] Wang S and Jiang J (June 2016) Learning natural language inference with LSTM In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp 1442–1451 Association for Computational Linguistics, San Diego, California doi:10.18653/v1/N16-1170 [76] Mi H., Wang Z., and Ittycheriah A (November 2016) Supervised attentions for neural machine translation In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp 2283– 2288 Association for Computational Linguistics, Austin, Texas doi: 10.18653/v1/D16-1249 [77] Nguyen M and Nguyen T.H (August 2018) Who is killed by police: Introducing supervised attention for hierarchical LSTMs In Proceedings of the 27th International Conference on Computational Linguistics, pp 2277– 2287 Association for Computational Linguistics, Santa Fe, New Mexico, USA [78] Liu L., Utiyama M., Finch A., and Sumita E (December 2016) Neural machine translation with supervised attention In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers, pp 3093–3102 The COLING 2016 Organizing Committee, Osaka, Japan 107 (Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong(Luan.an.tien.si).nghien.cuu.mot.so.bai.toan.trong.hoi.dap.cong.dong luan an

Ngày đăng: 27/12/2023, 00:09

Xem thêm:

TÀI LIỆU CÙNG NGƯỜI DÙNG

  • Đang cập nhật ...

TÀI LIỆU LIÊN QUAN