Các kết quả thực nghiệm và thảo luận

Một phần của tài liệu Nghiên cứu một số bài toán trong hỏi đáp cộng đồng (Trang 95 - 101)

4.4. Mô hình BERT cho bài toán tìm kiếm câu hỏi tương đồng

4.4.3. Các kết quả thực nghiệm và thảo luận

Các mô hình học sâu được cài đặt bằng Tensorflow và chạy trên GPU Nvidia Tesla P100 16Gb. Độ đo MAP vẫn được sử dụng để đánh giá các mô hình (đã được trình bày ở mục 2.4.1). Các siêu tham số được chọn qua tập phát triển.

Trước khi đánh giá mô hình trên tập dữ liệu tiếng Việt, các mô hình mới nhất như BERT, RoBERTa, XLnet được thử nghiệm cho bài toán tìm câu hỏi tương đồng (task A) và bài toán lựa chọn câu trả lời (task B) trên tập dữ liệu tiếng Anh - Semeval 2017 [21]. Bảng 4.3 mô tả kết quả khi điều chỉnh các mô hình BERT [5], mô hình XLnet [124] và RoBERTa [116] trên hai bài toán tìm câu hỏi tương đồng và lựa chọn câu trả lời. Kết quả của các mô hình được so sánh với kết quả của hai đội đứng đầu là KELP và SimBow trong cuộc thi Semeval 2017 trên bài toán này. Mô hình XLNet là mô hình biến thể của mô hình Transformer. XLnet được tạo ra nhờ sự kết hợp của RNN và Transformer, được huấn luyện trên 126GB dữ liệu văn bản tiếng Anh. XLnet cũng làm việc tốt trên các bài toán ở mức từ và mức câu. Tuy nhiên tốc độ học chậm hơn BERT do xử lý trình tự ở đầu vào. Mô hình RoBERTa là mô hình biến thể của mô hình BERT. Mô hình RoBERTa sử dụng mô hình BERT nhưng không sử dụng cơ chế dự đoán câu kế tiếp mà sử dụng cơ chế mặt nạ động (dynamic masking) với dữ liệu huấn luyện lớn hơn BERT 10 lần (mô hình BERT sử dụng khoảng 3.3GB text huấn luyện mô hình). Kết quả tại bảng 4.3 cho thấy mô hình BERT, RoBERTa và XLnet tốt hơn hẳn so với các đội cao nhất tại Semeval 2017. Các mô hình này đã được chứng minh tính hiệu quả vượt trội so với các mô hình học sâu trước đó trên các bài toán NLP dựa vào cơ chế tự chú ý của mô hình Transformer. Trong đó BERT cho kết quả MAP cao nhất là 56.03%, cao hơn cả so với XLnet và RoBERTa. Đây là lý do mô hình BERT được chọn sử dụng trên tập dữ liệu tiếng Việt.

Bảng 4.4 trình bày kết quả của các mô hình trên tập dữ liệu tiếng Việt. Bảng này bao gồm ba phần: Các kết quả trên các mô hình LSTM/CNN; Mô hình

Bảng 4.4: Độ đo MAP của các mô hình trên tập dữ liệu tiếng Việt. Mô hình MAP LSTM 52,60 CNN 53,10 ABCNN 51,52 LSTM attention 55,50 BERT-multilingual 61,06 BERT4Vn 63,75 PhOBERT 65,50 BERT4ECOMMERCE 70,50 ElasticSearch 52,00 SVM 49,75

BERT với các tiền huấn luyện trên các tập dữ liệu khác nhau và mô hình BOW cơ sở.

Hình 4.3 mô tả đường cong ROC (Receiver Operating Characteristic) với độ độ đo AUC (Area Under the Curve) của các mô hình. Diện tích AUC vùng ở dưới đường cong ROC càng lớn thì mô hình càng hiệu quả.

Kết quả trong bảng 4.4 và hình 4.3 đều cho thấy rằng các mô hình học sâu LSTM/CNN cho kết quả MAP cao hơn mô hình cơ sở BOW của ElasticSearch và SVM. Nguyên nhân là do giữa hai câu hỏi có chứa ít từ trùng nhau làm cho các phương pháp so sánh từ trong ElasticSearch hoạt động không hiệu quả bằng các mô hình học sâu. Trong khi những câu hỏi tương tự thường chứa từ và cụm từ khác nhau nhưng có nghĩa giống nhau. Trong khi đó mô hình BERT với tiền huấn luyện trên tập dữ liệu khác tăng mạnh, đặc biệt là mô hình BERT được tiền huấn luyện trên cùng tập dữ liệu thương mại điện tử đạt kết quả cao nhất

là 70,50%. Mô hình BERT-multilingual, BERT4Vn và BERT4ECOMMERCE

được thực hiện trên bộ dữ liệu tách tiếng (syllabus), chỉ có PhOBERT được thực hiện trên dữ liệu tách từ tiếng Việt.

Việc thực thi chi tiết các mô hình được mô tả ở phần dưới đây:

Các mô hình LSTM/CNN

Hình 4.4 mô tả kiến trúc của các mô hình học sâu vào bài toán tìm kiếm câu hỏi tương đồng. Dưới đây là mô tả cụ thể mô hình đã cài đặt:

• Mô hình LSTM (hình 4.4(a)): Cặp câu hỏi được mã hóa bởi hai mô hình

LSTM và hai mô hình được sử dụng cùng bộ tham số. Lớp ẩn cuối cùng của LSTM được sử dụng làm biểu diễn của câu hỏi. Cuối cùng, hai biểu diễn của hai câu hỏi được nối lại và cho qua lớp MLP để dự đoán.

Hình 4.3: Đường cong ROC của các mô hình dự đoán.

hình LSTM nhưng mô hình LSTM được thay bằng mô hình CNN.

• Mô hình ABCNN [125] (hình 4.4(d)): Các từ của câu hỏi được biểu diễn bằng từ nhúng để thu được biểu diễn đặc trưng (represention feature map - màu đỏ, mỗi từ là một cột của ma trận). Sau đó ma trận chú ý A được tính qua việc so khớp từng từ qua biểu diễn của hai câu. Ma trận chú ý A có nghĩa như sau: Dòng thứ icủa ma trận A thể hiện độ quan trọng của từ thứ i trong câu hỏi thứ nhất với toàn bộ các từ trong câu hỏi thứ 2. Còn cột thứ j của ma trận A là độ quan trọng của từ thứ j của câu thứ 2 với các từ còn lại trong câu thứ nhất. Sau đó ma trận A được phân tích thành hai ma trận đặc trưng chú ý (màu xanh - attention feature map) và hai ma trận này được sử dụng làm đầu vào của lớp tiếp theo.

• Mô hình LSTM/CNN-attention (hình 4.4(b)): Trong mô hình này, đầu ra

của hai câu hỏi sau khi qua mô hình LSTM và CNN sẽ được sử dụng để tính ma trận trọng số chú ý từ với từ. Sau đó biểu diễn từ của câu thứ hai sẽ được cập nhật lại qua trọng số chú ý. Cuối cùng phép toán tổng hợp lớn nhất (max pooling) được sử dụng để thu thập các đặc trưng quan trọng trước khi đưa vào lớp dự đoán. Mô hình này gần giống với mô hình của Tan

Bảng 4.5: Bảng chọn siêu tham số cho các mô hình LSTM/CNN

Emb-size Hid/filter-size L-rate Pdrop Batch size epochs Params (x105)

LSTM 300 300 0,0001 0,2 64 25 21

LSTM/CNN-att 300 300 0,0001 0,2 64 25 27

CNN 300 3 0,003 0,5 64 25 33

ABCNN 300 3 0,001 0,2 32 25 34

và cộng sự [7].

Các mô hình này đều sử dụng biểu diễn từ nhúng word2vec được huấn luyện trước theo tiếng (từ tách theo dấu cách) trên tập dữ liệu không gán nhãn của Thế giới di động (bảng 4.2). Các lớp từ nhúng ban đầu được khởi tạo bởi véc tơ Word2vec được huấn luyện trước. Thuật toán Adam được sử dụng để giải hàm tối ưu [102]. Các siêu tham số của các mô hình được chọn theo bảng 4.5 :

Tiền huấn luyện và điều chỉnh BERT

Ở bước tiền huấn luyện: Đầu tiên, biểu diễn từ được huấn luyện từ mô hình multilingua-BERTBASE (kí hiệu mBERT)6 được sử dụng. Từ nhúng từ mô hình mBERT được huấn luyện từ bộ dữ liệu Wikipedia với 104 ngôn ngữ với bộ từ vựng chung cho tất cả các ngôn ngữ trong đó có tiếng Việt.

Để các từ nhúng học được từ mô hình phù hợp với ngữ cảnh trong miền dữ liệu thương mại điện tử, mô hình mBERT được điều chỉnh trên tập dữ liệu không gán nhãn (bảng 4.2). Các từ nhúng này được sử dụng là đầu vào để điều chỉnh mô hình BERT trên bài toán tìm kiếm câu hỏi với dữ liệu có nhãn. Để so sánh hiệu quả của việc dùng biểu diễn từ mà được huấn luyện trên miền dữ liệu thương mại điện với từ nhúng được huấn luyện trên các tập dữ liệu tiếng Việt với nguồn khác nhau, các mô hình sau được sử dụng để so sánh:

• BERT-Multilingual [123]: với kích thước từ vựng 110K được huấn luyện trên tập Wikipedia của 104 ngôn ngữ trong đó có tiếng Việt.

• BERT4VN7: Được huấn luyện trên tập dữ liệu khoảng 20GB từ các báo

và Wikipedia tiếng Việt. Cũng giống như mBERT, BERT4VN cũng được huấn luyện theo subtoken của từ theo âm tiết.

Các tham số trong giai đoạn huấn luyện BERT trên tập dữ liệu không gán nhãn với miền dữ liệu thương mại điện tử tiếng Việt như sau: số chiều của từ

6https://github.com/google-research/bert 7https://github.com/lampts/bert4vn

x1(1) h1(1) x2(2) x2(1) h2(n) …. h2(1) h1(2) h2(2) h1(m) …. x1(2) x1(m) h h2(0) h1(0) x2(n) Predict Question 1 Question 2 (a) Mô hình LSTM ---- Question 1 Pooling ---- Question 2 BiLSTM concate(sum,multiply) MLP Predict CNN CNN Pooling (b) Mô hình LSTM/CNN-attention Question 1 Question 2 W or d em bedd ing CNN Ma x pooli ng Predict (c) Mô hình CNN Question 1 Question 2 Max pooling concatenate predict (d) Mô hình ABCNN

Bảng 4.6: Bảng chọn các siêu tham số của mô hình BERT khi điều chỉnh trên bài toán tìm kiếm câu hỏi trên tập dữ liệu thương mại điện tử có nhãn tiếng Việt

chiều dài tối đa tốc độ học Số bước đạt lớn nhất

BERT-multilingual 200 2e−5 650

BERT4Vn 200 2e−5 1.600

PhOBERT 200 2e−5 1000

BERT4ECOMMERCE 200 2e−5 900

nhúng là 768, kích thước lô là 32, tốc độ học là 2e−5 và dừng ở số bước là 2000, thời gian huấn luyện khoảng 2 ngày trên trên GPU Tesla V100. Mô hình BERT mà sử dụng tiền huấn luyện trên tập dữ liệu thương mại điện tử tiếng Việt được gọi là BERT4ECOMMERCE

Sau đó, mô hình BERT được điều chỉnh trên bài toán tìm kiếm câu hỏi trên tập dữ liệu thương mại điện tử tiếng Việt có nhãn (bảng 4.1).

Bảng 4.6 mô tả các siêu tham số được chọn trong khi điều chỉnh mô hình BERT trên bài toán tìm câu trả lời sử dụng các từ nhúng mà được huấn luyện trên dữ liệu tiếng Việt với các nguồn khác nhau. Kết quả bảng 4.4 và hình 4.3 cho thấy rằng các mô hình BERT cải thiện đáng kể hiệu năng của bài toán, đặc biệt là mô hình BERT4ECOMMERCE (MAP đạt 70,50%, AUC đạt 77,4%). Kết quả cho thấy rằng khi nguồn dữ liệu trong bước huấn luyện và dữ liệu của bài toán đích cùng miền dữ liệu thì sẽ có ảnh hưởng tốt tới kết quả cuối cùng. Từ vựng thuộc miền thương mại điện tử bao gồm một lượng lớn các từ vựng đặc trưng liên quan tới các thiết bị công nghệ như Iphone, Samsung, mua trả góp, .... Hơn nữa dữ liệu trong mạng xã hội thường không đảm bảo về vấn đề ngữ pháp, chính tả và cách sử dụng từ. Ví dụ như từ "thoong bao", "mk"(mật

khẩu), "ss" (Samsung), "f" (bàn phím) là những từ viết tắt, viết sai chính tả

mà thường hay thấy trong tập dữ liệu thu thập được trên forum hỏi đáp của website Thế giới di động. Do đó, việc huấn luyện lại từ nhúng trên miền dữ liệu thương mại là cần thiết và việc này giúp hiệu năng về độ chính xác của bài toán tốt hơn so với sử dụng các nhúng được huấn luyện từ tập dữ liệu Wikipedia hay dữ liệu tin tức trên báo.

BERT với dữ liệu tách từ tiếng Việt

Ở phần trên, mô hình BERT được thực hiện trên dữ liệu tách tiếng. Để thử nghiệm trên dữ liệu tách từ, mô hình PHOBERT [126] được sử dụng điều chỉnh trên bài toán tìm câu hỏi tương đồng. Mô hình này dựa vào mô hình RoBERTa [116] và được huấn luyện trên 20GB dữ liệu từ nguồn Wikipedia tiếng Việt và dữ

liệu báo điện tử tiếng Việt với tách từ tiếng Việt. Mô hình PHOBERT sử dụng thuật toán RDRsegmenter cho tách từ tiếng Việt [127] từ thư viện VncoreNLP [128] và thu được bộ từ vựng có kích thước 145M. Mô hình PhOBERT được điều chỉnh trên bài toán tìm kiếm câu hỏi với dữ liệu gán nhãn tiếng Việt được xây dựng trên miền thương mại điện tử. Kết quả cho thấy rằng mô hình PHOBERT cho kết quả MAP và AUC tốt hơn so với BERT-multilingual và BERT4Vn. Điều này cũng chỉ ra rằng tách từ tiếng Việt mang lại hiệu quả tốt trên bài toán tìm câu hỏi trên dữ liệu mạng xã hội. Tuy nhiên, không sử dụng tách từ tiếng Việt, BERT4ECOMMERCE vẫn đạt kết quả cao nhất và kết quả lớn hơn PHOBERT 5%.

Trực quan hóa trọng số chú ý

Theo Wiegreff cùng các cộng sự [129] cho rằng các trọng số chú ý có thể dùng để giải thích mô hình dự đoán. Do đó, trực quan hóa ma trận trọng số của mô hình BERT và mô hình ABCNN được thực hiện để so sánh hiệu quả của các mô hình này. Trọng số tự chú ý của mô hình BERT cho thấy mối quan hệ ngữ nghĩa của cặp câu hỏi tốt hơn so với cơ chế chú ý thông thường của mô hình ABCNN. Ma trận tự chú ý ở lớp chú ý đầu tiên trong số 12 lớp chú ý của mô hình BERT được lựa chọn để mô tả phần trực quan. Hình 4.5 thể hiện trọng số chú ý của từng từ trong câu hỏi truy vấn (trục tung) với từng từ trong câu hỏi ứng viên (trục hoành), ô vuông màu càng đậm tương ứng với trọng số chú ý càng lớn.

Hình 4.5 chỉ ra rằng các mô hình BERT có phân phối trọng số chú ý thưa hơn mô hình ABCNN. Điều này dẫn tới mô hình BERT có sự tương tác mạnh hơn giữa các từ quan trọng, ví dụ như từ "slide" với từ "màn hình", từ "lock"

và "tắt phím" với "khóa máy". Một nghiên cứu của Cui và cộng sự [130] cũng

đã chứng minh rằng ma trận chú ý của BERT mà thưa thì biểu diễn văn bản đầu vào càng tốt và dễ giải thích.

Một phần của tài liệu Nghiên cứu một số bài toán trong hỏi đáp cộng đồng (Trang 95 - 101)

Tải bản đầy đủ (PDF)

(128 trang)