Mô hình CNN

Một phần của tài liệu (Luận án tiến sĩ) Nghiên cứu một số bài toán trong hỏi đáp cộng đồng (Trang 40 - 42)

Đầu vào là các véc tơ biểu diễn từ xi ∈Rd có số chiều làd của từ thứ i trong câu. Phép toán tích chập (convolution) liên quan tới một bộ lọc w ∈ Rh.d. Bộ lọc này được sử dụng vào cửa sổ gồm h từ để tạo ra đặc trưng mới. Đặc trưng

ci được tạo ra từ cửa số h từ như sau:

ci=f(w.xi:i+h−1+b), (1.6)

f là hàm phi tuyến như hàm tanh hoặc hàm Relu. Lớp lọc này được sử dụng vào từng cửa sổ từ trong câu để tạo ra một bản đồ đặc trưng:

c= [c1,c2, ...,cn−h+1] (1.7) Sau đó, phép toán max-pooling thực hiện qua bản đồ đặc trưng c để lấy các giá trị lớn nhất.

bc=max(c). (1.8)

Véc tơbclà đặc trưng thu được khi qua lớp lọc này. Phép toán này có ý nghĩa là thu được đặc trưng quan trọng qua việc lấy giá trị lớn nhất trong bản đồ đặc trưng. Phương pháp gộp này còn được sử dụng với các độ dài câu khác nhau.

Nhiều bộ lọc (với kích thước cửa sổ khác nhau) sẽ thu được các đặc trưng khác

nhau. Đặc trưng này sử dụng làm đầu vào của hàm sof tmax để thu được xác

suất đầu ra của các nhãn.

1.6.4. Cơ chế chú ý

Cơ chế chú ý (attention) trong học máy giúp cho mô hình có thể tập trung nhiều hơn vào các từ khóa chính hay cụm từ mang nhiều thông tin thông qua việc học các trọng số chú ý trong câu. Sau đó việc tổng hợp thông tin của cả câu được tính qua trung bình cộng có trọng số của tất cả các từ trong câu. Thời gian gần đây có nhiều nghiên cứu sử dụng cơ chế chú ý trong học sâu được phát triển dựa vào ý tưởng này. Các mô hình này được ứng dụng đầu tiên trong dịch máy.

Một trong những ý tưởng của cơ chế chú ý đó là học để căn chỉnh (learn to align) [27]. Xuất phát từ ý tưởng tổng hợp thông tin từ câu nguồn và các từ được dịch trước đó để tính ra những phần quan trọng để dự đoán từ tiếp theo. Thay vì chỉ sử dụng ngữ cảnh của lớp cuối cùng của lớp mã hóa (Encoder), tác giả sử dụng tất cả các đầu ra của từng tế bào qua từng bước (timestep) của câu nguồn kết hợp với trọng số chú ý của câu nguồn ở mỗi bước giải mã để tổng hợp ra véc tơ ngữ cảnh ci. Véc tơ này được dùng để dự đoán ra từ tiếp theo trong phần giải mã (decoder). Hình 1.7 mô tả cơ chế chú ý của Bahdanau. Công thức cụ thể như sau:

P(yi|y1, y2, ..., yi−1,x) =g(yi−1,si,ci) (1.9)

si =f(si−1, yi−1,ci), (1.10)

trong đó x là chuỗi các từ trong văn bản gốc (câu nguồn) có độ dài T, y là chuỗi các từ trong văn bản dịch (câu đích) có độ dài m

x= (x1, x2, ..., xT)

y= (y1, y2, ..., ym)

Trước tiên véc tơ ngữ cảnh ci được tính qua tổng trọng số của các hj

ci= Tx X j=1 αijhj (1.11) 27

Một phần của tài liệu (Luận án tiến sĩ) Nghiên cứu một số bài toán trong hỏi đáp cộng đồng (Trang 40 - 42)

Tải bản đầy đủ (PDF)

(128 trang)