MỤC LỤC
Trong ba nhân tố này, văn bÁn sẽ đóng vai trò quan trọng nhất bãi vì trong khi hình Ánh và âm thanh có thể gây ấn t°ợng tāc thái, giúp thu hút sự chú ý trong thái điểm đầu tiên tiếp xúc thì văn bÁn biểu đ¿t l¿i là một yếu tố không thể thiếu giúp khách hàng hiểu đ°ợc thông tin từ tổng quan đến chi tiết cÿa sÁn phẩm, là yếu tố then chốt dẫn đến quyết định mua hàng cÿa họ. Trong đó, yếu tố về con ng°ái là một rÿi ro đỏng cõn nhắc bói con ng°ỏi th°ỏng cú năng suất giòi h¿n, khú cú thể đỏp āng yêu cầu về tần suất công việc cao và còn có thể bị Ánh h°ãng bãi các vấn đề nh° sāc khỏe, tâm lý,.
Sự thay đổi này bắt đầu diễn ra trong khoÁng từ những năm đầu cÿa thập niờn 2010, vòi những nghiờn cāu chÿ yếu tập trung vào việc āng dụng những m¿ng n¢-ron hồi quy (Recurrent Neural Network) nh° công trìnhcÿa Graves (2013) [5] đề xuất việc āng dụng mụ hỡnh Bộ nhò dài ngắn h¿n (Long short-term memory [6], một biến thể cÿa m¿ng n¢-ron hồi quy) để t¿o ra những văn bÁn phāc t¿p hay giÁi phỏp cÿa Cho và cỏc cộng sự [7] vòi việc xõy dựng m¿ng Nỳt hồi tiếp cú cổng (Gated Recurrent Unit - GRU) cho việc học các biểu diễn ngôn ngữ và đặc biệt là sự xuất hiện cÿa mô hình chuỗi sang chuỗi (Sequence-to-Sequence - Seq2Seq) [8] - một mụ hỡnh đột phỏ vòi kiến trỳc mó húa-giÁi mó kết hợp cựng m¿ng tuần tự. Trong nội dung giÁi pháp, các tác giÁ đã đ°a ra một số kỹ thuật mòi bao gồm: Lựa chọn giỏ trị thuộc tớnh cÿa sÁn phẩm khi điền vào mẫu (Value Preference); Trích trọn xác suất xuất hiện cÿa thuộc tính theo ph°¢ng pháp thống kê (Attribute Prior); Tính toán điểm cấu trúc cÿa văn bÁn dựa trên các câu cÿa nó cùng xác suất có điều kiện giữa các thuộc tính trong từng câu; Đánh giá, xếp h¿ng các mô tÁ dựa trên các thông tin đã đ°ợc trích xuất cùng ph°¢ng pháp SVM vòi h¿t nhõntuyến tớnh (linear kernel) [12]. Do thừa h°ãng những °u điểm cÿa Transformer và đ°ợc huấn luyện trên một tập dữ liệu khổng lồ và phong phú, GPT-2 đã cho thấy khÁ năng thực hiện tốt nhiều tác vụ khác nhau ngoài sinh văn bÁn nh°: TrÁ lái câu hỏi, Tóm tắt văn bÁn hay thậm chí là dịch máy , & Trong bài báo, các tác giÁ cũng đã chāng minh hiệu suất đáng kinh ng¿c cÿa mô hình này trên một số tập dữliệu phổ biến nh° WMT-14-Fr-En [19].
Nh° trong bài báo gốc, GPT-2 đ°ợc huấn luyện trên một nguồn dữ liệu khổng lồ (WebText), vòi 40GB dữ liệu đ°ợc thu thập bằng cỏch cào (crawl) từ cỏc trang web đ°ợc liờn kết vòi cỏc bài đăng trờn Reddit10 cú ớt nhất ba phiếu tỏn thành tr°òc thỏng 12 năm 2017. Nhỡn chung, kiến trỳc này cũng khỏ t°Âng đồng khi so sỏnh vòi BERT, ngo¿i trừ một số điểm khỏc biệt bao gồm: Mỗi lòp trong khối giÁi mó sẽ thực hiện thờm c chế chỳ ý chộo (cross-attention) trờn lòp ẩn cuối cựng cÿa khối mó húa và khụng sử dụng một m¿ng truyền thẳng tr°òc khi dự đoỏn các từ.
Trên Hình 2.13 có thể thấy rằng, khi thực hiện việc đánh giá trên các tập dữ liệu phổ biến nh° SQuAD 1.1 / 2.0, MNLI-m, SST-2, RACE vòi cỏc cỏch triển khai mô hình khác nhau thì việc không sử dụng NSP cùng sự thay đổi định d¿ng đầu vào thành Full-sentences và Doc-sentences cho ra kết quÁ tốt nhất. Cụ thể, các tác giÁ đã thực hiện một vài thử nghiệm và quan sát thấy rằng khi sử dụng giá trị mini-batch đÿ lòn cựng learning-rate phự hợp, quỏ trỡnh huấn luyện cú thể tăng tốc đồng thỏi cũng cÁi thiện đ°ợc hiệu suất cÿa một số nhiệm vụ cụ thể cÿa mô hình.
(10) Áp dụng một phần ý t°óng trờn, luận văn sẽ sử dụng h°òng tiếp cận đÂn giÁn h¢n, cũng sử dụng cặp ngôn ngữ chốt là Tiếng Pháp và Tiếng Đāc nh°ng thay vì tìm ra các trọng số , ph°¢ng pháp sử dụng mô hình BART cho tác vụ dịch và RoBERTa cho tác vụ đánh giá khÁ năng giữ nguyên ý nghĩa cÿa câu. Quá trình huấn luyện do đó cũng sẽ bao gồm hai b°òc, vòi b°òc thā nhất là tiếp tục quỏ trỡnh tiền huấn luyện GPT-2 trên kho dữ liệu (corpus) huấn luyện ch°a đ°ợc gán nhãn thuộc về miền mô tÁ sÁn phẩm và b°òc thā hai là huấn luyện mụ hỡnh GPT-2 sau khi đó ỏp dụng kỹ thuật TAPT cho tác vụ sinh mô tÁ nh° trong nội dung phần 4.1.
Bên c¿nh việc sử dụng tập ví dụ trên đ°ợc coi làmột tập kiểm thử có thể quan sát, tôi cũng chuẩn bị thêm một tập ví dụ thử nghiệm khác chāa 200 ví dụ lấy từ các kết quÁ ch¿y cÿa từng mụ hỡnh đối vòi những danh mục sÁn phẩm khụng cú trong dữ liệu đào t¿o, cụ thể là từ các nhãn phân lo¿i<Toys and Games=và <Food, Household. D°òi đõy là bÁng tổng hợp so sỏnh kết quÁ giữa cỏc mụ hỡnh đề xuất dựa trờn cỏc tiêu chí đánh giá tự động, các mô hình đ°ợc so sánh bao gồm: Baseline (Transformer), GPT-2 base, GPT-2 Plus, GPT-2 + TAPT, GPT-2 Plus + TAPT. Tổng hợp kết quÁ đánh giá trên độ mất mát và độ đa d¿ng từ vựng Mô hình Loss n-gram Lexical Diversity. Từ BÁng 4.2 cú thể thấy rằng cỏc mụ hỡnh GPT-2 cú hiệu suất v°ợt trội so vòi mô hình c¢ sã trong cÁ 2 tiêu chí đánh giá là độ mất mát và độ đa d¿ngcÿa từ vựng. Lý do có thể đ°ợc đ°a ra để giÁi thích cho hiện t°ợng này là dữ liệu huấn luyện có kớch th°òc khụng đÿ để huấn luyện mụ hỡnh Transformer - một mụ hỡnh th°ỏng yờu cầu hàng triệu ví dụ huấn luyện. Do đó, các mô hình GPT-2 sẽ có lợi thế h¢n khi đã đ°ợc huấn luyện trên nhiềutập dữ liệu khác nhau. Đồng thái, các kết quÁ thí nghiệm trên các mô hình GPT-2 base và GPT-2 Plus cũng đã chāng minhrằng việc thêm dữ liệu đã đ°ợc viết l¿i sẽ cÁi thiện chất l°ợng cÿa các mô tÁ trên cÁ hai khía c¿nh đánh giỏ. Ngoài ra, việcỏp dụng ph°Âng phỏp TAPT vòi mụ hỡnh GPT-2 sẽ giỳp nõng cao chất l°ợng cÿa nú so vòi GPT-2 base. Tiếp theo, BÁng 4.3 d°òi đõy sẽ tổng hợp kết quÁ đỏnh giỏ cÿa cỏc mụ hỡnh trên các tập dữ liệu đã thấy và ch°a thấy dựa trên ph°¢ng pháp đánh giá thông qua con ng°ái. Tổng hợp kết quÁ đánh giá trên hai tập dữ liệu đã thấy và ch°a thấy Kết quÁ trên t¿p dữ liáu đã thấy. Mô hình Đá l°u loát Đá liên há Đá thông tin Tổng quan. Kết quÁ trên t¿p dữ liáu ch°a thấy. Mô hình Đá l°u loát Đá liên há Đá thông tin Tổng quan. Từ bÁng kết quÁ 4.3 có thể thấy, mô hình c¢ sã cho ra hiệu suất kém nhất trên cÁ 2 tập dữ liệu và 4 tiêu chí đánh giá, lý do dẫn đến điều này đã đ°ợc giÁi thích ã phần trên. Các mô hình GPT-2 vẫn cho hiệu suất tốt, đặc biệt mô hình GPT-2 Plus + TAPT đã chāng minh kết quÁ v°ợt trội trên cÁ hai tập dữ liệu. Một điểm cần chú ý nữa là các chỉ số nh° độ l°u loát và độ liên quan cÿa tất cÁ mô hình GPT-2 đều trên ng°ỡng 4, điều này chāng tỏ các mô tÁ đ°ợc sinh ra đều có độ l°u loát khá tốt và có nội dung phÁn ỏnh sỏt vòi sÁn phẩm t°Âng āng. Tuy độ đo thụng tin cú kết quÁ thấp hÂn so vòi cỏc độ đo khỏc, nú vẫn cho thấy rằng cỏc mụ tÁ đó cung cấp rất nhiều thông tin hữu ích cho ng°ái đọc. Tất cÁ kết quÁ và phân tích này đã cÿng cố rằng cách tiếp cận đ°ợc đề xuất trong luận văn là phù hợp và có thể mang l¿i những kết quÁ đầy hāa hẹn cho bài toỏn sinh mụ tÁ sÁn phẩm. D°òi đõy là một số vớ dụ kết quÁ thực tế cÿa các mô hình trong thực nghiệm trên. Một số mô tÁ sÁn phẩm đ°ợc t¿o ra bãi các mô hình Thông tin. Clothing/Wo men/Skirt Denim Skirt. Perfect for a chic or casual day, this Alivia Ford dress is a practical addition to any. Alivia Ford’s classic denim skirt are a go-to choice for work or play. Crafted with a hint of stretch for. Alivia Ford) (size: about knee).