Phân tích độ tin cậy của bình luận trên trang web thương mại điện tử

70 5 0
Phân tích độ tin cậy của bình luận trên trang web thương mại điện tử

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

Thông tin tài liệu

Phân tích độ tin cậy của bình luận trên trang web thương mại điện tử Phân tích độ tin cậy của bình luận trên trang web thương mại điện tửPhân tích độ tin cậy của bình luận trên trang web thương mại điện tửPhân tích độ tin cậy của bình luận trên trang web thương mại điện tử

ĐẠI HỌC QUỐC GIA HÀ NỘI TRƯỜNG ĐẠI HỌC CÔNG NGHỆ NGUYỄN HỮU QUANG PHÂN TÍCH ĐỘ TIN CẬY CỦA BÌNH LUẬN TRÊN TRANG WEB THƯƠNG MẠI ĐIỆN TỬ LUẬN VĂN THẠC SĨ KHOA HỌC MÁY TÍNH HÀ NỘI – 2021 ĐẠI HỌC QUỐC GIA HÀ NỘI TRƯỜNG ĐẠI HỌC CƠNG NGHỆ NGUYỄN HỮU QUANG PHÂN TÍCH ĐỘ TIN CẬY CỦA BÌNH LUẬN TRÊN TRANG WEB THƯƠNG MẠI ĐIỆN TỬ Ngành: Khoa học máy tính Chuyên ngành: Khoa học máy tính Mã Số: 8480101.01 LUẬN VĂN THẠC SĨ KHOA HỌC MÁY TÍNH NGƯỜI HƯỚNG DẪN KHOA HỌC: TS LÊ ĐỨC TRỌNG HÀ NỘI – 2021 i LỜI CẢM ƠN Em xin gửi lời cảm ơn chân thành đến TS Lê Đức Trọng hướng dẫn, giúp đỡ tận tình, chi tiết em trình học tập việc hồn thành luận văn Bên cạnh đó, em xin cảm ơn TS Harry Nguyen - người tư vấn, đưa lời khuyên bổ ích định hướng em giải nhiều vấn đề Em xin cảm ơn Khoa Khoa học máy tính - Trường Đại học Công nghệ, Đại học Quốc gia Hà Nội tạo điều kiện giúp em hoàn thành đề tài Do giới hạn kiến thức khả lý luận thân cịn nhiều thiếu sót hạn chế, kính mong dẫn đóng góp Thầy, Cơ để luận văn tơi hồn thiện Xin chân thành cảm ơn! ii LỜI CAM ĐOAN Tơi xin cam đoan tồn nội dung trình bày luận văn Phân tích độ tin cậy bình luận trang web thương mại điện tử kết trình tìm hiểu nghiên cứu Các liệu nêu đồ án hoàn toàn trung thực, phản ánh kết đo đạc thực tế Mội thơng tin trích dẫn tuân thủ quy định sở hữu trí tuệ; tài liệu tham khảo liệt kê rõ ràng Tơi xin chịu hồn tồn trách nhiệm với nội dung viết luận văn Hà Nội, ngày 25 tháng 10 năm 2021 Người cam đoan Nguyễn Hữu Quang iii MỤC LỤC LỜI CẢM ƠN i LỜI CAM ĐOAN ii MỤC LỤC iii DANH MỤC HÌNH VẼ iv DANH MỤC BẢNG BIỂU v PHẦN MỞ ĐẦU CHƯƠNG GIỚI THIỆU BÀI TOÁN 1.1 Dữ liệu thương mại điện tử 1.2 Bài toán dự đoán độ tin cậy bình luận trực tuyến 1.3 Mơ hình đa phương thức kết hợp mạng nơ ron đồ thị cho dự đốn độ tin cậy bình luận 10 CHƯƠNG CƠ SỞ LÝ THUYẾT 14 2.1 Các nghiên cứu liên quan 14 2.2 Kiến thức tảng 18 2.2.1 Mơ hình lập luận mạch lạc đa phương thức 18 2.2.2 Mạng nơ ron tích chập cho liệu đồ thị 28 CHƯƠNG MƠ HÌNH ĐỀ XUẤT 35 3.1 Đề xuất sử dụng mạng nơ-ron đồ thị tích chập mơ-đun phân tích quan hệ bình luận 35 3.2 Đánh giá ảnh hưởng mơ hình nhúng CHƯƠNG THỰC NGHIỆM VÀ KẾT QUẢ 38 40 4.1 Mô tả liệu 40 4.2 Phương pháp đánh giá cài đặt thực nghiệm 43 4.3 Kết thực nghiệm 48 CHƯƠNG KẾT LUẬN 55 TÀI LIỆU THAM KHẢO 56 iv DANH MỤC HÌNH VẼ Hình 1.1 Doanh số thương mại điện tử bán lẻ tồn cầu từ 2014 đến 2024 Hình 1.2 Một trang thông tin sản phẩm website Amazon Hình 1.3 Bình luận đánh giá khách hàng sản phẩm website Amazon.com Hình 1.4 Ví dụ xem xét sản phẩm Amazon bình luận xung quanh sản phẩm 11 Hình 2.1 MLP với hai lớp ẩn 25 Hình 2.2 Ví dụ số dạng liệu đồ thị thực tế 28 Hình 2.3 Ví dụ ma trận kề đồ thị 29 Hình 2.4 Mỗi nút đồ thị ánh xạ thành vectơ biểu diễn đặc trưng nút 30 Hình 2.5 Mạng GCN nhiều lớp với lọc bậc thấp 32 Hình 2.6 Ví dụ tích chập đồ thị 33 Hình 3.1 Mơ hình GCR cho dự đốn độ tin cậy bình luận 35 Hình 3.2 Cách thức hoạt động mơ đun phân tích quan hệ bình luận MCR GCR 36 Hình 3.3 Bộ nhúng ngơn ngữ sử dụng để chuyển văn thành vectơ ngữ nghĩa 38 Hình 4.1 Quá trình tiền xử lý liệu bình luận 41 Hình 4.2 Phân chia tập liệu huấn luyện đánh giá mơ hình 42 Hình 4.3 Các bước huấn luyện đánh giá mơ hình GCR 47 Hình 4.4 So sánh kết MCR ba mơ hình nhúng tập Clothing 51 Hình 4.5 So sánh kết MCR ba mơ hình nhúng tập Electronics 51 Hình 4.6 So sánh kết MCR ba mơ hình nhúng tập Home&Kitchen 52 v DANH MỤC BẢNG BIỂU Bảng 4.1 Thống kê số lượng mẫu ba tập liệu 42 Bảng 4.2 So sánh kết mơ hình GCR với MCR nhúng GLoVE 48 Bảng 4.3 So sánh chất lượng mơ hình GCR ba tập liệu với ba nhúng đề xuất 50 Bảng 4.4 So sánh cải thiện hiệu mơ hình GCR dùng Word2Vec với mơ hình sở 53 Bảng 4.5 So sánh hiệu suất huấn luyện bao gồm nhớ chiếm dụng tốc độ huấn luyện lần lặp GCR MCR ba liệu 54 PHẦN MỞ ĐẦU Những năm gần đây, thương mại điện tử trở nên phổ biến dần trở thành phần sống người với việc nhu cầu mua sắm người ngày tăng cao Bình luận khách hàng sản phẩm trở thành phương tiện tham khảo người dùng trước đưa định mua hàng Từ đó, tốn dự đốn độ tin cậy bình luận đời nhằm hỗ trợ khách hàng định Tận dụng thông tin văn bản, đánh giá bình luận sản phẩm, luận văn đề xuất mơ hình mạng nơron tích chập đồ thị cho toán dự đoán độ tin cậy Trong luận văn, em tập trung vào việc đề xuất mơ hình mạng đồ thị phân tích quan hệ bình luận tìm hiểu ảnh hưởng nhúng ngơn ngữ chất lượng mơ hình Từ kết thực nghiệm đưa nhận xét, đánh giá để hiểu rõ thuật toán sử dụng, mức độ cải thiện mơ hình Luận văn bao gồm chương: Chương 1: trình bày phát triển bùng nổ phổ biến thương mại điện tử nói chung trang web thương mại điện tử nói riêng Điều dẫn đến việc trang web tạo lưu trữ lượng liệu thông tin khổng lồ có bình luận khách hàng sản phẩm họ quan tâm Trình bày động lực thúc đẩy nghiên cứu giải toán độ tin cậy bình luận Từ đưa đề xuất mơ hình đa phương thức sử dụng mạng nơ ron tích chập đồ thị cho tốn dự đốn độ tin cậy bình luận sử dụng liệu văn hình ảnh Chương 2: trình bày số nghiên cứu liên quan đến mơ hình cho tốn dự đốn độ tin cậy bình luận mơ hình mạng nơ ron đồ thị Trình bày kiến thức sở cho mơ hình đa phương thức cho tốn dự đốn độ tin bình luận Trình bày lý thuyết liệu đồ thị, mạng nơ ron tích chập liệu đồ thị làm sở cho mạng GCN đề xuất Chương 3: trình bày mơ hình đề xuất phân tích quan hệ bình luận sử dụng mạng GCN nhằm nâng cao chất lượng mơ hình dự đốn độ tin cậy bình luận Trình bày ý tưởng nhúng ngôn ngữ nhằm hướng tới thực nghiệm nhúng khác để tìm hiểu ảnh hưởng chúng đến chất lượng mơ hình đề xuất Chương 4: trình bày liệu thực nghiệm, thống kê tiền xử lý liệu bình luận Đưa phương pháp đánh giá mơ hình dự đốn với phương pháp cài đặt thử nghiệm mơ hình tập liệu Trình bày kết thử nghiệm mơ hình đề xuất, so sánh kết thu liệu khác Chương 5: đưa kết em đạt hoàn thành luận văn nhận xét tổng thể luận văn thực Trong trình tìm hiểu, phân tích đánh giá, em khơng tránh khỏi sai sót, mong thầy đóng góp ý kiến để em ngày hồn thiện kỹ tìm hiểu, giải toán phương pháp đánh giá phân tích vấn đề 48 cao tập đánh giá Với siêu tham số, thực huấn luyện mơ hình lần seed khác lấy kết trung bình cho độ đo 4.3 Kết thực nghiệm Đánh giá hiệu GCN Mục trình bày số kết thử nghiệm mơ hình đề xuất (GCR) dataset Clothing, Electronics, Home Mỗi liệu thử nghiệm với loại pre-trained embedding khác cho mơ hình encoder văn bao gồm GloVe, Fasttext Word2Vec Để đánh giá độ hiệu mô hình đề xuất, em so sánh kết độ đo GCR với mơ hình sở MCR Bảng 4.2 So sánh kết mơ hình GCR với MCR nhúng GLoVE Clothing Electronics Home MCR (GLoVE) GCR (GLoVE) Độ cải thiện (%) MAP 0.550 0.578* 5,097 NDCG@3 0.442 0.486 9.938 NDCG@5 0.515 0.557* 8.036 MAP 0.548 0.564* 2.980 NDCG@3 0.333 0.356 7.009 NDCG@5 0.346 0.368 6.340 MAP 0.577 0.588* 1.908 NDCG@3 0.447 0.469* 5.001 NDCG@5 0.514 0.533* 3.779 Với việc mơ hình sở công bố hoạt động embedding GLoVE, trước hết ta so sánh chất lượng mơ hình GCR với MCR nhúng GLoVE Kết tổng hợp sau chạy thực nghiệm mơ hình sở mơ hình đề xuất (GCR) liệu Amazon trình bày bảng 4.2 Trong đó, dấu * thể kết có mang ý nghĩa thống kê thông qua kiểm thử t-test 49 Độ cải thiện thể mức độ phần trăm chất lượng mơ hình độ đo tăng lên điểm số mơ hình sở Cụ thể: Độ 𝑐ả𝑖 𝑡ℎ𝑖ệ𝑛 (%) = (Đ𝑖ể𝑚 𝑠ố đá𝑛ℎ 𝑔𝑖á 𝑡𝑟ê𝑛 𝑚ô ℎì𝑛ℎ đề 𝑥𝑢ấ𝑡 − Đ𝑖ể𝑚 𝑠ố đá𝑛ℎ 𝑔𝑖á 𝑡𝑟ê𝑛 𝑚ơ ℎì𝑛ℎ 𝑐ơ 𝑠ở)*100 Đ𝑖ể𝑚 𝑠ố đá𝑛ℎ 𝑔𝑖á 𝑡𝑟ê𝑛 𝑚ơ ℎì𝑛ℎ 𝑐ơ 𝑠ở Với liệu CS&J, so sánh mơ hình đề xuất GCR với mơ hình sở MCR, mơ hình GCR cho kết tốt độ đo MAP, NDCG@3 NDCG@5 với độ chênh lệch trung bình khoảng 7.6% Tương tự với tập liệu thử nghiệm lại, GCR tốt khoảng 3.5% H&K 5.4 % Elec Như vậy, mơ hình đề xuất hoạt động hiệu liệu sử dụng Điều thể việc sử dụng GCN để học đặc trưng mạng đồ thị mang đến kết cao so với dùng mơ hình MLP GCN nắm bắt thơng tin quan trọng không gian mạng, thứ mà mạng truyền thống MLP làm [23] 50 Đánh giá ảnh hưởng mơ hình nhúng Bảng 4.3 So sánh chất lượng mơ hình GCR ba tập liệu với ba nhúng đề xuất Clothing Electronics Home GCR (GLoVE) GCR (FastText) GCR (Word2Vec) MAP 0.578 0.584 0.608* NDCG@3 0.486 0.501 0.544* NDCG@5 0.557 0.573 0.607* MAP 0.564 0.365 0.574* NDCG@3 0.356 0.360 0.369 NDCG@5 0.368 0.368 0.381 MAP 0.588 0.590 0.599 NDCG@3 0.469 0.474 0.494 NDCG@5 0.533 0.541 0.557 Phần trình bày hiệu vượt trội mơ hình GCR so với MCR toán dự đoán độ tin cậy bình luận Tiếp tục, mơ hình GCR thử nghiệm dùng embedding khác nêu để đánh giá ảnh hưởng chúng Kết từ bảng 4.3 cho thấy, Word2Vec cho kết vượt trội liệu, sau đến FastText cuối GLoVE Để trực quan hố việc xem xét kết quả, hình thể khác biệt mặt hiệu suất độ đo dataset 51 Hình 4.4 So sánh kết MCR ba mơ hình nhúng tập Clothing Hình 4.5 So sánh kết MCR ba mơ hình nhúng tập Electronics 52 Hình 4.6 So sánh kết MCR ba mơ hình nhúng tập Home&Kitchen Với thực nghiệm mơ hình đề xuất embedding khác nhau, kết cho thấy, Word2Vec cho kết tốt tất thử nghiệm, sau đến FastText cuối GLoVE Như vậy, rõ ràng việc thay đổi embedding ngơn ngữ mang đến ảnh hưởng rõ rệt đến chất lượng mơ hình GLoVE tập trung vào đồng xuất từ tồn tập liệu Do đó, việc nhúng từ liên quan đến xác suất hai từ đồng thời xuất GLoVE sử dụng phương pháp factorize ma trận đồng xuất từ nhằm suy luận embedding cho từ Word2Vec sử dụng từ làm đơn vị nhỏ để nhúng, nhiên Word2Vec sử dụng mạng nơron để học, học pattern ẩn mà GLoVE không học FastText dựa Word2Vec thay dùng từ làm đơn vị nhỏ nhất, FastText xem xét đến mức độ n-gram từ Việc cho phép đào tạo cách nhúng tập liệu nhỏ tổng quát thành từ không xác định 53 Tuy phương pháp giảm việc out-of-vocabulary tức từ không xuất tập nhúng, đồng thời bắt từ nhiễu (viết thiếu, viết tắt, ký hiệu, …) vốn đặc điểm văn không gian mạng Điều dẫn đến chất lượng mơ hình khơng tốt với Word2Vec Đánh giá độ cải thiện mơ hình GCR dùng Word2Vec với mơ hình sở Bảng 4.4 So sánh cải thiện hiệu mơ hình GCR dùng Word2Vec với mơ hình sở Clothing Electronics Home MCR (GLoVE) GCR (Word2Vec) Độ cải thiện (%) MAP 0.550 0.608* 10.55 NDCG@3 0.442 0.544* 23.08 NDCG@5 0.515 0.607* 17.86 MAP 0.548 0.574* 4.74 NDCG@3 0.333 0.369* 10.81 NDCG@5 0.346 0.381* 10.12 MAP 0.577 0.599* 3.81 NDCG@3 0.447 0.494* 10.51 NDCG@5 0.514 0.557* 8.37 Xem xét độ cải thiện chất lượng mơ hình liệu sử dụng mơ hình GCR dùng Word2Vec, thấy mơ hình mang đến kết tốt hẳn so với GCR dùng GLoVE so với mơ hình sở Ngồi ra, tất giá trị độ đo có ý nghĩa thống kê so sánh với MCR Như vậy, việc sử dụng mô hình GCR cho tốn dự đốn độ tin cậy bình luận với liệu văn hình ảnh cho kết tốt MCR - mơ hình state-of-the-art với liệu đa phương thức Ngoài việc dùng embedding Word2Vec giúp cải thiện thêm chất lượng dự đoán tốt khác GLoVE FastText 54 Việc sử dụng GCN ngồi việc mang đến hiệu mơ hình tốt độ đo đánh giá, cịn giúp tăng tốc độ huấn luyện số lượng tham số so với mạng MLP Thực nghiệm huấn luyện mô hình GPU cho thấy, nhớ chiếm dụng q trình huấn luyện GCN so với mơ hình sở dùng MLP tập liệu siêu tham số lớn Điều dẫn đến thời gian huấn luyện mơ hình đề xuất iteration nhanh mơ hình sở số lượng tham số cần tối ưu Bảng 4.5 So sánh hiệu suất huấn luyện bao gồm nhớ chiếm dụng tốc độ huấn luyện lần lặp GCR MCR ba liệu MCR GCR Clothing Electronics Home Bộ nhớ chiếm dụng (MegaBytes) 9956 10504 9850 Tốc độ huấn luyện (s/it) 0.51 0.81 0.36 Bộ nhớ chiếm dụng (MegaBytes) 8308 9820 8304 Tốc độ huấn luyện (s/it) 0.46 0.75 0.29 Bộ nhớ chiếm dụng đo đạc thông qua kiểm tra nhớ GPU mà mơ hình huấn luyện sử dụng, đảm bảo có mơ hình hoạt động GPU Các tham số mơ hình đẩy vào lưu trữ GPU huấn luyện Do vậy, nhớ chiếm dụng thể số lượng tham số mà mơ hình sử dụng Với việc thiết đặt giống mơ hình sở mơ hình đề xuất, việc nhớ GPU mơ hình đề xuất thấp thể số lượng tham số cần đào tạo GCR MCR Điều dẫn đến thời gian huấn luyện lần lặp qua mẫu liệu GCR nhanh MCR Như vậy, mặt hiệu năng, mơ hình đề xuất cho kết vượt trội so với mơ hình sở 55 CHƯƠNG KẾT LUẬN Sau khoảng thời gian tích cực nghiêm túc thực luận văn tốt nghiệp thạc sĩ với đề tài “Phân tích độ tin cậy bình luận trang web thương mại điện tử”, em đạt số kết sau: Hiểu phát triển tiềm liệu thương mại điện tử, đặc biệt bình luận khách hàng; Tận dụng liệu bình luận bao gồm văn hình ảnh đưa hướng giải vấn đề tải thông tin người dùng việc đưa định mua sắm thông qua việc xây dựng mô hình giúp dự đốn điểm số độ tin cậy bình luận sản phẩm; Hiểu đặc điểm liệu đồ thị số phương pháp khai thác tốt đặc trưng loại liệu này; Đưa mơ hình đề xuất sử dụng GCN cho việc học thông tin không gian liệu đồ thị, giúp cải thiện hiệu suất bao gồm hiệu hiệu mô hình dự đốn độ tin cậy bình luận; Hiểu khác mơ hình embedding văn ảnh hưởng chúng chất lượng mơ hình đề xuất; Nắm kỹ thuật thu thập, tiền xử lý, trích xuất đặc trưng từ liệu trang web trước đưa vào mơ hình; Thực quy trình huấn luyện bao gồm vịng lặp đánh giá tập thử nhằm tìm mơ hình tối ưu tránh overfitting; Thử nghiệm tối ưu thuật tốn ngơn ngữ lập trình Python Kết thực nghiệm cho kết khả quan đáp ứng ý nghĩa thống kê, chứng minh hiệu cải thiện rõ rệt sử dụng GCN cho nút bình luận Mơ hình có khả phục vụ hướng tìm hiểu, triển khai nghiên cứu khai thác liệu trang web thương mại điện tử hỗ trợ khách hàng đưa định Trong tương lai, em tiếp tục cải tiến, thử nghiệm mơ hình tập liệu bình luận khác nhau, từ web thương mại điện tử khác, đặc biệt web dành cho người Việt Shopee, Tiki, … nhằm nâng cao tính ứng dụng thực tế Ngồi khai thác thêm thông tin từ người dùng để làm giàu thêm thông tin đặc trưng cho dự đoán 56 TÀI LIỆU THAM KHẢO [1] A Joulin, E Grave, P Bojanowski, M Douze, H Jégou, T Mikolov, FastText.zip: Compressing text classification models [2] Andy Liaw, Matthew Wiener, et al 2002 Classification and regression by ran-domForest R news 2, (2002), 18–22 [3] Ashesh Jain and Amir R Zamir and Silvio Savarese and Ashutosh Saxena (2016) Structural-RNN: Deep Learning on Spatio-Temporal Graphs [4] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin 2017 Attention is all you need In Advances in neural information processing systems, pages 5998–6008 [5] Brown, Tom & Mann, Benjamin & Ryder, Nick & Subbiah, Melanie & Kaplan, Jared & Dhariwal, Prafulla & Neelakantan, Arvind & Shyam, Pranav & Sastry, Girish & Askell, Amanda & Agarwal, Sandhini & Herbert-Voss, Ariel & Krueger, Gretchen & Henighan, Tom & Child, Rewon & Ramesh, Aditya & Ziegler, Daniel & Wu, Jeffrey & Winter, Clemens & Amodei, Dario (2020) Language Models are Few-Shot Learners [6] Cen Chen, Minghui Qiu, Yinfei Yang, Jun Zhou, Jun Huang, Xiaolong Li, and Forrest Sheng Bao 2019 Multi-domain gated CNN for review helpfulness prediction In The World Wide Web Conference, pages 2630–2636 [7] Cen Chen, Yinfei Yang, Jun Zhou, Xiaolong Li, and Forrest Bao 2018 Cross-domain review helpful-ness prediction based on convolutional neural networks with auxiliary domain discriminators InPro-ceedings of the 2018 Conference of the North Amer-ican Chapter of the Association for Computational Linguistics: Human Language Technologies, Vol-ume (Short Papers), pages 602–607 57 [8] Chih-Chung Chang and Chih-Jen Lin 2011 LIBSVM: a library for support vector machines ACM transactions on intelligent systems and technology 2, (2011), 27 [9] David K Duvenaud, Dougal Maclaurin, Jorge Iparraguirre, Rafael Bombarell, Timothy Hirzel, Alan Aspuru-Guzik, Ryan P Adams 2015 Convolutional Networks on Graphs for Learning Molecular Fingerprints Advances in Neural Information Processing Systems 28 [10] Dellarocas, Chrysanthos (2003) The Digitization of Word of Mouth: Promise and Challenges of Online Feedback Mechanisms Management Science 49 10.2139/ssrn.393042 [11] Devlin, Jacob, Chang, Ming-Wei, Lee, Kenton and Toutanova, Kristina BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding (2018) , cite arxiv:1810.04805Comment: 13 pages [12] Diederik P Kingma and Jimmy Ba 2014 Adam: A method for stochastic optimization arXiv preprint arXiv:1412.6980 [13] Edward Loper and Steven Bird 2002 NLTK:The nat-ural language toolkit arXiv preprint cs/0205028 [14] F Scarselli, M Gori, A C Tsoi, M Hagenbuchner, and G Monfardini The graph neural network model IEEE Transactions on Neural Networks, 20(1):61{80, 2009 [15] Ghannay, Sahar & Favre, Benoit & Estève, Yannick & Camelin, Nathalie (2016) Word Embeddings Evaluation and Combination Language Resources and Evaluation [16] Gerardo Ocampo Diaz and Vincent Ng 2018 Model-ing and prediction of online product review helpful-ness: a survey In Proceedings of the 56th Annual Meeting of the Association for Computational Lin-guistics (Volume 1: Long Papers), pages 698–708 58 [17] Gr´egoire Mesnil, Yann Dauphin, Kaisheng Yao, YoshuaBengio, Li Deng, Dilek Hakkani-Tur, Xiaodong He,Larry Heck, Gokhan Tur, Dong Yu, et al 2015 Us-ing Recurrent Neural Networks for Slot Filling in SpokenLanguage Understanding Audio, Speech, and LanguageProcessing, IEEE/ACM Transactions on, 23(3):530–539 [18] Jeffrey Pennington and Richard Socher and Christopher D Manning (2014) GloVe: Global Vectors for Word Representation Empirical Methods in Natural Language Processing (EMNLP), pp 1532 1543 [19] Jianmo Ni, Jiacheng Li, and Julian McAuley 2019 Justifying recommendations using distantly-labeled reviews and fine-grained aspects In Proceedings of the 2019 Conference on Empirical Methods in Nat-ural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pages 188–197 [20] Jie Zhou, Ganqu Cui, Shengding Hu, Zhengyan Zhang, Cheng Yang, Zhiyuan Liu, Lifeng Wang, Changcheng Li, and Maosong Sun Graph neural networks: A review of methods and applications, 2021 [21] Joan Bruna and Wojciech Zaremba and Arthur Szlam and Yann LeCun (2014), Spectral Networks and Locally Connected Networks on Graphs [22] Joseph Turian, Lev Ratinov, and Yoshua Bengio 2010.Word representations: a simple and general method for semi-supervised learning In Proceedings of the 48th an-nual meeting of the association for computational lin-guistics, pages 384–394 Association for ComputationalLinguistics [23] Hartnett, Gavin & Vardavas, Raffaele & Baker, Lawrence & Chaykowski, Michael & Gibson, C & Girosi, Federico & Kennedy, David & Osoba, Osonde (2020) Deep Generative Modeling in Network Science with Applications to Public Policy Research 59 [24] Kalervo Järvelin and Jaana Kekalainen 2017 IR evaluation methods for retrieving highly relevant documents In ACM SIGIR Forum, volume 51, pages 243–250 ACM New York, NY, USA [25] Kipf, Thomas & Welling, Max (2016) Semi-Supervised Classification with Graph Convolutional Networks [26] Lionel Martin and Pearl Pu 2014 Prediction of Helpful Reviews Using Emotions Extraction In Proceedings of the Twenty-Eighth AAAI Conference on Artificial Intelligence (AAAI) AAAI Press, 1551–1557 [27] Liu, Junhao and Hai, Zhen and Yang, Min and Bing, Lidong (2020) Multi-perspective Coherent Reasoning for Helpfulness Prediction of Multimodal Reviews Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp.5927-5936 [28] Mahdi Abavisani, Liwei Wu, Shengli Hu, Joel Tetreault, and Alejandro Jaimes 2020 Multimodal categorization of crisis events in social media In Proceedings of the IEEE/CVF Conference on Com-puter Vision and Pattern Recognition, pages 14679– 14689 [29] Miao Fan, Chao Feng, Lin Guo, Mingming Sun, and Ping Li (2019), Product-Aware Helpfulness Prediction of Online Reviews In The World Wide Web Conference (WWW '19) Association for Computing Machinery, New York, NY, USA, 2715–2721 [30] Mikael Henaff and Joan Bruna and Yann LeCun (2015) Deep Convolutional Networks on Graph-Structured Data [31] Mikolov, Tomas & Chen, Kai & Corrado, G.s & Dean, Jeffrey (2013) Efficient Estimation of Word Representations in Vector Space Proceedings of Workshop at ICLR 2013 [32] Mohit Bansal, Kevin Gimpel, and Karen Livescu 2014a.Tailoring continuous word representations for depen-dency parsing In Proceedings of the 60 52nd Annual Meet-ing of the Association for Computational Linguistics(Volume 2: Short Papers), pages 809–815 Associationfor Computational Linguistics [33] Moore, S.G., Attitude predictability and helpfulness in online reviews: The role of explained actions and reactions Journal of Consumer Research, 2015 42(1): p 30-44 [34] Nan Xu, Zhixiong Zeng, and Wenji Mao 2020 Rea-soning with multimodal sarcastic tweets via mod-eling cross-modality contrast and semantic associ-ation In Proceedings of the 58th Annual Meet-ing of the Association for Computational Linguistics, pages 3777–3786 [35] Nicola De Cao and Thomas Kipf Molgan: An implicit generative model for small molecular graphs, 2018 [36] Nielsen (2013) The reviews are in: Yelp users are four-star consumers, 06.27.2013.http://www.nielsen.com/us/en/newswire/2013/the-reviews-are-in–yel p-users-are-four-star-consumers.html [37] Peter Anderson, Xiaodong He, Chris Buehler, Damien Teney, Mark Johnson, Stephen Gould, and Lei Zhang 2018 Bottom-up and top-down attention for image captioning and visual question answering In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 6077– 6086 [38] Philip J Stone, Robert F Bales, J Zvi Namenwirth, and Daniel M Ogilvie 1962 The general inquirer: A computer system for content analysis and retrieval based on the sentence as a unit of information Behavioral Science 7, (1962), 484–498 [39] Qing Cao, Wenjing Duan, Qiwei Gan, Exploring determinants of voting for the “helpfulness” of online user reviews: A text mining approach, Decision Support Systems, Volume 50, Issue 2, 2011, Pages 511-521, ISSN 0167-9236 [40] Radford, Alec, Wu, Jeffrey, Child, Rewon, Luan, David, Amodei, Dario and Sutskever, Ilya "Language Models are Unsupervised Multitask Learners." (2018) 61 [41] Ronan Collobert, Jason Weston, Leon Bottou, MichaelKarlen, Koray Kavukcuoglu, and Pavel Kuksa 2011.Natural Language Processing (Almost) from Scratch.volume 12, pages 2493–2537 JMLR.org [42] Rong-En Fan, Kai-Wei Chang, Cho-Jui Hsieh, Xiang-Rui Wang, and Chih-Jen Lin 2008 LIBLINEAR: A Library for Large Linear Classification Journal of Machine Learning Research (JMLR) (2008), 1871–1874 [43] Sahar Ghannay, Yannick Est`eve, Nathalie Camelin,Camille Dutrey, Fabian Santiago, and Martine Adda-Decker 2015 Combining continuous word representa-tion and prosodic features for asr error prediction In the 3rdInternational Conference on Statistical Language andSpeech Processing (SLSP 2015), Budapest (Hungary),November 24-26 [44] Susan M Mudambi and David Schuff 2010 What Makes a Helpful Online Review? A Study of Customer Reviews on Amazon.Com MIS Quarterly 34, (March 2010), 185–200 [45] Soo-Min Kim, Patrick Pantel, Tim Chklovski, and Marco Pennacchiotti 2006 Automatically Assessing Review Helpfulness In Proceedings of the 2006 Conference on Empirical Methods in Natural Language Processing (EMNLP) Association for Computational Linguistics, 423–430 [46] Vladimir Svetnik, Andy Liaw, Christopher Tong, J Christopher Culberson, Robert P Sheridan, and Bradley P Feuston 2003 Random forest: a classification and regression tool for compound classification and QSAR modeling Journal of chemical information and computer sciences 43, (2003), 1947–1958 [47] Wenting Xiong and Diane J Litman 2014 Empirical analysis of exploiting review helpfulness for extractive summarization of online reviews In Proceedings of the 25th International Conference on Computational Linguistics(COLING) Associationfor Computational Linguistics, 1985–1995 [48] William L Hamilton, Rex Ying, and Jure Leskovec Representation learning on graphs: Methods and applications, 2018 62 [49] Yann LeCun and Yoshua Bengio 1998 The Handbook of Brain Theory and Neural Networks (1998), 255–258 [50] Yinfei Yang, Yaowei Yan, Minghui Qiu, and Forrest Bao 2015 Semantic Analysis and Helpfulness Prediction of Text for Online Product Reviews In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics (ACL) Association for Computational Linguistics, 38–44 [51] Yoon Kim 2014 Convolutional Neural Networks for Sentence Classification In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP) Association for Computational Linguistics, 1746–1751 [52] Yujia Li and Daniel Tarlow and Marc Brockschmidt and Richard Zemel (2017) Gated Graph Sequence Neural Networks [53] Zhiguo Wang, Wael Hamza, and Radu Florian 2017 Bilateral multiperspective matching for natural lan-guage sentences In Proceedings of the 26th International Joint Conference on Artificial Intelligence, pages 4144–4150 [54] Zhuyun Dai, Chenyan Xiong, Jamie Callan, and Zhiyuan Liu 2018 Convolutional neural networks for soft-matching n-grams in ad-hoc search In Proceedings of the eleventh ACM international confer-ence on web search and data mining, pages 126– 134 [55] Zonghan Wu, Shirui Pan, Fengwen Chen, Guodong Long, Chengqi Zhang, and Philip S Yu A comprehensive survey on graph neural networks IEEE Transactions on Neural Networks and Learning Systems, 32(1):4{24, Jan 2021 ... CÔNG NGHỆ NGUYỄN HỮU QUANG PHÂN TÍCH ĐỘ TIN CẬY CỦA BÌNH LUẬN TRÊN TRANG WEB THƯƠNG MẠI ĐIỆN TỬ Ngành: Khoa học máy tính Chuyên ngành: Khoa học máy tính Mã Số: 8480101.01 LUẬN VĂN THẠC SĨ KHOA HỌC... hình ảnh sản phẩm bình luận kí hiệu

Ngày đăng: 27/03/2023, 08:27