1. Trang chủ
  2. » Luận Văn - Báo Cáo

Luận án tiến sĩ máy tính phương pháp gia tăng rút gọn thuộc tính trong bảng quyết định thay đổi theo tiếp cận tập thô mờ

132 0 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 132
Dung lượng 4,33 MB

Nội dung

BỘ GIÁO DỤC VÀ ĐÀO TẠO VIỆN HÀN LÂM KHOA HỌC VÀ CÔNG NGHỆ VIỆT NAM HỌC VIỆN KHOA HỌC VÀ CÔNG NGHỆ - HỒ THỊ PHƯỢNG PHƯƠNG PHÁP GIA TĂNG RÚT GỌN THUỘC TÍNH TRONG BẢNG QUYẾT ĐỊNH THAY ĐỔI THEO TIẾP CẬN TẬP THÔ MỜ LUẬN ÁN TIẾN SĨ MÁY TÍNH HÀ NỘI - 2021 BỘ GIÁO DỤC VÀ ĐÀO TẠO VIỆN HÀN LÂM KHOA HỌC VÀ CÔNG NGHỆ VIỆT NAM HỌC VIỆN KHOA HỌC VÀ CÔNG NGHỆ - HỒ THỊ PHƯỢNG PHƯƠNG PHÁP GIA TĂNG RÚT GỌN THUỘC TÍNH TRONG BẢNG QUYẾT ĐỊNH THAY ĐỔI THEO TIẾP CẬN TẬP THƠ MỜ Chun ngành : Khoa học máy tính Mã số : 48 01 01 LUẬN ÁN TIẾN SĨ MÁY TÍNH Người hướng dẫn khoa học: PGS.TS Nguyễn Long Giang HÀ NỘI - 2021 LỜI CẢM ƠN Luận án này được hoàn thành với nỗ lực không ngừng của tác giả và giúp đỡ từ các thầy giáo hướng dẫn, bạn bè và người thân Đầu tiên, tác giả xin bày tỏ lời tri ân tới PGS.TS Nguyễn Long Giang, Viện Công nghệ Thông tin, Viện Hàn lâm Khoa học và Công nghệ Việt Nam người thầy tận tình hướng dẫn tác giả hồn thành luận án Tác giả xin gửi lời cảm ơn sâu sắc đến thầy cô, bạn bè công tác tại Viện Công nghệ Thông tin, Viện Hàn lâm Khoa học và Cơng nghệ Việt Nam nhiệt tình giúp đỡ và tạo môi trường nghiên cứu tốt để tác giả hoàn thành cơng trình của mình; cảm ơn thầy cô và các đồng nghiệp các nơi mà tác giả tham gia viết bài có góp ý xác để tác giả có được công bố ngày hôm Cảm ơn Học Viện Khoa học Công nghệ Việt Nam tạo mọi điều kiện thuận lợi để tác giả hoàn thành Luận án Tác giả xin gửi lời cảm ơn tới Đảng ủy, Ban Giám hiệu trường Đại học Tây Nguyên nơi tác giả công tác ủng hộ và tạo mọi điều kiện để tác giả hoàn thành luận án đúng thời hạn Cuối cùng, tác giả xin gửi tới bạn bè, người thân lời cảm ơn chân thành nhất đồng hành cùng tác giả suốt thời gian qua Con xin cảm ơn Cha, Mẹ gia đình ln là chỗ dựa vững tinh thần vật chất, là người mong mỏi cho thành công; cảm ơn chồng anh chị em gánh vác cơng việc gia đình thay cho em; xin lỗi phần nào chịu thiệt thịi thời gian mẹ học tập nghiên cứu, nguồn đợng lực lớn lao giúp mẹ hồn thành được cơng việc khó khăn này Hà Nội, tháng 01 năm 2021 Hồ Thị Phượng LỜI CAM ĐOAN Các kết quả trình bày ḷn án là cơng trình nghiên cứu của tơi được hoàn thành dưới hướng dẫn của PGS.TS Nguyễn Long Giang Những kết quả trình bày là mới và chưa được cơng bố các cơng trình của người khác Tôi xin chịu trách nhiệm lời cam đoan của Hà Nội, Ngày….tháng ….năm 2021 Nghiên cứu sinh Hồ Thị Phượng i MỤC LỤC MỞ ĐẦU CHƯƠNG TỔNG QUAN VỀ RÚT GỌN THUỘC TÍNH THEO TẬP THƠ MỜ 1.1 Tổng quan rút gọn tḥc tính .8 1.2 Các hướng tiếp cận filter-wrapper rút gọn tḥc tính 10 1.3 Tổng quan tập thô mờ 11 1.3.1 Bảng định và quan hệ tương đương 12 1.3.2 Quan hệ tương đương mờ 12 1.3.3 Ma trận tương đương mờ 14 1.3.4 Phân hoạch mờ 14 1.4 Các nghiên cứu liên quan đến rút gọn tḥc tính theo tiếp cận tập thơ mờ 17 1.4.1 Rút gọn tḥc tính theo tiếp cận tập thô mờ 17 1.4.2 Phương pháp gia tăng rút gọn tḥc tính theo tiếp cận tập thơ mờ 19 1.5 Tóm tắt các đóng góp của luận án 23 1.6 Kết luận chương 24 CHƯƠNG THUẬT TỐN FIFTER-WRAPPER RÚT GỌN THUỘC TÍNH TRONG BẢNG QUYẾT ĐỊNH SỬ DỤNG KHOẢNG CÁCH MỜ 25 2.1 Mở đầu 25 2.2 Xây dựng khoảng cách hai tập mờ 26 2.2.1 Độ đo khoảng cách mờ 27 2.2.2 Độ đo khoảng cách mờ và các tính chất 27 2.3 Tḥt tốn filter tìm tập rút gọn sử dụng khoảng cách mờ 30 2.4 Tḥt tốn filter-wrapper tìm tập rút gọn sử dụng khoảng cách mờ 36 2.5 Thực nghiệm và đánh giá kết quả thuật toán 37 2.5.1 Mục tiêu thực nghiệm 37 2.5.2 Số liệu, phương pháp và môi trường thực nghiệm 38 2.5.3 Kết quả so sánh đợ xác phân lớp và số lượng tḥc tính tập rút gọn 39 2.5.4 Kết quả so sánh thời gian thực hiện 41 2.6 Kết luận Chương 42 ii CHƯƠNG THUẬT TOÁN GIA TĂNG FIFTER-WRAPPER TÌM TẬP RÚT GỌN KHI BỔ SUNG, LOẠI BỎ TẬP ĐỐI TƯỢNG 44 3.1 Mở đầu 44 3.2 Tḥt tốn gia tăng filter-wrapper tìm tập rút gọn bổ sung tập đối tượng .47 3.2.1 Công thức gia tăng để tính khoảng cách mờ bổ sung một đối tượng 47 3.2.2 Công thức gia tăng tính khoảng cách mờ bổ sung tập đối tượng 50 3.3 Thuật toán gia tăng fifter-wrapper tìm tập rút gọn loại bỏ tập đối tượng 71 3.4 Kết luận Chương 88 CHƯƠNG THUẬT TỐN GIA TĂNG FIFTER-WRAPPER TÌM TẬP RÚT GỌN KHI BỔ SUNG, LOẠI BỎ TẬP THUỘC TÍNH 90 4.1 Mở đầu 90 4.2 Thuật toán gia tăng filter-wrapper tìm tập rút gọn bổ sung tập tḥc tính 93 4.2.1 Công thức gia tăng cập nhật khoảng cách bổ sung tập tḥc tính 93 4.2.2 Thuật toán gia tăng filter-wrapper tìm tập rút gọn bổ sung tập tḥc tính 94 4.2.3 Thực nghiệm và đánh giá thuật toán 97 4.3 Thuật toán gia tăng filter-wrapper tìm tập rút gọn loại bỏ tập tḥc tính .106 4.3.1 Cơng thức cập nhật khoảng cách loại bỏ tập thuộc tính 106 4.3.2 Thuật toán gia tăng filter-wrapper cập nhật tập rút gọn loại bỏ tập tḥc tính 106 4.4 Kết luận Chương 108 KẾT LUẬN 110 DANH MỤC CƠNG TRÌNH CỦA TÁC GIẢ 111 TÀI LIỆU THAM KHẢO 112 iii DANH MỤC CÁC THUẬT NGỮ Thuật ngữ tiếng Việt Thuật ngữ tiếng Anh Tập thô Rough Set Tập thô mờ Fuzzy Rough Set Hệ thông tin Information System Bảng định Decision Tables Bảng định mờ Fuzzy Decision Tables Quan hệ tương đương Equivalence Relation Quan hệ tương đương mờ Fuzzy Equivalence Relation Phân hoạch mờ Fuzzy Partition Ma trận tương đương mờ Fuzzy Equivalence Matrix Lớp tương đương mờ Fuzzy equivalence Classes Xấp xỉ mờ Fuzzy Lower Approximation Xấp xỉ mờ Fuzzy Upper Approximation Rút gọn thuộc tính Attribute Reduction Tập rút gọn Reduct Phương pháp gia tăng Incremental Methods Khoảng cách mờ Fuzzy Distance Hàm thuộc mờ Fuzzy Dependency Function Lọc Filter Đóng gói Wrapper iv BẢNG CÁC KÝ HIỆU, TỪ VIẾT TẮT Ký hiệu, từ viết tắt Diễn giải DS  U , C  D  Bảng định U Số đối tượng C Số tḥc tính điều kiện bảng định u a Giá trị của đối tượng u tại tḥc tính a IND  B  Quan hệ tương đương B U/P Phân hoạch của U P  u B Lớp tương đương chứa u của phân hoạch U / P Ra RP Quan hệ tương đương mờ R Quan hệ tương đương mờ 𝑅̃ tập thuộc tính P M ( RP ) Ma trận tương đương mờ của 𝑅̃𝑃   Φ RP Phân hoạch mờ 𝑅̃𝑃 Lớp tương đương mờ của xi thuộc phân hoạch mờ Φ  RP   xi P  xi P Lực lượng lớp tương đương mờ  xi P PX Tập xấp xỉ dưới mờ của X đối với RP PX Tập xấp xỉ mờ của X đối với RP      FPD Φ RP ,Φ RQ Khoảng cách mờ hai phân hoạch mờ Φ  RP   Φ  RQ  v DANH MỤC CÁC BẢNG Bảng 1.1 Bảng định của Ví dụ 1.1 16 Bảng 1.2 Liệt kê nghiên cứu liên quan đến tḥt tốn heuristic tìm tập rút gọn của bảng định theo tiếp cận tập thô mờ 18 Bảng 1.3 Liệt kê nghiên cứu liên quan đến thuật toán gia tăng tìm tập rút gọn của bảng định theo tiếp cận tập thô mờ 21 Bảng 2.1 Bảng định của Ví dụ 2.2 33 Bảng 2.2 Bộ liệu thử nghiệm thuật toán FW_FDBAR 38 Bảng 2.3 Đợ xác phân lớp số lượng tḥc tính tập rút gọn 39 Bảng 2.4 Thời gian thực hiện FW_FDBAR, FEBAR, FPDAR 41 Bảng 3.1 Bảng định của Ví dụ 3.1 48 Bảng 3.2 Bảng định sau thêm đối tượng u4 của Ví dụ 3.1 49 Bảng 3.3 Bảng định của Ví dụ 3.2 51 Bảng 3.4 Bảng định của Ví dụ 3.2 sau thêm tập đối tượng 52 Bảng 3.5 Bộ liệu thử nghiệm thêm tập đối tượng .59 Bảng 3.6 Thời gian thực hiện của thuật toán IFW_FDAR_AdObj, IV-FS-FRS-2 IARM, ASS-IAR IFSA (tính giây) 60 Bảng 3.7 Đợ xác phân lớp số lượng tḥc tính tập rút gọn của thuật toán IFW_FDAR_AdObj, IV-FS-FRS-2, IARM, ASS-IAR IFSA 65 Bảng 3.8 Bảng định của Ví dụ 3.3 72 Bảng 3.9 Bảng định sau loại bỏ đối tượng của Ví dụ 3.3 74 Bảng 3.10 Bảng định của Ví dụ 3.4 76 Bảng 3.11 Bảng định sau loại bỏ tập đối tượng của Ví dụ 3.4 .78 Bảng 3.12 Mô tả liệu loại bỏ tập đối tượng .83 Bảng 3.13 Thời gian thực hiện của thuật toán IFW_FDAR_DelObj IFSD .84 Bảng 3.14 Đợ xác phân lớp của tḥt tốn IFW_FDAR_DelObj IFSD .86 Bảng 4.1 Bợ liệu thử nghiệm 98 Bảng 4.2 Số lượng thuộc tính tập rút gọn và đợ xác phân lớp của IFW_FDAR_AA FRSA-IFS-HIS(AA) 99 Bảng 4.3 Thời gian thực hiện của IFW_FDAR_AA FRSA-IFS-HIS(AA) 103 vi DANH SÁCH CÁC HÌNH VẼ Hình 1.1 Quy trình rút gọn tḥc tính 10 Hình 1.2 Cách tiếp cận filter wrapper rút gọn tḥc tính 11 Hình 2.1 Đợ xác phân lớp của ba thuật toán 40 Hình 2.2 Số lượng tḥc tính tập rút gọn của ba thuật toán 41 Hình 2.3 Thời gian thực thiện của ba thuật toán 42 Hình 3.1 Thời gian thực hiện tḥt tốn IFW_FDAR_AdObj, IV-FS-FRS-2 IARM, ASS-IAR IFSA .64 Hình 3.2 Số lượng tḥc tính tập rút gọn của tḥt toán IFW_FDAR_AdObj, IVFS-FRS-2 IARM, ASS-IAR IFSA 71 Hình 3.3 Thời gian thực hiện thuật toán IFW_FDAR_DelObj IFSD .86 Hình 3.4 Số lượng tḥc tính tập rút gọn của thuật toán IFW_FDAR_DelObj IFSD .88 Hình 4.1 Đợ xác phân lớp của thuật toán IFW_FDAR_AA FRSA-IFSHIS(AA) 103 Hình 4.2 Thời gian thực hiện của thuật toán IFW_FDAR_AA FRSA-IFSHIS(AA) 105 108 Return R1 ; 15 Tiếp theo, chúng đánh giá đợ phức tạp của tḥt tốn IFW_FDAR_DA Ký hiệu C , U , B tương ứng số tḥc tính điều kiện, số đối tượng số tḥc tính điều kiện xóa khỏi C Trường hợp tốt nhất, thuật toán rơi vào Trường hợp 1, nghĩa là tập rút gọn không thay đổi Trường hợp xấu nhất, thuật toán rơi vào Trường hợp 2, thực hiện lại thuật toán FW_FDAR tìm tập rút gọn bảng định sau xóa tập tḥc tính B với đợ   phức tạp là: O C  B * U  O  C  B * T  Tiếp theo, ta xét độ phức tạp Trường hợp Xét vòng lặp While từ câu lệnh đến 10, để tính SIGR  a  ta phải tính FPD  R  a , R  a  D  Đợ phức tạp tính  FPD R  a , R  a  D  O RB *U 2     O U Do đó, đợ phức tạp của vịng lặp While   và độ phức tạp của giai đoạn filter O R  B * U Giả sử độ phức tạp của bộ phân lớp O T  , đợ phức tạp của giai đoạn wrapper O  R  B * T  Vì vậy, đợ phức tạp của thuật toán IFW_FDAR_DA  O RB *U 2   O  R  B *T  Nếu thực hiện thuật toán không gia tăng filter- wrapper FW_FDBAR trực tiếp bảng định có số tḥc tính C  B , đợ phức   tạp O C  B * U  O  C  B * T  Do đó, với Trường hợp tḥt tốn IFW_FDAR_DA hiệu quả Nếu R nhỏ tḥt tốn IFW_FDAR_DA hiệu quả Nếu thuật toán rơi vào Trường hợp (tính lại tập rút gọn) đợ phức tạp thuật toán IFW_FDAR_DA tương đương thuật toán FW_FDBAR 4.4 Kết luận Chương Trong Chương 4, luận án trình bày kết quả xây dựng cơng thức gia tăng tính khoảng cách mờ đề xuất Chương trường hợp bổ sung, loại bỏ tập tḥc tính Dựa vào công thức gia tăng được xây dựng, luận án trình bày kết quả đề xuất hai thuật toán gia tăng tìm tập rút gọn của bảng định theo tiếp cận filter-wrapper: 109 1)Thuật toán gia tăng filter-wrapper IFW_FDAR_AA tìm tập rút gọn trường hợp bổ sung tập tḥc tính 2)Tḥt toán gia tăng filter-wrapper IFW_FDAR_DA tìm tập rút gọn trường hợp loại bỏ tập tḥc tính Các tḥt toán gia tăng đề x́t sử dụng độ đo khoảng cách mờ nên hiệu quả thuật toán gia tăng khác sử dụng quan hệ phân biệt cặp đối tượng tập thô mờ Kết quả thử nghiệm tập liệu mẫu từ kho liệu UCI cho kết luận quan trọng: Đợ xác phân lớp của tḥt tốn IFW_FDAR_AA cao thuật toán FRSA-IFS-HIS(AA) tất cả tập liệu Hơn nữa, số tḥc tính tập rút gọn của IFW_FDAR_AA nhỏ khá nhiều FRSA-IFS-HIS(AA), đặc biệt tập rút gọn có số tḥc tính lớn Libra Về thời gian thực hiện của thuật toán gia tăng filter-wrapper đề xuất cao so với thuật toán gia tăng filter truyền trống tất cả tập liệu, nguyên nhân thuật toán gia tăng kết hợp filter-wrapper mất thêm chi phí thời gian thực hiện bợ phân lớp giai đoạn wrapper, là nhược điểm chung của thuật toán theo tiếp cận filter-wrapper Tuy nhiên, với mục tiêu giảm thiểu đợ phức tạp và tăng đợ xác của tập ḷt phân lớp chi phí thời gian tìm tập rút gọn của thuật toán đề xuất chấp nhận được 110 KẾT LUẬN Các kết đạt luận án Luận án nghiên cứu hướng tiếp cận kết hợp filter-wrapper tìm tập rút gọn của bảng định nhằm giảm thiểu số lượng tḥc tính tập rút gọn, từ giảm thiểu đợ phức tạp của mơ hình phân lớp và nâng cao đợ xác của mơ hình phân lớp Kết quả của luận án bao gồm: (1) Đề xuất hai thuật toán gia tăng filter-wrapper tìm tập rút gọn của bảng định thay đổi trường hợp bổ sung, loại bỏ tập đối tượng Đóng góp này được trình bày Chương của luận án (2) Đề xuất hai thuật toán gia tăng filter-wrapper tìm tập rút gọn của bảng định thay đổi trường hợp bổ sung, loại bỏ tập tḥc tính Đóng góp này được trình bày Chương của luận án Định hướng phát triển (1) Triển khai thuật toán đề xuất vào việc giải lớp toán thực tiễn, đặc biệt tốn có liệu với số tḥc tính lớn (high dimention data) các lĩnh vực khác liệu gen tin sinh học… (2) Tiếp tục nghiên cứu, đề xuất thuật toán gia tăng filter-wrapper hiệu quả nhằm giảm thiểu thời gian thực hiện dựa mơ hình tập thô mở rộng khác phù hợp với lớp tốn thực tiễn 111 DANH MỤC CƠNG TRÌNH CỦA TÁC GIẢ STT TÊN BÀI BÁO Nguyen Long Giang, Le Hoang Son, Tran Thi Ngan, Tran Manh Tuan, Ho Thi Phuong, Mohamed Abdel-Basset, Antônio Roberto L de Macêdo, VictorHugo C de Albuquerque, “Novel Incremental Algorithms for Attribute Reduction from DynamicDecision Tables using Hybrid Filter– Wrapper with Fuzzy Partition Distance”, IEEE Transactions on Fuzzy Systems, Volume 28, Issue 5, pp 858-873, 2020 (SCIE, Q1, IF = 9.518) Hồ Thị Phượng, Cao Chính Nghĩa, Nguyễn Long Giang, Nguyễn Ngọc Cương, “Về mợt tḥt tốn filter-wrapper tìm tập rút gọn của bảng định sử dụng khoảng cách mờ”, Kỷ yếu Hội thảo Quốc gia lần thứ XXII Một số vấn đề chọn lọc CNTT TT, Thái Bình, 28-29/6/2019, Tr 333339 Hồ Thị Phượng, Cao Chính Nghĩa, Nguyễn Long Giang, “Về thuật toán gia tăng filter-wrapper tìm tập rút gọn của bảng định sử dụng khoảng cách mờ”, Kỷ yếu Hội thảo Quốc gia lần thứ XXII - Một số vấn đề chọn lọc CNTT TT, Quảng Ninh, 5-6/11/2020, Tr 483-490 Ho Thi Phuong, Nguyen Long Giang, “fuzzy distance-based filter-wrapper incremental algorithms for attribute reduction when adding or deleting attribute set”, Vietnam Journal of Science and Technology - Vietnam Academy of Science and Technology Accepted (06/01/2021) 112 TÀI LIỆU THAM KHẢO [1] D Dübois, H Prade, “Rough fuzzy sets and fuzzy rough sets”, International Journal of General Systems 17, pp.191-209, 1990 [2] Anoop Kumar Tiwari, Shivam Shreevastava, Tanmoy Som, K.K Shukla, “Tolerance-based intuitionistic fuzzy-rough set approach for attribute reduction”, Expert Systems With Applications 101, pp 205–212, 2018 [3] Z Wang, Y.L Qi, M.W Shao, Q.H Hu, D.G Chen, Y.H Qian, Y.J Lin, “A Fitting Model for Feature Selection with Fuzzy Rough Sets”, IEEE Transactions on Fuzzy Systems, Volume: 25, Issue: 4, pp 741-753, 2017 [4] Zhang, C.L Mei, D.G Chen, Y.Y Yang, “A fuzzy rough set-based feature selection method using representative instances”, Knowledge-Based Systems, Vol 151, pp 216-229, 2018 [5] T.K Sheeja, A Sunny Kuriakose, “A novel feature selection method using fuzzy rough sets”, Computers in Industry 97, pp 111- 116, 2018 [6] Y Lin, Y Li, C Wang, J Chen, “Attribute reduction for multi-label learning with fuzzy rough set”, Knowl.-Based Syst 152, pp 51-61, 2018 [7] J.H Dai, Y.J Yan, Z.W Li, B.S Liao, “Dominance-based fuzzy rough set approach for incomplete interval-valued data”, Journal of Intelligent & Fuzzy Systems 34, pp 423-436, 2018 [8] Q.H Hu, D.R Yu, Z.X Xie, “Information-preserving hybrid data reduction based on fuzzy-rough techniques”, Pattern Recognit Lett 27(5), pp 414-423, 2016 [9] X Zhang, C.L Mei, D G Chen, J Li, “Feature selection in mixed data: A method using a novel fuzzy rough set-based information entropy”, Pattern Recognition 56, pp 1-15, 2016 [10] C.Z Wang, Y.Huang, M.W Shao, X.D.Fan, “Fuzzy rough setbased attribute reduction using distance measures”, Knowledge-Based Systems, Vol 164, 2019, pp 205-212 113 [11] C.Z Wang, Y Qi, Q He, “Attribute reduction using distancebased fuzzy rough sets”, International Conference on Machine Learning and Cybernetics, IEEE, 2015 [12] Cao Chinh Nghia, Demetrovics Janos, Nguyen Long Giang, Vu Duc Thi, “About a fuzzy distance between two fuzzy partitions and attribute reduction problem”, Cybernetics and Information Technologies, Vol 16, No 4, pp 13-28, 2016 [13] J.H Dai, H Hu, W.Z Wu,Y.H Qian, D.B Huang, “Maximal Discernibility Pairs Based Approach to Attribute Reduction in Fuzzy Rough Sets”, IEEE Transactions on Fuzzy Systems, Vol 26, Issue 4, pp 2174-2187, 2018 [14] J.H Dai, Q.H Hu, H Hu, D.B.Huang, “Neighbor inconsistent pair selection for attribute reduction by rough set approach” IEEE Transactions on Fuzzy Systems, Vol 26, Issue 2, pp 937-950, 2017 [15] L.J.Ping, Z W Xia, T.Z Hui, X.Y Fang, M T Yu, Z.J Jing, Z G Yong, J P Niyoyita, “learning with fuzzy rough set-based attribute selection”, Expert Systems with Applications, Vol 139, pp 1- 17, 2020 [16] W.P Ding, C.T Lin, Z.H Cao, “Deep neuro-cognitive coevolution for fuzzy attribute reduction by quantum leaping PSO with nearest-neighbor memeplexes”, IEEE Transactions on Cybernetics, 49(7):2744-2757, 2019 [17] X.M Liu, C Shen, W Wang, X.H Guan, “CoEvil: A Coevolutionary Model for Crime Inference Based on Fuzzy Rough Feature Selection”, IEEE Transactions on Fuzzy Systems, Early Access, 2019 [18] Y.J Lin, Q.H Hu, J.H Liu, J.J Li, X.D Wu, “Streaming feature selection for multi-label learning based on fuzzy mutual information”, IEEE Transactions on Fuzzy Systems, Vol 25, Issue 6, pp 1491-1507, 2017 [19] Z Pawlak, Rough sets: Theoretical Aspects of Reasoning about Data, Kluwer Academic Publisher, London, 1991 [20] Demetrovics, J., Thi, V.D., & Giang, N.L (2014) Metric Based Attribute Reduction in Dynamic Decision systems Annales Univ Sci Budapest., Sect Comp, Vol 42, 157-172 114 [21] Huong, N T L., &Giang, N L (2016) Incremental algorithms based on metric for finding reduct in dynamic decision systems Journal on Research and Development on Information & Communications Technology, Vol.E-3, No.9, 26-39 [22] Y.G Jing, T.R Li, J.F Huang, H.M Chen, S.J Horng, “A Group Incremental Reduction Algorithm with Varying Data Values”, International Journal of Intelligent Systems 32(9), pp 900-925, 2017 [23] Y.G Jing, T.R Li, H Fujita, Z Yu, B Wang, “An incremental attribute reduction approach based on knowledge granularity with a multi-granulation view”, Information Sciences 411, pp 23-38, 2017 [24] Zhang, C., Dai, J & Chen, J (2020) Knowledge granularity based incremental attribute reduction for incomplete decision systems International Journal of Machine Learning and Cybernetics https://doi.org/10.1007/s13042-020-01089-4 [25] Cai, M.J., Lang, G.M., Hamido, F., Li, Z.Y., &Yang, T (2019) Incremental approaches to updating reducts under dynamic covering granularity Knowledge-Based Systems 172, 130-140 [26] Zhang, C., &Dai, J (2019) An incremental attribute reduction approach based on knowledge granularity for incomplete decision systems Granular Computing, 1-15 [27] Zhang, C., Dai, J &Chen, J (2020) Knowledge granularity based incremental attribute reduction for incomplete decision systems International Journal of Machine Learning and Cybernetics https://doi.org/10.1007/s13042-020-01089-4 [28] W Wei, X.Y Wu, J.Y Liang, J.B Cui, Y.J Sun, “Discernibility matrix based incremental attribute reduction for dynamic data”, Knowledge-Based Systems, Vol 140, pp 142-157, 2018 [29] G Lang, Q Li, M Cai, T Yang, Q Xiao, “Incremental approaches to knowledg reduction based on characteristic matrices”, Int J Mach Learn Cybern (1) pp 203-222, 2017 115 [30] Ma, F.M., Ding, M.W., Zhang, T.F., &Cao, J (2019) Compressed binary discernibility matrix based incremental attribute reduction algorithm for group dynamic data Neurocomputing, Vol 344, No 7, 20-27 [31] Yang, C.J., Ge, H., Li, L.S., &Ding, J (2019) A unified incremental reduction with the variations of the object for decision tables Soft Computing 23, 64076427 [32] Liu, Y., Zheng, L.D., Xiu, Y.L., Yin, H., Zhao, S.Y., Wang, X.H., Chen, H., &Li, C.P (2020) Discernibility matrix based incremental feature selection on fused decision tables International Journal of Approximate Reasoning 118, 1-26 [33] Das, A K., Sengupta, S., & Bhattacharyya, S (2018) A group incremental feature selection for classification using rough set theory based genetic algorithm Applied Soft Computing, 65, 400-411 [34] Lang, G., Cai, M., Fujita, H., &Xiao, Q (2018) Related families-based attribute reduction of dynamic covering decision information systems Knowledge-Based Systems, 162, 161-173 [35] Hao, G., Longshu, L., Chuanjian, Y., &Jian, D (2019) Incremental reduction algorithm with acceleration strategy based on conflict region Artificial Intelligence Review, 51(4), 507-536 [36] Shua, W.H., Qian, W.B., &Xie, Y.H (2019) Incremental approaches for feature selection from dynamic data with the variation of multiple objects Knowledge-Based Systems, Vol 163, 320-331 [37] Nandhini, N., &Thangadurai, K (2019) An incremental rough set approach for faster attribute reduction, International Journal of Information Technology https://doi.org/10.1007/s41870-019-00326-6 [38] Shu, W.H., Qian, W., &Xie, Y (2020) Incremental feature selection for dynamic hybrid data using neighborhood rough set Knowledge-Based Systems 194, 105516 [39] Xie, X., &Qin, X (2018) A novel incremental attribute reduction approach for dynamic incomplete decision systems International Journal of Approximate Reasoning, 93, 443-462 116 [40] Y.Y Yang, D.G Chen, H Wang, “Active Sample Selection Based Incremental Algorithm for Attribute Reduction With Rough Sets”, IEEE Transactions on Fuzzy Systems, Vol 25, Issue 4, pp 825- 838, 2017 [41] W.H Shu, H Shen, “Updating attribute reduction in incomplete decision systems with the variation of attribute set”, International Journal of Approximate Reasoning, vol 55, no.3, pp 867-884, 2014 [42] F Wang, J.Y Liang, Y.H Qian, “Attribute reduction: A dimension incremental strategy”, Knowledge-Based Systems, Volume 39, pp 95-108, 2013 [43] M.J Cai, Q.G Li, J.M Ma, “Knowledge reduction of dynamic covering decision information systems caused by variations of attribute values”, International Journal of Machine Learning and Cybernetics 8(4), pp 11311144, 2017 [44] Ma, F.M., Ding, M.W., Zhang, T.F., &Cao, J (2019) Compressed binary discernibility matrix based incremental attribute reduction algorithm for group dynamic data Neurocomputing, Vol 344, No 7, 20-27 [45] Wei, W., Song, P., Liang, J.Y., &Wu, X.Y (2019) Accelerating incremental attribute reduction algorithm by compacting a decision system International Journal of Machine Learning and Cybernetics 10, 2355-2373 [46] Nandhini, N., &Thangadurai, K (2019) An incremental rough set approach for faster attribute reduction, International Journal of Information Technology https://doi.org/10.1007/s41870-019-00326-6 [47] Chen, D.G., Dong, L.J., &Mi, J.H (2020) Incremental mechanism of attribute reduction based on discernible relations for dynamically increasing attribute Soft Computing 24, 321-332 [48] Demetrovics Janos, Nguyen Thi Lan Huong, Vu Duc Thi, Nguyen Long Giang, “Metric Based Attribute Reduction Method in Dynamic Decision Tables”, Cybernetics and Information Technologies, Vol.16, No.2, pp 3-15, 2016 [49] M.S Raza,U Qamar, “An incremental dependency calculation technique for feature selection using rough sets”, Information Sciences 343–344, pp 41–65, 2016 117 [50] Y Jing, T Li, J Huang, et al., “An incremental attribute reduction approach based on knowledge granularity under the attribute generalization”, Int J Approx Reason 76, pp.80-95, 2016 [51] Y.G Jing, T.R Li, H Fujita, B.L Wang, N Cheng, “An incremental attribute reduction method for dynamic data mining”, Information Sciences 465, pp 202218, 2018 [52] Y.M Liu, S.Y Zhao, H Chen, C.P Li, Y.M Lu, “Fuzzy Rough Incremental Attribute Reduction Applying Dependency Measures”, APWeb-WAIM 2017: Web and Big Data, pp 484-492, 2017 [53] Y.Y Yang, D.G Chen, H Wang, Eric C.C.Tsang, D.L Zhang, “Fuzzy rough set based incremental attribute reduction from dynamic data with sample arriving”, Fuzzy Sets and Systems, Volume 312, pp 66-86, 2017 [54] Y.Y Yang, D.G Chen, H Wang, X.H Wang, “Incremental perspective for feature selection based on fuzzy rough sets”, IEEE Transactions on Fuzzy Systems, Vol 26, Issue 3, pp 1257-1273, 2017 [55] Vu Van Dinh, Vu Duc Thi, Ngo Quoc Tao, Nguyen Long Giang, “Partition Distance Based Attribute Reduction in Incomplete Decision Tables”, Journal on Information Communications Technology, Research and Development on Information & Communications Technology, Vol V-2, No 14(34), pp 23-32, 12-2015 [56] Zhang, X., Mei, C.L., Chen, D.G., Yang, Y.Y., &Li, J.H (2020) Active Incremental Feature Selection Using a Fuzzy-Rough-Set-Based Information Entropy IEEE Transactions on Fuzzy Systems, Volume 28, Issue 5, 901-915 [57] Ni, P., Zhao, S.Y., Wang, X.H., Chen, H., Li, C.P., Tsang, E.C.C (2020) Incremental Feature Selection Based on Fuzzy Rough Sets Information Sciences [58] A.P Zeng, T.R Li, D Liu, J.B Zhang, H.M Chen, “A fuzzy rough set approach for incremental feature selection on hybrid information systems”, Fuzzy Sets and Systems, Vol 258, pp 39-60, 2015 118 [59] The UCI machine learning repository, http://archive.ics.uci.edu/ml/ datasets.html https://sourceforge.net/projects/weka/ [60] Jensen, R., and Q Shen, Q.(2008), Computational Intelligence and Feature Selection, Rough and Fuzzy Approaches, Aberystwyth University, IEEE Computational Intelligence Society, Sponsor [61] N Long, D Gianola, K.A Weigel, “Dimension reduction and variable selection for genomic selection : application to predicting milk yield in Holsteins”, Journal of Animal Breeding and Genetics 128 (4), pp 247–257, 2011 [62] J Zhang, T Li, D Ruan, “Rough sets based matrix approaches with dynamic attribute variation in set-valued information systems”, Int J Approx Reason, Vol.53, pp 620-635, 2012 [63] Q.H Hu, Z.X Xie, D.R Yu, “Hybrid attribute reduction based on a novel fuzzy-rough model and information granulation”, Pattern Recognition 40, pp 3509-3521, 2007 [64] Y.H Qian., J.Y Liang, W.Z Wu, C.Y Dang, “Information Granularity in Fuzzy Binary GrC Model”, IEEE Trans Fuzzy Syst 19, No 2, pp 253-264, 2011 [65] J.Y Liang, R Li, Y H Qian, “Distance: A more comprehensible perspective for measures in rough set theory”, Knowledge-Based Systems, Volume 27, pp 126-136, 2012 [66] Nguyễn Long Giang, Nguyễn Thanh Tùng, Vũ Đức Thi, Một phương pháp mới rút gọn thuộc tính bảng định khơng đầy đủ sử dụng metric, Tạp chí Tin học Điều khiển học, T.28, S.2, 2012, tr 129-140 [67] Long Giang Nguyen, “Metric Based Attribute Reduction in Decision Tables”, Federated Conference on Computer Science and Information System (FEDCSIS), Wroclaw, Poland, IEEE, pp 311-316, 2012 [68] Nguyen Thi Lan Huong, Nguyen Long Giang, “Incremental algorithms based on metric for finding reduct in dynamic decision tables”, Journal on Research and Development on Information & Communications Technology, Vol.E-3, No.9 (13), pp 26-39, 2016 119 [69] Nguyen Long Giang, Nguyen Thi Lan Huong, Metric Based Attribute Reduction in Incomplete Information Systems, Kỷ yếu Hội thảo Quốc gia lần thứ XV “Một số vấn đề chọn lọc Công nghệ thông tin truyền thông”, Hà Nội 11/2012, 2013, Tr 185-190 [70] Vũ Văn Định, Vũ Đức Thi, Ngô Quốc Tạo, Nguyễn Long Giang, Phương pháp rút gọn thuộc tính bảng định khơng đầy đủ sử dụng khoảng cách phân hoạch, Các cơng trình nghiên cứu, phát triển ứng dụng CNTT&TT, Tạp chí CNTT&TT, Tập V-2, số 14(34), 12-2015, Trang 23-32 [71] Demetrovics Janos, Vu Duc Thi, Nguyen Long Giang, “A Distance-based Method for Attribute Reduction in Incomplete Decision Systems”, Serdica Journal of Computing 7, No 4, pp 355-374, 2013 [72] Long Giang Nguyen, Hung Son Nguyen, “Metric Based Attribute Reduction in Incomplete Decision Tables”, Proceedings of 14th International Conference, Rough Sets, Fuzzy Sets, Data Mining, and Granular Computing, RSFDGrC 2013, Halifax, NS, Canada, Lecture Notes in Computer Science, SpingerLink, Vol 8170, pp 99-110, 2013 [73] Nguyễn Long Giang, Cao Chính Nghĩa, Nguyễn Quang Huy, Nguyễn Thị Lan Hương, Nguyễn Ngọc Cương, Trần Anh Tú, Về độ đo khoảng cách mờ ứng dụng rút gọn thuộc tính bảng định, Kỷ yếu Hội thảo Quốc gia lần thứ XX - Một số vấn đề chọn lọc của CNTT và TT, Quy Nhơn, 2324/11/2017, Tr 404-409 [74] Cao Chinh Nghia, Vu Duc Thi, Nguyen Long Giang, Tan Hanh, “Fuzzy distance based attribute reduction in decision tables”, Journal on Information Communications Technology, Research and Development on Information & Communications Technology, Vietnam, Vol V-2, No 16 (36), pp 104-111, 2016 [75] Qian, Y., Li, Y., Liang, J., Lin, G., and Dang, C (2015), Fuzzy granular structure distance, IEEE Transactions on Fuzzy Systems, 23(6), pp 2245-2259 [76] Nguyễn Long Giang (2012), Nghiên cứu một số phương pháp khai phá liệu theo tiếp cận lý thuyết tập thô, Luận án Tiến sĩ Toán học, Viện Công nghệ thông tin 120 [77] Qian, Y., Wang, Q., Cheng, H., Liang, J., and Dang, C (2015), Fuzzy-rough feature selection accelerator, Fuzzy Sets and Systems, 258, pp 61-78 [78] J.H Dai, Q Xu, “Attribute selection based on information gain ratio in fuzzy rough set theory with application to tumor classification”, Applied Soft Computing 13, pp 211-221, 2013 [79] Q.H Hu, D.R Yu, Z.X Xie, J F Liu, “Fuzzy probabilistic approximation spaces and their information measures”, IEEE Transaction on Fuzzy Systems, vol 14, no 2, pp 191-201, 2006 [80] Pradipta Maji, Partha Garai, “On fuzzy-rough attribute selection: Criteria of Max-Dependency, Max-Relevance, Min-Redundancy, and Max-Significance”, Applied Soft Computing 13, pp 3968-3980, 2013 [81] Q Shen, R Jensen, “Selecting informative features with fuzzy-rough sets and its application for complex systems monitoring”, Pattern Recognition 37, pp 1351 – 1363, 2004 [82] Nguyễn Thị Lan Hương, “Rút gọn tḥc tính bảng định động theo tiếp cận tập thô”, Luận án Tiến sĩ Toán học, Viện Công nghệ thông tin, 2017 [83] Vũ Văn Định, “Rút gọn tḥc tính bảng định không đầy đủ theo tiếp cận tập thô dung sai”, Luận án Tiến sĩ Toán học, Viện Công nghệ thông tin, 2016 [84] A.P Zeng , T.R Li, J Hu, H.M Chen, Chuan Luo, “Dynamical updating fuzzy rough approximations for hybrid data under the variation of attribute values”, Information Sciences 000, pp 1-26, 2016 [85] Nguyễn Văn Thiện, “Một số phương pháp kết hợp rút gọn tḥc tính theo tiếp cận tập thô mờ”, Luận án Tiến sĩ Máy tính, Học viện Khoa học Cơng nghệ, 2018 [86] C Luo, T R Li and H M Chen, “Dynamic maintenance of approximations in setvalued ordered decision systems under the attribute generalization”, Information Sciences 257, pp 210 - 228, 2014 [87] C Luo, T.R Li, H.M Chen, H Fujita, Z Yi, “Efficient updating of probabilistic approximations with incremental objects”, Knowledge-Based Systems 109, pp 71-83, 2017 121 [88] C Luo, T.R Li, Y Yao, “Dynamic probabilistic rough sets with incomplete data”, Information Sciences 417, pp 39–54, 2017 [89] C Luo, T.R Li, Y.Y Huang, H Fujita, “Updating three-way decisions in incomplete multi-scale information systems”, Information Sciences 476, pp 274-289, 2019 [90] C.X Hu, S.X Liu, G.X Liu, “Matrix-based approaches for dynamic updating approximations in multigranulation rough sets”, Knowl Based Syst 122, pp 5163, 2017 [91] C.Z Wang, Y Qi, Q He, Attribute reduction using distance-based fuzzy rough sets, 2015 International Conference on Machine Learning and Cybernetics , IEEE, 2015 [92] C.Z Wang, Y.Huang, M.W Shao, X.D.Fan, Fuzzy rough set-based attribute reduction using distance measures, Knowledge-Based Systems, Volume 164, 15 January 2019, pp 205-212 [93] D.G Chen, Y Yang, Z Dong, “An incremental algorithm for attribute reduction with variable precision rough sets”, Appl Soft Comput., vol 45, pp 129-149, 2016 [94] DF.M Ma, J.W Chen, W Han, “A Positive Region Based Incremental Attribute Reduction Algorithm for Incomplete System”, International Conference on Electronic Information Technology and Intellectualization (ICEITI 2016), pp 153-158, 2016 [95] F.M Ma, T.F Zhang, “Generalized binary discernibility matrix for attribute reduction in incomplete information systems”, The Journal of China Universities of Posts and Telecommunications, Volume 24, Issue 4, pp 57-75, 2017 [96] G.M Lang, Q Li, M.J Cai, T Yang, Q.M Xiao, Incremental approaches to knowledge reduction based on characteristic matrices, Int J Mach Learn Cybern (1) pp 203-222, 2017 [97] G.M Lang, D.Q Miao , M.J Cai, Z.F Zhang, “ Incremental approaches for updating reducts in dynamic covering information systems, Knowledge Based Systems 134, pp 85 104, 2017 122 [98] G Q Wang, “ Valid Incremental Attribute Reduction Algorithm Based on Attribute Generalization for an Incomplete Information System”, Chinese Journal of Electronics, Vol.28, No.4, 2019 [99] Huyen Tran, Thinh Cao, Koichi Yamada, Do Van Nguyen, “Incremental Updating Methods with Three-way Decision Models in Incomplete Information Systems”, IEEE Joint 10th International Conference on Soft Computing and Intelligent Systems, pp 27-32, 2018 [100] J Hu, K Wang, H Yu, “Attribute Reduction on Distributed Incomplete Decision Information System”, IJCRS 2017, pp 289-305, 2017 [101] J Qian, C.Y Dang, X.D Yue, N Zhang, “Attribute reduction for sequential three-way decisions under dynamic granulation”, International Journal of Approximate Reasoning 85(2017) 196-216 [102] J Yu, L Sang, H Dong, “Based on Attribute Order for Dynamic Attribute Reduction in the Incomplete Information System”, IEEE IMCEC 2018, pp 2475-2478, 2018 [103] L.N Wang , X Yang , Y Chen , L Liu , S.Y An , P Zhuo , “ Dynamic composite decision-theoretic rough set under the change of attributes”, Int J Comput Intell.Syst 11 (2018) 355–370 [104] Long Giang Nguyen, Thien Nguyen, Nhu Son Nguyen , “Fuzzy Partition Distance based Attribute Reduction in Decision Tables”, IJCRS 2018: International Joint Conference on Rough Sets 2018, LNCS, Vol 11103, Springer Link, 2018, pp 614-627 [105] M Kryszkiewicz (1998), “Rough set approach to incomplete information systems”, Information Science, Vol 112, pp 39-49 [106] Nguyen Long Giang, Vu Van Dinh, Relationships Among the Concepts of Reduct in Incomplete Decision Tables, Frontiers in Artificial Intelligence and Applications (FAIA), Volume 252: Advanced Methods and Technologies for Agent and Multi-Agent Systems, IOS Press, 2013, pp 417-426

Ngày đăng: 30/05/2023, 15:23

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

w