1. Trang chủ
  2. » Giáo Dục - Đào Tạo

luận án tiến sĩ phương pháp gia tăng rút gọn thuộc tính trong bảng quyết định thay đổi theo tiếp cận tập thô mờ

148 35 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

BỘ GIÁO DỤC VÀ ĐÀO TẠO VIỆN HÀN LÂM KHOA HỌC VÀ CÔNG NGHỆ VIỆT NAM HỌC VIỆN KHOA HỌC VÀ CÔNG NGHỆ - HỒ THỊ PHƯỢNG PHƯƠNG PHÁP GIA TĂNG RÚT GỌN THUỘC TÍNH TRONG BẢNG QUYẾT ĐỊNH THAY ĐỔI THEO TIẾP CẬN TẬP THÔ MỜ LUẬN ÁN TIẾN SĨ MÁY TÍNH HÀ NỘI - 2021 BỘ GIÁO DỤC VÀ ĐÀO TẠO VIỆN HÀN LÂM KHOA HỌC VÀ CÔNG NGHỆ VIỆT NAM HỌC VIỆN KHOA HỌC VÀ CÔNG NGHỆ - HỒ THỊ PHƯỢNG PHƯƠNG PHÁP GIA TĂNG RÚT GỌN THUỘC TÍNH TRONG BẢNG QUYẾT ĐỊNH THAY ĐỔI THEO TIẾP CẬN TẬP THƠ MỜ Chun ngành: Khoa học máy tính Mã số : 48 01 01 LUẬN ÁN TIẾN SĨ MÁY TÍNH Người hướng dẫn khoa học: PGS.TS Nguyễn Long Giang HÀ NỘI - 2021 LỜI CẢM ƠN Luận án này được hoàn thành với nỗ lực không ngừng của tác giả và giúp đỡ từ các thầy giáo hướng dẫn, bạn bè và người thân Đầu tiên, tác giả xin bày tỏ lời tri ân tới PGS.TS Nguyễn Long Giang, Viện Công nghệ Thông tin, Viện Hàn lâm Khoa học và Công nghệ Việt Nam người thầy tận tình hướng dẫn tác giả hoàn thành luận án này Tác giả xin gửi lời cảm ơn sâu sắc đến thầy cô, bạn bè công tác tại Viện Công nghệ Thông tin, Viện Hàn lâm Khoa học và Cơng nghệ Việt Nam nhiệt tình giúp đỡ và tạo môi trường nghiên cứu tốt để tác giả hoàn thành cơng trình của mình; cảm ơn các thầy cô và các đồng nghiệp các nơi mà tác giả tham gia viết bài có góp ý xác để tác giả có được cơng bố ngày hôm Cảm ơn Học viện Khoa học và Công nghệ tạo mọi điều kiện thuận lợi để tác giả hoàn thành Luận án này Tác giả xin gửi lời cảm ơn tới Đảng ủy, Ban Giám hiệu trường Đại học Tây Nguyên nơi tác giả công tác ủng hộ và tạo mọi điều kiện để tác giả hoàn thành luận án đúng thời hạn Cuối cùng, tác giả xin gửi tới bạn bè, người thân lời cảm ơn chân thành nhất đồng hành cùng tác giả suốt thời gian qua Con xin cảm ơn Cha, Mẹ và gia đình ln là chỗ dựa vững tinh thần và vật chất, là người mong mỏi cho thành công; cảm ơn chồng và các anh chị em gánh vác cơng việc gia đình thay cho em; xin lỗi các phần nào chịu thiệt thòi thời gian mẹ học tập nghiên cứu, các là nguồn đợng lực lớn lao giúp mẹ hoàn thành được cơng việc khó khăn này Hà Nội, tháng 01 năm 2021 Hồ Thị Phượng LỜI CAM ĐOAN Các kết quả trình bày luận án là cơng trình nghiên cứu của tơi được hoàn thành dưới hướng dẫn của PGS.TS Nguyễn Long Giang Những kết quả trình bày là mới và chưa được cơng bố các cơng trình của người khác Tơi xin chịu trách nhiệm lời cam đoan của Hà Nội, Ngày….tháng ….năm 2021 Nghiên cứu sinh Hồ Thị Phượng MỤC LỤC MỞ ĐẦU CHƯƠNG TỔNG QUAN VỀ RÚT GỌN THUỘC TÍNH THEO TẬP THÔ MỜ 1.1 Tổng quan rút gọn tḥc tính 1.2 Các hướng tiếp cận filter-wrapper rút gọn tḥc tính 10 1.3 Tổng quan tập thô mờ .11 1.3.1 Bảng định và quan hệ tương đương .12 1.3.2 Quan hệ tương đương mờ 12 1.3.3 Ma trận tương đương mờ .14 1.3.4 Phân hoạch mờ 14 1.4 Các nghiên cứu liên quan đến rút gọn tḥc tính theo tiếp cận tập thô mờ 17 1.4.1 Rút gọn tḥc tính theo tiếp cận tập thơ mờ 17 1.4.2 Phương pháp gia tăng rút gọn tḥc tính theo tiếp cận tập thơ mờ 19 1.5 Tóm tắt các đóng góp của luận án .23 1.6 Kết luận chương .24 CHƯƠNG THUẬT TỐN FIFTER-WRAPPER RÚT GỌN THUỘC TÍNH TRONG BẢNG QUYẾT ĐỊNH SỬ DỤNG KHOẢNG CÁCH MỜ .25 2.1 Mở đầu 25 2.2 Xây dựng khoảng cách hai tập mờ 26 2.2.1 Độ đo khoảng cách mờ 27 2.2.2 Độ đo khoảng cách mờ và các tính chất 27 2.3 Thuật toán filter tìm tập rút gọn sử dụng khoảng cách mờ 30 2.4 Thuật toán filter-wrapper tìm tập rút gọn sử dụng khoảng cách mờ 36 2.5 Thực nghiệm và đánh giá kết quả các thuật toán 37 2.5.1 Mục tiêu thực nghiệm 37 2.5.2 Số liệu, phương pháp và môi trường thực nghiệm 38 2.5.3 Kết quả so sánh đợ xác phân lớp và số lượng tḥc tính tập rút gọn 39 2.5.4 Kết quả so sánh thời gian thực hiện 41 2.6 Kết luận Chương 42 CHƯƠNG THUẬT TỐN GIA TĂNG FIFTER-WRAPPER TÌM TẬP RÚT GỌN KHI BỔ SUNG, LOẠI BỎ TẬP ĐỐI TƯỢNG 44 3.1 Mở đầu 44 3.2 Thuật toán gia tăng filter-wrapper tìm tập rút gọn bổ sung tập đối tượng 47 3.2.1 Cơng thức gia tăng để tính khoảng cách mờ bổ sung một đối tượng .47 3.2.2 Cơng thức gia tăng tính khoảng cách mờ bổ sung tập đối tượng .50 3.3 Thuật toán gia tăng fifter-wrapper tìm tập rút gọn loại bỏ tập đối tượng 71 3.4 Kết luận Chương 88 CHƯƠNG THUẬT TỐN GIA TĂNG FIFTER-WRAPPER TÌM TẬP RÚT GỌN KHI BỔ SUNG, LOẠI BỎ TẬP THUỘC TÍNH 90 4.1 Mở đầu 90 4.2 Thuật toán gia tăng filter-wrapper tìm tập rút gọn bổ sung tập tḥc tính 93 4.2.1 Cơng thức gia tăng cập nhật khoảng cách bổ sung tập tḥc tính 93 4.2.2 Tḥt toán gia tăng filter-wrapper tìm tập rút gọn bổ sung tập tḥc tính 94 4.2.3 Thực nghiệm và đánh giá thuật toán .97 4.3 Thuật toán gia tăng filter-wrapper tìm tập rút gọn loại bỏ tập tḥc tính 106 4.3.1 Cơng thức cập nhật khoảng cách loại bỏ tập thuộc tính 106 4.3.2 Thuật toán gia tăng filter-wrapper cập nhật tập rút gọn loại bỏ tập tḥc tính 106 4.4 Kết luận Chương 108 KẾT LUẬN .110 DANH MỤC CƠNG TRÌNH CỦA TÁC GIẢ 111 TÀI LIỆU THAM KHẢO .112 DANH MỤC CÁC THUẬT NGỮ Thuật ngữ tiếng Việt Thuật ngữ tiếng Anh Tập thô Rough Set Tập thô mờ Fuzzy Rough Set Hệ thông tin Information System Bảng định Decision Tables Bảng định mờ Fuzzy Decision Tables Quan hệ tương đương Equivalence Relation Quan hệ tương đương mờ Fuzzy Equivalence Relation Phân hoạch mờ Fuzzy Partition Ma trận tương đương mờ Fuzzy Equivalence Matrix Lớp tương đương mờ Fuzzy equivalence Classes Xấp xỉ mờ Fuzzy Lower Approximation Xấp xỉ mờ Fuzzy Upper Approximation Rút gọn thuộc tính Attribute Reduction Tập rút gọn Reduct Phương pháp gia tăng Incremental Methods Khoảng cách mờ Fuzzy Distance Hàm thuộc mờ Fuzzy Dependency Function Lọc Filter Đóng gói Wrapper BẢNG CÁC KÝ HIỆU, TỪ VIẾT TẮT Ký hiệu, từ viết tắt Diễn giải DS   U , C �D  Bảng định U Số đối tượng C Số thuộc tính điều kiện bảng định u  a Giá trị của đối tượng u tại tḥc tính a U/P  u B % Ra R% Quan hệ tương đương B Phân hoạch của U P Lớp tương đương chứa u của phân hoạch U / P Quan hệ tương đương mờ R% Quan hệ tương đương mờ tập tḥc tính P IND  B  P M ( R% P) Φ R%   P  xi  P%  xi  P� Ma trận tương đương mờ của Phân hoạch mờ Lớp tương đương mờ của xi thuộc phân hoạch mờ Lực lượng lớp tương đương mờ  xi  P% % Tập xấp xỉ dưới mờ của X đối với RP PX % Tập xấp xỉ mờ của X đối với RP PX      FPDΦ R% R% P,Φ Q Khoảng cách mờ hai phân hoạch mờ Φ  R% Q   Φ R% P     Φ R% P và DANH MỤC CÁC BẢ Bảng 1.1 Bảng định của Ví dụ 1.1 16 Bảng 1.2 Liệt kê các nghiên cứu liên quan đến các thuật toán heuristic tìm tập rút gọn của bảng định theo tiếp cận tập thô mờ 18 Bảng 1.3 Liệt kê các nghiên cứu liên quan đến các thuật toán gia tăng tìm tập rút gọn của bảng định theo tiếp cận tập thô mờ 21Y Bảng 2.1 Bảng định của Ví dụ 2.2 33 Bảng 2.2 Bộ liệu thử nghiệm thuật toán FW_FDBAR 38 Bảng 2.3 Đợ xác phân lớp và số lượng tḥc tính tập rút gọn 39 Bảng 2.4 Thời gian thực hiện FW_FDBAR, FEBAR, FPDAR Bảng 3.1 Bảng định của Ví dụ 3.1 48 Bảng 3.2 Bảng định sau thêm đối tượng u4 của Ví dụ 3.1 49 Bảng 3.3 Bảng định của Ví dụ 3.2 51 Bảng 3.4 Bảng định của Ví dụ 3.2 sau thêm tập đối tượng 52 Bảng 3.5 Bộ liệu thử nghiệm thêm tập đối tượng 59 Bảng 3.6 Thời gian thực hiện của các thuật toán IFW_FDAR_AdObj, IV-FS-FRS-2 IARM, ASS-IAR và IFSA (tính giây) .60 Bảng 3.7 Đợ xác phân lớp và số lượng tḥc tính tập rút gọn của các thuật toán IFW_FDAR_AdObj, IV-FS-FRS-2, IARM, ASS-IAR và IFSA 65 Bảng 3.8 Bảng định của Ví dụ 3.3 72 Bảng 3.9 Bảng định sau loại bỏ đối tượng của Ví dụ 3.3 74 Bảng 3.10 Bảng định của Ví dụ 3.4 76 Bảng 3.11 Bảng định sau loại bỏ tập đối tượng của Ví dụ 3.4 78 Bảng 3.12 Mô tả liệu loại bỏ tập đối tượng 83 Bảng 3.13 Thời gian thực hiện của thuật toán IFW_FDAR_DelObj và IFSD 84 Bảng 3.14 Đợ xác phân lớp của tḥt toán IFW_FDAR_DelObj và IFSD Bảng 4.1 Bộ liệu thử nghiệm 98 Bảng 4.2 Số lượng tḥc tính tập rút gọn và đợ xác phân lớp của IFW_FDAR_AA và FRSA-IFS-HIS(AA) 99 Bảng 4.3 Thời gian thực hiện của IFW_FDAR_AA và FRSA-IFS-HIS(AA) 103 [30] Ma, F.M., Ding, M.W., Zhang, T.F., &Cao, J (2019) Compressed binary discernibility matrix based incremental attribute reduction algorithm for group dynamic data Neurocomputing, Vol 344, No 7, 20-27 [31] Yang, C.J., Ge, H., Li, L.S., &Ding, J (2019) A unified incremental reduction with the variations of the object for decision tables Soft Computing 23, 6407-6427 [32] Liu, Y., Zheng, L.D., Xiu, Y.L., Yin, H., Zhao, S.Y., Wang, X.H., Chen, H., &Li, C.P (2020) Discernibility matrix based incremental feature selection on fused decision tables International Journal of Approximate Reasoning 118, 1-26 [33] Das, A K., Sengupta, S., & Bhattacharyya, S (2018) A group incremental feature selection for classification using rough set theory based genetic algorithm Applied Soft Computing, 65, 400-411 [34] Lang, G., Cai, M., Fujita, H., &Xiao, Q (2018) Related families-based attribute reduction of dynamic covering decision information systems Knowledge-Based Systems, 162, 161-173 [35] Hao, G., Longshu, L., Chuanjian, Y., &Jian, D (2019) Incremental reduction algorithm with acceleration strategy based on conflict region Artificial Intelligence Review, 51(4), 507-536 [36] Shua, W.H., Qian, W.B., &Xie, Y.H (2019) Incremental approaches for feature selection from dynamic data with the variation of multiple objects KnowledgeBased Systems, Vol 163, 320-331 [37] Nandhini, N., &Thangadurai, K (2019) An incremental rough set approach for faster attribute reduction, International Journal of Information Technology https://doi.org/10.1007/s41870-019-00326-6 [38] Shu, W.H., Qian, W., &Xie, Y (2020) Incremental feature selection for dynamic hybrid data using neighborhood rough set Knowledge-Based Systems 194, 105516 [39] Xie, X., &Qin, X (2018) A novel incremental attribute reduction approach for dynamic incomplete decision systems International Journal of Approximate Reasoning, 93, 443-462 [40] Y.Y Yang, D.G Chen, H Wang, “Active Sample Selection Based Incremental Algorithm for Attribute Reduction With Rough Sets”, IEEE Transactions on Fuzzy Systems, Vol 25, Issue 4, pp 825- 838, 2017 [41] W.H Shu, H Shen, “Updating attribute reduction in incomplete decision systems with the variation of attribute set”, International Journal of Approximate Reasoning, vol 55, no.3, pp 867-884, 2014 [42] F Wang, J.Y Liang, Y.H Qian, “Attribute reduction: A dimension incremental strategy”, Knowledge-Based Systems, Volume 39, pp 95-108, 2013 [43] M.J Cai, Q.G Li, J.M Ma, “Knowledge reduction of dynamic covering decision information systems caused by variations of attribute values”, International Journal of Machine Learning and Cybernetics 8(4), pp 1131-1144, 2017 [44] Ma, F.M., Ding, M.W., Zhang, T.F., &Cao, J (2019) Compressed binary discernibility matrix based incremental attribute reduction algorithm for group dynamic data Neurocomputing, Vol 344, No 7, 20-27 [45] Wei, W., Song, P., Liang, J.Y., &Wu, X.Y (2019) Accelerating incremental attribute reduction algorithm by compacting a decision system International Journal of Machine Learning and Cybernetics 10, 2355-2373 [46] Nandhini, N., &Thangadurai, K (2019) An incremental rough set approach for faster attribute reduction, International Journal of Information Technology https://doi.org/10.1007/s41870-019-00326-6 [47] Chen, D.G., Dong, L.J., &Mi, J.H (2020) Incremental mechanism of attribute reduction based on discernible relations for dynamically increasing attribute Soft Computing 24, 321-332 [48] Demetrovics Janos, Nguyen Thi Lan Huong, Vu Duc Thi, Nguyen Long Giang, “Metric Based Attribute Reduction Method in Dynamic Decision Tables”, Cybernetics and Information Technologies, Vol.16, No.2, pp 3-15, 2016 [49] M.S Raza,U Qamar, “An incremental dependency calculation technique for feature selection using rough sets”, Information Sciences 343–344, pp 41–65, 2016 [50] Y Jing, T Li, J Huang, et al., “An incremental attribute reduction approach based on knowledge granularity under the attribute generalization”, Int J Approx Reason 76, pp.80-95, 2016 [51] Y.G Jing, T.R Li, H Fujita, B.L Wang, N Cheng, “An incremental attribute reduction method for dynamic data mining”, Information Sciences 465, pp 202218, 2018 [52] Y.M Liu, S.Y Zhao, H Chen, C.P Li, Y.M Lu, “Fuzzy Rough Incremental Attribute Reduction Applying Dependency Measures”, APWeb-WAIM 2017: Web and Big Data, pp 484-492, 2017 [53] Y.Y Yang, D.G Chen, H Wang, Eric C.C.Tsang, D.L Zhang, “Fuzzy rough set based incremental attribute reduction from dynamic data with sample arriving”, Fuzzy Sets and Systems, Volume 312, pp 66-86, 2017 [54] Y.Y Yang, D.G Chen, H Wang, X.H Wang, “Incremental perspective for feature selection based on fuzzy rough sets”, IEEE Transactions on Fuzzy Systems, Vol 26, Issue 3, pp 1257-1273, 2017 [55] Vu Van Dinh, Vu Duc Thi, Ngo Quoc Tao, Nguyen Long Giang, “Partition Distance Based Attribute Reduction in Incomplete Decision Tables”, Journal on Information Communications Technology, Research and Development on Information & Communications Technology, Vol V-2, No 14(34), pp 23-32, 12-2015 [56] Zhang, X., Mei, C.L., Chen, D.G., Yang, Y.Y., &Li, J.H (2020) Active Incremental Feature Selection Using a Fuzzy-Rough-Set-Based Information Entropy IEEE Transactions on Fuzzy Systems, Volume 28, Issue 5, 901-915 [57] Ni, P., Zhao, S.Y., Wang, X.H., Chen, H., Li, C.P., Tsang, E.C.C (2020) Incremental Feature Selection Based on Fuzzy Rough Sets Information Sciences [58] A.P Zeng, T.R Li, D Liu, J.B Zhang, H.M Chen, “A fuzzy rough set approach for incremental feature selection on hybrid information systems”, Fuzzy Sets and Systems, Vol 258, pp 39-60, 2015 [59] The UCI machine learning repository, http://archive.ics.uci.edu/ml/ datasets.html https://sourceforge.net/projects/weka/ [60] Jensen, R., and Q Shen, Q.(2008), Computational Intelligence and Feature Selection, Rough and Fuzzy Approaches, Aberystwyth University, IEEE Computational Intelligence Society, Sponsor [61] N Long, D Gianola, K.A Weigel, “Dimension reduction and variable selection for genomic selection : application to predicting milk yield in Holsteins”, Journal of Animal Breeding and Genetics 128 (4), pp 247–257, 2011 [62] J Zhang, T Li, D Ruan, “Rough sets based matrix approaches with dynamic attribute variation in set-valued information systems”, Int J Approx Reason, Vol.53, pp 620-635, 2012 [63] Q.H Hu, Z.X Xie, D.R Yu, “Hybrid attribute reduction based on a novel fuzzyrough model and information granulation”, Pattern Recognition 40, pp 35093521, 2007 [64] Y.H Qian., J.Y Liang, W.Z Wu, C.Y Dang, “Information Granularity in Fuzzy Binary GrC Model”, IEEE Trans Fuzzy Syst 19, No 2, pp 253-264, 2011 [65] J.Y Liang, R Li, Y H Qian, “Distance: A more comprehensible perspective for measures in rough set theory”, Knowledge-Based Systems, Volume 27, pp 126136, 2012 [66] Nguyễn Long Giang, Nguyễn Thanh Tùng, Vũ Đức Thi, Một phương pháp mới rút gọn tḥc tính bảng định khơng đầy đủ sử dụng metric, Tạp chí Tin học Điều khiển học, T.28, S.2, 2012, tr 129-140 [67] Long Giang Nguyen, “Metric Based Attribute Reduction in Decision Tables”, Federated Conference on Computer Science and Information System (FEDCSIS), Wroclaw, Poland, IEEE, pp 311-316, 2012 [68] Nguyen Thi Lan Huong, Nguyen Long Giang, “Incremental algorithms based on metric for finding reduct in dynamic decision tables”, Journal on Research and Development on Information & Communications Technology, Vol.E-3, No.9 (13), pp 26-39, 2016 [69] Nguyen Long Giang, Nguyen Thi Lan Huong, Metric Based Attribute Reduction in Incomplete Information Systems, Kỷ yếu Hội thảo Quốc gia lần thứ XV “Một số vấn đề chọn lọc Công nghệ thông tin truyền thông”, Hà Nội 11/2012, 2013, Tr 185-190 [70] Vũ Văn Định, Vũ Đức Thi, Ngô Quốc Tạo, Nguyễn Long Giang, Phương pháp rút gọn thuộc tính bảng định khơng đầy đủ sử dụng khoảng cách phân hoạch, Các công trình nghiên cứu, phát triển và ứng dụng CNTT&TT, Tạp chí CNTT&TT, Tập V-2, số 14(34), 12-2015, Trang 23-32 [71] Demetrovics Janos, Vu Duc Thi, Nguyen Long Giang, “A Distance-based Method for Attribute Reduction in Incomplete Decision Systems”, Serdica Journal of Computing 7, No 4, pp 355-374, 2013 [72] Long Giang Nguyen, Hung Son Nguyen, “Metric Based Attribute Reduction in Incomplete Decision Tables”, Proceedings of 14th International Conference, Rough Sets, Fuzzy Sets, Data Mining, and Granular Computing, RSFDGrC 2013, Halifax, NS, Canada, Lecture Notes in Computer Science, SpingerLink, Vol 8170, pp 99-110, 2013 [73] Nguyễn Long Giang, Cao Chính Nghĩa, Nguyễn Quang Huy, Nguyễn Thị Lan Hương, Nguyễn Ngọc Cương, Trần Anh Tú, Về độ đo khoảng cách mờ ứng dụng rút gọn thuộc tính bảng định, Kỷ yếu Hội thảo Quốc gia lần thứ XX - Một số vấn đề chọn lọc của CNTT và TT, Quy Nhơn, 2324/11/2017, Tr 404-409 [74] Cao Chinh Nghia, Vu Duc Thi, Nguyen Long Giang, Tan Hanh, “Fuzzy distance based attribute reduction in decision tables”, Journal on Information Communications Technology, Research and Development on Information & Communications Technology, Vietnam, Vol V-2, No 16 (36), pp 104-111, 2016 [75] Qian, Y., Li, Y., Liang, J., Lin, G., and Dang, C (2015), Fuzzy granular structure distance, IEEE Transactions on Fuzzy Systems, 23(6), pp 2245-2259 [76] Nguyễn Long Giang (2012), Nghiên cứu một số phương pháp khai phá liệu theo tiếp cận lý thuyết tập thô, Luận án Tiến sĩ Toán học, Viện Công nghệ thông tin [77] Qian, Y., Wang, Q., Cheng, H., Liang, J., and Dang, C (2015), Fuzzy-rough feature selection accelerator, Fuzzy Sets and Systems, 258, pp 61-78 [78] J.H Dai, Q Xu, “Attribute selection based on information gain ratio in fuzzy rough set theory with application to tumor classification”, Applied Soft Computing 13, pp 211-221, 2013 [79] Q.H Hu, D.R Yu, Z.X Xie, J F Liu, “Fuzzy probabilistic approximation spaces and their information measures”, IEEE Transaction on Fuzzy Systems, vol 14, no 2, pp 191-201, 2006 [80] Pradipta Maji, Partha Garai, “On fuzzy-rough attribute selection: Criteria of Max-Dependency, Max-Relevance, Min-Redundancy, and Max-Significance”, Applied Soft Computing 13, pp 3968-3980, 2013 [81] Q Shen, R Jensen, “Selecting informative features with fuzzy-rough sets and its application for complex systems monitoring”, Pattern Recognition 37, pp 1351 – 1363, 2004 [82] Nguyễn Thị Lan Hương, “Rút gọn tḥc tính bảng định động theo tiếp cận tập thô”, Luận án Tiến sĩ Toán học, Viện Công nghệ thông tin, 2017 [83] Vũ Văn Định, “Rút gọn tḥc tính bảng định không đầy đủ theo tiếp cận tập thô dung sai”, Luận án Tiến sĩ Toán học, Viện Công nghệ thông tin, 2016 [84] A.P Zeng , T.R Li, J Hu, H.M Chen, Chuan Luo, “Dynamical updating fuzzy rough approximations for hybrid data under the variation of attribute values”, Information Sciences 000, pp 1-26, 2016 [85] Nguyễn Văn Thiện, “Một số phương pháp kết hợp rút gọn thuộc tính theo tiếp cận tập thơ mờ”, Ḷn án Tiến sĩ Máy tính, Học viện Khoa học và Cơng nghệ, 2018 [86] C Luo, T R Li and H M Chen, “Dynamic maintenance of approximations in setvalued ordered decision systems under the attribute generalization”, Information Sciences 257, pp 210 - 228, 2014 [87] C Luo, T.R Li, H.M Chen, H Fujita, Z Yi, “Efficient updating of probabilistic approximations with incremental objects”, Knowledge-Based Systems 109, pp 71-83, 2017 [88] C Luo, T.R Li, Y Yao, “Dynamic probabilistic rough sets with incomplete data”, Information Sciences 417, pp 39–54, 2017 [89] C Luo, T.R Li, Y.Y Huang, H Fujita, “Updating three-way decisions in incomplete multi-scale information systems”, Information Sciences 476, pp 274-289, 2019 [90] C.X Hu, S.X Liu, G.X Liu, “Matrix-based approaches for dynamic updating approximations in multigranulation rough sets”, Knowl Based Syst 122, pp 5163, 2017 [91] C.Z Wang, Y Qi, Q He, Attribute reduction using distance-based fuzzy rough sets, 2015 International Conference on Machine Learning and Cybernetics , IEEE, 2015 [92] C.Z Wang, Y.Huang, M.W Shao, X.D.Fan, Fuzzy rough set-based attribute reduction using distance measures, Knowledge-Based Systems, Volume 164, 15 January 2019, pp 205-212 [93] D.G Chen, Y Yang, Z Dong, “An incremental algorithm for attribute reduction with variable precision rough sets”, Appl Soft Comput., vol 45, pp 129-149, 2016 [94] DF.M Ma, J.W Chen, W Han, “A Positive Region Based Incremental Attribute Reduction Algorithm for Incomplete System”, International Conference on Electronic Information Technology and Intellectualization (ICEITI 2016), pp 153-158, 2016 [95] F.M Ma, T.F Zhang, “Generalized binary discernibility matrix for attribute reduction in incomplete information systems”, The Journal of China Universities of Posts and Telecommunications, Volume 24, Issue 4, pp 57-75, 2017 [96] G.M Lang, Q Li, M.J Cai, T Yang, Q.M Xiao, Incremental approaches to knowledge reduction based on characteristic matrices, Int J Mach Learn Cybern (1) pp 203-222, 2017 [97] G.M Lang, D.Q Miao , M.J Cai, Z.F Zhang, “ Incremental approaches for updating reducts in dynamic covering information systems, Knowledge Based Systems 134, pp 85 104, 2017 [98] G Q Wang, “ Valid Incremental Attribute Reduction Algorithm Based on Attribute Generalization for an Incomplete Information System”, Chinese Journal of Electronics, Vol.28, No.4, 2019 [99] Huyen Tran, Thinh Cao, Koichi Yamada, Do Van Nguyen, “Incremental Updating Methods with Three-way Decision Models in Incomplete Information Systems”, IEEE Joint 10th International Conference on Soft Computing and Intelligent Systems, pp 27-32, 2018 [100] J Hu, K Wang, H Yu, “Attribute Reduction on Distributed Incomplete Decision Information System”, IJCRS 2017, pp 289-305, 2017 [101] J Qian, C.Y Dang, X.D Yue, N Zhang, “Attribute reduction for sequential three-way decisions under dynamic granulation”, International Journal of Approximate Reasoning 85(2017) 196-216 [102] J Yu, L Sang, H Dong, “Based on Attribute Order for Dynamic Attribute Reduction in the Incomplete Information System”, IEEE IMCEC 2018, pp 2475-2478, 2018 [103] L.N Wang , X Yang , Y Chen , L Liu , S.Y An , P Zhuo , “ Dynamic composite decision-theoretic rough set under the change of attributes”, Int J Comput Intell.Syst 11 (2018) 355–370 [104] Long Giang Nguyen, Thien Nguyen, Nhu Son Nguyen , “Fuzzy Partition Distance based Attribute Reduction in Decision Tables”, IJCRS 2018: International Joint Conference on Rough Sets 2018, LNCS, Vol 11103, Springer Link, 2018, pp 614-627 [105] M Kryszkiewicz (1998), “Rough set approach to incomplete information systems”, Information Science, Vol 112, pp 39-49 [106] Nguyen Long Giang, Vu Van Dinh, Relationships Among the Concepts of Reduct in Incomplete Decision Tables, Frontiers in Artificial Intelligence and Applications (FAIA), Volume 252: Advanced Methods and Technologies for Agent and Multi-Agent Systems, IOS Press, 2013, pp 417-426 [107] S Li, T Li, “Incremental update of approximations in dominance-based rough sets approach under the variation of attribute values”, Inf Sci 294, pp.348-361, 2015 [108] S Wang , T Li , C Luo , H Fujita , Efficient updating rough approximations with multi-dimensional variation of ordered data, Inf Sci 372, pp 690-708, 2016 [109] Y.Y Huang , T.R Li , C Luo , H Fujita , S.J Horng , Matrix-based dynamic updating rough fuzzy approximations for data mining, Knowl Based Syst 119, pp 273-283, 2017 [110] W.B Qian, W.H Shu, “Mutual information criterion for feature selection from incomplete data”, Neurocomputing, Volume 168, pp 210-220, 2015 ... HỒ THỊ PHƯỢNG PHƯƠNG PHÁP GIA TĂNG RÚT GỌN THUỘC TÍNH TRONG BẢNG QUYẾT ĐỊNH THAY ĐỔI THEO TIẾP CẬN TẬP THÔ MỜ Chuyên ngành: Khoa học máy tính Mã số : 48 01 01 LUẬN ÁN TIẾN SĨ MÁY TÍNH Người hướng... gia tăng tìm tập rút gọn theo tiếp cận tập thô mờ Các hướng nghiên cứu được liệt kê tóm tắt bảng dưới đây: Bảng 1.3 Liệt kê nghiên cứu liên quan đến thuật tốn gia tăng tìm tập rút gọn bảng. .. số phương pháp mở rộng gần Bảng Liệt kê nghiên cứu liên quan đến thuật toán heuristic tìm tập rút gọn bảng định theo tiếp cận tập thô mờ STT Công bố, năm xuất Thuật toán 1) Hàm thuộc mờ 

Ngày đăng: 29/04/2021, 06:04

Xem thêm:

TỪ KHÓA LIÊN QUAN

Mục lục

    DANH MỤC CÁC THUẬT NGỮ

    BẢNG CÁC KÝ HIỆU, TỪ VIẾT TẮT

    DANH MỤC CÁC BẢ

    DANH SÁCH CÁC HÌN

    Hình 1.1 Quy trình rút gọn thuộc tính 10

    Hình 1.2 Cách tiếp cận filter và wrapper trong rút gọn thuộc tính 11

    YHình 2.1 Độ chính xác phân lớp của ba thuật toán 40

    Hình 2.2 Số lượng thuộc tính tập rút gọn của ba thuật toán 41

    Hình 2.3 Thời gian thực thiện của ba thuật toán 42Y

    Hình 3.1 Thời gian thực hiện các thuật toán IFW_FDAR_AdObj, IV-FS-FRS-2 IARM, ASS-IAR và IFSA 64

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

w