Luận án Rút gọn thuộc tính trong bảng quyết định không đầy đủ có dữ liệu thay đổi theo tiếp cận mô hình tập thô dung sai

1) Xây dựng công thức gia tăng cập nhật khoảng cách trong các trường
hợp bổ sung, loại bỏ tập thuộc tính, trên cơ sở đó xây dựng thuật toán gia tăng
lọc - đóng gói tìm tập rút gọn trên bảng quyết định không đầy đủ trong trường
hợp bổ sung, loại bỏ tập thuộc tính.
2) Đề xuất công thức gia tăng cập nhật khoảng cách khi tập đối tượng thay
đổi giá trị, trên cơ sở đó đề xuất thuật toán gia tăng lọc - đóng gói tìm tập rút gọn
của bảng quyết định không đầy đủ trong trường hợp tập đối tượng thay đổi giá trị.
3) Đề xuất công thức gia tăng cập nhật khoảng cách khi tập thuộc tính thay
đổi giá trị, trên cơ sở đó đề xuất thuật toán gia tăng lọc - đóng gói tìm tập rút gọn
của bảng quyết định không đầy đủ trong trường hợp tập thuộc tính thay đổi giá trị. 
pdf 121 trang phubao 26/12/2022 4421
Bạn đang xem 20 trang mẫu của tài liệu "Luận án Rút gọn thuộc tính trong bảng quyết định không đầy đủ có dữ liệu thay đổi theo tiếp cận mô hình tập thô dung sai", để tải tài liệu gốc về máy hãy click vào nút Download ở trên.

File đính kèm:

  • pdfluan_an_rut_gon_thuoc_tinh_trong_bang_quyet_dinh_khong_day_d.pdf
  • pdfCV gửi Cục CNTT.pdf
  • pdfQĐ HĐ cấp trường.pdf
  • pdfTÓM TẮT LUẬN ÁN-Nguyễn Anh Tuấn.pdf
  • docxTRANG THÔNG TIN LUẬN ÁN TIẾN SĨ-Nguyễn Anh Tuấn.docx

Nội dung text: Luận án Rút gọn thuộc tính trong bảng quyết định không đầy đủ có dữ liệu thay đổi theo tiếp cận mô hình tập thô dung sai

  1. Mệnh đề 3.4. Cho bảng quyết định không đầy đủ IDS  U, C d với U u12, u , , un. Giả sử tập s thuộc tính C ck, c k 11 , , c k s  với 1 k n , s 1 bị thay đổi giá trị. Giả sử Mold C c old , Mnew C c new tương ứng ij nn ij nn là ma trận dung sai của tập thuộc tính C trước và sau khi thay đổi giá trị và M A a , M d d tương ứng là ma trận dung sai trên là ma trận ij nn  ij nn dung sai của tập thuộc tính còn lại không thay đổi giá trị ACC và {d}. Giả sử D C, C d , D' C, C d tương ứng là khoảng cách trước khi và sau khi tập thuộc tính C thay đổi giá trị. Khi đó, công thức tính gia tăng khoảng cách như sau: 1 nn DCCdDCCd' , ,  ac .new c old . 1 d   2  ij ij ij ij (3.4) n ij 11 Chứng minh Theo công thức tính khoảng cách, sau khi cập nhật giá trị tập thuộc tính C ta có: 1 nn DCCd' ,,  DACACd    acnew acd new   2  ij ij ij ij ij (*) n ij 11 Mặt khác, trước khi cập nhật giá trị tập thuộc tính C ta có: nn 1 old old DCCd ,,   DACACd     2  acij ij acd ij ij ij ( ) n ij 11 Từ (*) và ( ) ta có: D' C,, C d D C C  d n n n n 11new new old old 22 aij c ij a ij c ij d ij  a ij c ij a ij c ij d ij nni 1 j 1 i 1 j 1 nn 1 new new old old 2  aij c ij a ij c ij d ij a ij c ij a ij c ij d ij n ij 11 1 nn 1 nn a cnew c old a d c new c old a. cnew c old . 1 d 2  ij ij ij ij ij ij ij 2  ij ij ij ij n ij 11 n ij 11 nn ' 1 new old Từ đó ta có: DCCdDCCd ,  ,   2  accij . ij ij . 1 d ij n ij 11 85
  2. 1 0 0 1 1 0 1 0 0 0 0 0 0 1 0 0 1 1 0 1 0 0 0 1 0 0 1 0 0 0 0 0 1 1 0 0 old old MA() M C cij 1 0 0 1 1 0 nn 0 0 1 1 0 1 1 1 0 1 1 1 0 0 0 0 1 1 0 1 0 0 1 1 0 1 0 1 1 1 1 nn - Tính khoảng cách theo công thức: D C,. C d 2  cij c ij d ij n ij 11 2 Ta có: D C, C d 36 - Khi tập thuộc tính thay đổi giá trị C {c4 ,c 5 ,c 6 } thì tính lại ma trận M'' ( C ) c và Mnew C c new trên bảng dữ liệu mới, ta được: ij nn ij nn 1 0 0 1 1 0 0 1 0 0 1 1 0 0 1 0 0 0 '' M() C cij nn 1 0 0 1 1 0 1 1 0 1 1 1 0 1 0 0 1 1 1 1 0 1 1 1 1 1 0 1 1 1 0 0 1 0 0 1 new new M C cij nn 1 1 0 1 1 1 1 1 0 1 1 1 1 1 1 1 1 1 1 nn a. cnew c old . 1 d - Tính 2  ij ij ij ij , trong đó n=6, ta được: n ij 11 16nn a. cnew c old . 1 d 22 ij ij ij ij n ij 11 6 ' - Tính khoảng cách D C, C d sau khi cập nhật tập đối tượng C 8 D' C, C d 62 Vậy nn ' 81new old DCCd ,  22 DCCd ,    accij . ij ij . 1 d ij 6 n ij 11 87
  3. 2) Tập thuộc tính C bị thay đổi giá trị, với CC; ' Đầu ra: Tập rút gọn R' của IDS  U, C d sau khi bị thay đổi giá trị. Bước 1: Khởi tạo 1. T : ; // Chứa các ứng viên tập rút gọn 2. Đặt ACC: ; M() A a new new 3. Tính ma trận dung sai ij , M C cij nn nn Mold C c old ; ij nn 4. Tính khoảng cách D' R,, R d D' C, C d bởi công thức gia tăng trong mệnh đề 3.4; // Loại bỏ các thuộc tính dư thừa trong R; 5. For each a R 6. If D'' R a,, R a  d D C C  d then R: R a; Bước 2: Thực hiện thuật toán tìm tập rút gọn // Giai đoạn lọc, tìm các ứng viên cho tập rút gọn xuất phát từ tập R. 7. j:=0; 8. While D'' R,, R d D C C  d Do 9. Begin 10. j:=j+1; '' 11. For each a C R tính SIGaR DRR ,,  d DR  aR  a  d với D' R a, R  a  d được tính bởi công thức gia tăng trong mệnh đề 3.4; 12. Chọn a C R sao cho SIGR a m max SIG R a  ; m a C R 13. R:  R am; 14. TRj ; 89
  4. 3.4.3. Thực nghiệm, đánh giá thuật toán FWIA_U_Attr 3.3.3.1. Mục tiêu thực nghiệm Mục tiêu thực nghiệm là đánh giá tính hiệu quả của thuật toán theo tiêu chí: số lượng thuộc tính tập rút gọn, độ chính xác phân lớp và thời gian thực hiện. Thuật toán FWIA_U_Attr so với thuật toán Attribute-R[86] trong trường hợp tập thuộc tính thay đổi giá trị. Attribute-R là thuật toán gia tăng tìm tập rút gọn của bảng quyết định không đầy đủ trong trường hợp tập thuộc tính thay đổi giá trị theo tiếp cận lọc truyền thống sử dụng độ đo không nhất quán. 3.3.3.2. Số liệu và môi trường thực nghiệm Số liệu thực nghiệm: Thực nghiệm được thực hiện trên 06 tập dữ liệu mẫu từ kho dữ liệu UCI [73] được mô tả như trong bảng 3.9. - Các thuộc tính điều kiện được tách ngẫu nhiên thành hai phần (tệp dữ liệu) xấp xỉ bằng nhau: (i) Tập các thuộc tính ban đầu được ký hiệu là C0 và (ii) Tập các thuộc tính bị thay đổi giá trị Cchan. - Tiếp theo tập Cchan được chia ngẫu nhiên thành 5 tập dữ liệu xấp xỉ bằng nhau dưới dạng các tập thuộc tính bị thay đổi giá trị và được ký hiệu lần lượt là: C1, C2, C3, C4, C5. Bảng 3.9. Các bộ dữ liệu thực nghiệm cho thuật toán FWIA_U_Attr Số Số Số Số thuộc tính Số lớp STT Tập dữ liệu đối thuộc tính thuộc tính bị thay đổi quyết tượng điều kiện ban đầu giá trị định 1 Audiology 226 69 34 35 24 2 Soybean-large 307 35 20 15 2 Cong.Voting 3 435 16 6 10 2 Records 4 Arrhythmia 452 279 139 140 16 5 Anneal 798 38 18 20 6 Internet 6 Advertisements 3279 1558 778 780 2 (Advers) 91
  5. Bảng 3.10. Số thuộc tính tập rút gọn và độ chính xác phân lớp của hai thuật toán FWIA_U_Attr và Attribute-R Tập Số thuộc FWIA_U_Attr Attribute-R STT Tập thuộc tính tính thay dữ liệu thay đổi |R| Acc |R| Acc giá trị đổi giá trị C1 7 6 76.84 13 75.26 C2 7 8 78.29 15 78.04 1 Audiology C3 7 9 77.25 18 76.15 C4 7 7 74.62 12 74.29 C5 7 8 75.28 14 74.85 3 9 92.46 16 92.05 3 10 94.75 18 93.46 2 Soybean –large 3 8 85.18 14 84.95 3 12 92.78 21 92.25 3 11 92.12 15 92.02 2 8 92.45 8 92.45 Cong. Voting 2 6 89.17 9 88.95 3 2 6 89.17 9 88.95 Records 2 7 93.46 12 93.15 2 8 94.25 13 93.89 28 16 82.68 42 82.12 Arrhythmia 28 22 86.42 58 85.68 4 28 19 81.25 34 80.76 28 25 86.78 47 86.42 28 21 84.23 44 80.56 4 8 86.49 15 86.14 4 12 88.94 19 87.23 5 Anneal 4 11 88.25 16 86.94 4 14 91.15 22 90.28 4 10 90.62 16 90.02 156 21 88.26 46 87.45 156 18 86.15 38 85.12 6 Advers. 156 17 87.93 42 85.24 156 25 90.18 54 89.45 156 23 89.85 58 89.22 93
  6. 3.3.3.5. Đánh giá thời gian thực hiện Kết quả về thời gian thực hiện của hai thuật toán FWIA_U_Attr và Attribute-R được thể hiện trong bảng 3.11, trong đó các cột RT, Total RT lần lượt là thời gian thực hiện, tổng thời gian thực hiện. Bảng 3.11. Thời gian thực hiện hai thuật toán FWIA_U_Attr và Attribute-R (tính bằng giây) Tập FWIA_U_Attr Attribute-R Số thuộc Tập thuộc tính STT tính thay Total Total dữ liệu thay đổi giá RT RT đổi giá trị RT RT trị C1 7 0.64 0.64 0.52 0.52 C2 7 0.62 1.26 0.46 0.98 1 Audiology C3 7 0.58 1.84 0.42 1.40 C4 7 0.69 2.53 0.52 1.92 C 5 7 0.54 3.07 0.41 2.33 3 0.45 0.45 0.36 0.36 Soybean- 3 0.42 0.87 0.32 0.68 2 3 0.38 1.25 0.29 0.97 large 3 0.46 1.71 0.34 1.31 3 0.35 2.06 0.31 1.62 2 0.52 0.52 0.41 0.41 Cong. Voting 2 0.54 1.06 0.44 0.85 3 2 0.48 1.54 0.38 1.23 Records 2 0.58 2.12 0.47 1.70 2 0.51 2.63 0.40 2.10 28 4.52 4.52 3.98 3.98 Arrhythmia 28 4.96 9.48 3.72 7.70 4 28 5.15 14.63 4.28 11.98 28 4.38 19.01 3.82 15.80 28 4.92 23.93 3.98 19.78 4 2.34 2.34 1.98 1.98 4 2.06 4.40 1.75 3.73 5 Anneal 4 1.95 6.35 1.58 5.31 4 2.19 8.54 1.74 7.05 4 1.88 10.42 1.52 8.57 156 9.45 9.45 7.92 7.92 156 8.96 18.41 7.85 15.77 6 Advers 156 8.15 26.56 6.96 22.73 156 9.32 35.88 7.83 30.56 156 8.04 43.92 6.84 37.40 95
  7. 3.3.4.4. Đánh giá về số lượng thuộc tính tập rút gọn và độ chính xác phân lớp Bảng 3.12 trình bày kết quả về số thuộc tính trong tập rút gọn và độ chính xác phân lớp của thuật toán FWIA_U_Attr so với cách tiếp cận gián tiếp khi lần lượt thực hiện hai thuật toán FWIA_DA và FWIA_AA. Bảng 3.12. Số lượng tập rút gọn và độ chính xác phân lớp của thuật toán FWIA_U_Attr và 2 thuật toán FWIA_DA và FWIA_AA. Tập FWIA_DA và Số thuộc FWIA_U_Attr STT Tập thuộc tính tính thay FWIA_AA dữ liệu thay đổi giá trị đổi giá trị |R| Acc |R| Acc C1 7 6 76.84 6 75.92 C2 7 8 78.29 8 77.84 1 Audiology C3 7 9 77.25 8 77.06 C4 7 7 74.62 7 74.18 C5 7 8 75.28 8 74.92 3 9 92.46 9 92.15 3 10 94.75 9 94.16 2 Soybean –large 3 8 85.18 8 84.87 3 12 92.78 13 92.26 3 11 92.12 11 91.85 2 8 92.45 8 92.68 Cong. Voting 2 6 89.17 6 89.75 3 2 6 89.17 6 89.62 Records 2 7 93.46 7 93.67 2 8 94.25 8 94.86 28 16 82.68 17 82.05 Arrhythmia 28 22 86.42 23 85.98 4 28 19 81.25 19 80.98 28 25 86.78 26 86.15 28 21 84.23 22 83.98 4 8 86.49 8 86.02 4 12 88.94 13 88.26 5 Anneal 4 11 88.25 11 87.85 4 14 91.15 13 90.84 4 10 90.62 10 90.18 156 21 88.26 20 87.96 156 18 86.15 19 85.85 6 Advers. 156 17 87.93 18 87.36 156 25 90.18 24 89.85 156 23 89.85 24 89.16 97
  8. Thời gian thực hiện của hai hướng tiếp cận tính toán được trình bày như trong bảng 3.13. Trên tất cả các tập dữ liệu, thời gian thực hiện thuật toán FWIA_U_Attr tính trực tiếp tập rút gọn nhỏ hơn nhiều so với hướng tiếp cận tính toán gián tiếp sử dụng thuật toán loại bỏ tập thuộc tính FWIA_DA và thuật toán bổ sung tập thuộc tính FWIA_AA. Điều đó cho thấy tính hiệu quả của thuật toán FWIA_U_Attr so với cách tiếp cận cũ. 3.5. Kết luận chương 3 Như vậy chương 3 đã nghiên cứu về các trường hợp tập thuộc tính thay đổi trong các trường hợp bổ sung, loại bỏ tập thuộc tính và tập thuộc tính thay đổi giá trị. Cụ thể như sau: 1) Xây dựng thuật toán gia tăng lọc - đóng gói tìm tập rút gọn trên bảng quyết định không đầy đủ trong trường hợp bổ sung, loại bỏ tập thuộc tính. 2) Đề xuất thuật toán gia tăng lọc - đóng gói tìm tập rút gọn trên bảng quyết định không đầy đủ trong trường hợp tập thuộc tính thay đổi giá trị. Kết quả thực nghiệm cho thấy, các thuật toán theo tiếp cận lọc - đóng gói giảm thiểu số lượng thuộc tính tập rút gọn và cải thiện độ chính xác của mô hình phân lớp so với các thuật toán gia tăng khác theo tiếp cận lọc đã công bố. Tuy nhiên về thời gian thực hiện cao hơn vì phải cần nhiều thời gian hơn để thực hiện phân lớp trong giai đoạn đóng gói. Trong trường hợp tập thuộc tính thay đổi giá trị, dựa trên kết quả thực nghiệm thu được, thuật toán FWIA_U_Attr hiệu quả hơn so với cách tiếp cận gián tiếp sử dụng thuật toán loại bỏ tập thuộc tính FWIA_DA và thuật toán bổ sung tập thuộc tính FWIA_AA. Kết quả nghiên cứu của chương này được công bố trong công trình [CT3, CT5, CT7], phần: “Danh mục công trình khoa học của luận án”. 99
  9. 3) Đề xuất công thức tính khoảng cách khi tập thuộc tính thay đổi giá trị, trên cơ sở đó đề xuất thuật toán gia tăng lọc - đóng gói tìm tập rút gọn của bảng quyết định không đầy đủ trong trường hợp tập thuộc tính thay đổi giá trị: thuật toán FWIA_U_Attr. Kết quả thực nghiệm trên các tập dữ liệu mẫu từ kho dữ liệu UCI [73] cho thấy, các thuật toán lọc - đóng gói đề xuất giảm thiểu số lượng thuộc tính tập rút gọn, từ đó nâng cao hiệu quả của mô hình phân lớp sau khi rút gọn thuộc tính. Tuy nhiên, thời gian thực hiện của các thuật toán lọc - đóng gói đề xuất cao hơn các thuật toán lọc đã công bố do phải tính toán các bộ phân lớp. Hướng phát triển của luận án 1) Cải tiến các thuật toán gia tăng lọc- đóng gói đã công bố nhằm giảm thiểu thời gian thực hiện bằng giải pháp không thực hiện lặp lại các bộ phân lớp. 2) Tiếp tục nghiên cứu, đề xuất các thuật toán gia tăng lọc - đóng gói tìm tập rút gọn theo các mô hình tập thô mở rộng khác trong trường hợp bổ sung, loại bỏ tập đối tượng, tập thuộc tính và tập đối tượng, tập thuộc tính thay đổi giá trị nhằm phù hợp với các lớp bài toán khác nhau trong thực tế. 3) Tiếp tục nghiên cứu thuật toán gia tăng lọc - đóng gói tìm tập rút gọn trong trường hợp tập đối tượng, tập thuộc tính khi cùng thay đổi giá trị. 101
  10. TÀI LIỆU THAM KHẢO Tài liệu tiếng Việt 1. Nguyễn Bá Quảng, “Phát triển một số phương pháp rút gọn thuộc tính trong bảng quyết định không đầy đủ theo tiếp cận filter-wrapper”, Luận án tiến sĩ toán học, Viện Khoa học và Công nghệ Quân sự, Hà Nội, 2021. 2. Nguyễn Bá Quảng, Nguyễn Long Giang, “Về một thuật toán gia tăng tìm tập rút gọn của bảng quyết định không đầy đủ trong trường hợp bổ sung tập thuộc tính”, Tạp chí Nghiên cứu KH&CN quân sự, số 63, 10-2019, tr. 171-183. 3. Nguyễn Bá Quảng, Nguyễn Long Giang, Trần Thanh Đại, Nguyễn Ngọc Cương (2019), “Phương pháp filter-wrapper rút gọn thuộc tính trong bảng quyết định không đầy đủ sử dụng khoảng cách”, Kỷ yếu Hội thảo Quốc gia lần thứ XXII - Một số vấn đề chọn lọc của CNTT và TT, Thái Bình, 246-252. 4. Nguyễn Long Giang (2012), “Nghiên cứu một số phương pháp khai phá dữ liệu theo tiếp cận lý thuyết tập thô”, Luận án Tiến sĩ Toán học, Viện Công nghệ thông tin. 5. Nguyễn Long Giang, Nguyễn Thanh Tùng (2012), “Một phương pháp mới rút gọn thuộc tính trong bảng quyết định sử dụng metric”, Kỷ yếu Hội thảo Một số vấn đề chọn lọc về CNTT và TT, Cần Thơ, 10/2011, Tr. 249-266. 6. Nguyễn Long Giang, Vũ Đức Thi (2011), “Thuật toán tìm tất cả các rút gọn trong bảng quyết định”, Tạp chí Tin học và Điều khiển học, T.27, S.3, tr. 199-205. 7. Phạm Minh Ngọc Hà, Nguyễn Long Giang, Nguyễn Văn Thiện, Nguyễn Bá Quảng (2019), “Về một thuật toán gia tăng tìm tập rút gọn của bảng quyết định không đầy đủ”, Chuyên san các công trình nghiên cứu phát triển Công nghệ Thông tin và Truyền thông, T2019, S.1, tr. 11-18. Tài liệu tiếng Anh 8. Abbas A., Noor R., Irfan M., & Kostaq H. (2019) “Soft ordered approximations and incomplete information system”, Journal of Intelligent & Fuzzy Systems, 36(6), pp. 5653-5667. 9. Atay C., Garani G. (2019), “Maintaining Dimension's History in Data Warehouses Effectively”, International Journal of Data Warehousing and Mining (IJDWM), 15(3), pp. 46-62. 10. Cai M., Lang, G., Hamido F., Li Z., Yang T. (2019), “Incremental approaches to updating reducts under dynamic covering granularity”, Knowledge-Based Systems 172, pp. 130-140. 103
  11. 23. Hao G., Longshu L., Chuanjian Y., Jian D. (2019), “Incremental reduction algorithm with acceleration strategy based on conflict region”, Artificial Intelligence Review, 51(4), pp. 507-536. 24. Hu C., Liu S., Liu G. (2017), “Matrix-based approaches for dynamic updating approximations in multigranulation rough sets”, Knowl Based Syst 122, pp. 51-63. 25. Hu J., Wang K., Yu H. (2017), “Attribute Reduction on Distributed Incomplete Decision Information System”, In International Joint Conference on Rough Sets, Springer, Cham, pp. 289-305. 26. Hua B., Lin W., Ga Y. (2019), “Attribute reduction based on improved information entropy”, Journal of Intelligent & Fuzzy Systems, 36(1), pp. 709-718. 27. Huang Y., Li T., Luo C., Fujita H., Horng S. (2017), “Dynamic variable precision rough set approach for probabilistic set-valued information systems”, Knowledge-Based Systems 122, pp. 131-147. 28. Huang Y., Li T., Luo C., Fujita H., Horng S. (2017), “Matrix-based dynamic updating rough fuzzy approximations for data mining”, Knowl. Based Syst. 119, pp. 273-283. 29. Huong N.T.L., Giang N.L. (2016), “Incremental algorithms based on metric for finding reduct in dynamic decision systems”, Journal on Research and Development on Information & Communications Technology, Vol.E-3, No.9, pp. 26-39. 30. Huong N.T.L., Giang N.L. (2016), “Incremental algorithms based on metric for finding reduct in dynamic decision tables”, Journal on Research and Development on Information & Communications Technology, Vol.E-3, No.9 (13), pp. 26-39. 31. Huyen T., Thinh C., Yamada K., Do N.V. (2018), “Incremental Updating Methods with Three-way Decision Models in Incomplete Information Systems”, IEEE Joint 10th International Conference on Soft Computing and Intelligent Systems, pp. 27-32. 32. Janos D., Huong N.T.L., Thi V.D., Giang N. L. (2016), “Metric based attribute reduction method in dynamic decision tables”, Cybernetics and Information Technologies, 16(2), pp. 3-15. 33. Jensen, R., Shen, Q. (2008), “Computational Intelligence and Feature Selection, Rough and Fuzzy Approaches, Aberystwyth University”, IEEE Computational Intelligence Society, Sponsor. 34. Jing Y., Li T., Fujita H., Wang B., Cheng N. (2018), “An incremental attribute reduction method for dynamic data mining”, Information Sciences 465, pp. 202-218. 35. Jing Y., Li T., Huang J., Chen H., Horng S. (2017), “A Group Incremental Reduction Algorithm with Varying Data Values”, International Journal of Intelligent Systems 32(9), pp. 900-925. 105
  12. fused decision tables”, International Journal of Approximate Reasoning 118, pp. 1-26. 50. Long N., Gianola D., Weigel K. (2011), “Dimension reduction and variable selection for genomic selection: application to predicting milk yield in Holsteins”, Journal of Animal Breeding and Genetics. 128 (4), pp. 247-257. 51. Luo C., Li T., Chen H., Fujita H., Yi Z. (2017), “Efficient updating of probabilistic approximations with incremental objects”, Knowledge-Based Systems 109, pp. 71-83. 52. Luo C., Li T., Huang Y., Fujita H. (2019), “Updating three-way decisions in incomplete multi-scale information systems”, Information Sciences 476, pp. 274-289. 53. Luo C., Li T., Yao Y. (2017), “Dynamic probabilistic rough sets with incomplete data”, Information Sciences 417, pp. 39-54. 54. Luo S. (2018), “Attribute reductions in an inconsistent decision information system”, Journal of Intelligent & Fuzzy Systems, 35(3), pp. 3543-3552. 55. Ma F., Chen J., Han W. (2016), “A Positive Region Based Incremental Attribute Reduction Algorithm for Incomplete System”, International Conference on Electronic Information Technology and Intellectualization (ICEITI 2016), pp. 153-158. 56. Ma F., Ding M., Zhang T., Cao J. (2019), “Compressed binary discernibility matrix based incremental attribute reduction algorithm for group dynamic data”, Neurocomputing, Vol. 344, No. 7, pp. 20-27. 57. Ma F., Zhang T. (2017), “Generalized binary discernibility matrix for attribute reduction in incomplete information systems”, The Journal of China Universities of Posts and Telecommunications, Volume 24, Issue 4, pp. 57-75. 58. Meng Z., Shi Z. (2009), “A fast approach to attribute reduction in incomplete decision systems with tolerance relation-based rough sets”, Information Sciences, Vol. 179, pp. 2774-2793. 59. Nandhini N., Thangadurai K. (2019), “An incremental rough set approach for faster attribute reduction”, International Journal of Information Technology. 60. Ni P., Zhao S., Wang X., Chen H., Li C., Tsang E. (2020), “Incremental feature selection based on fuzzy rough sets”, Information Sciences, Volume 536, pp. 185-204. 61. Pawlak Z. (1982), “Rough sets”, International Journal of Computer and Information Sciences, 11(5), pp. 341-356. 62. Pawlak Z. (1991), “Rough sets: Theoretical aspects of reasoning about data”, The Netherlands: Kluwer Academic Publishers. 107
  13. 77. Wang F., Liang J., Dang C. (2013), “Attribute reduction for dynamic data sets”, Applied Soft Computing, 13(1), pp. 676-689. 78. Wang F., Liang J., Qian Y. (2013), “Attribute reduction: A dimension incremental strategy”, Knowledge-Based Systems, Volume 39, pp. 95-108. 79. Wang L., Yang X., Chen Y., Liu L., An S., Zhuo P. (2018), “Dynamic composite decision-theoretic rough set under the change of attributes”, Int. J. Comput. Intell.Syst, Vol. 11, pp. 355-370. 80. Wang S. (2020), “Research on Data Mining and Investment Recommendation of Individual Users Based on Financial Time Series Analysis”, International Journal of Data Warehousing and Mining (IJDWM), 16(2), pp. 64-80. 81. Wei-Yin Loh., (2011), “Classification and regression trees”, John Wiley & Sons, Inc. WIREs Data Mining Knowl Discov Volume 1, pp. 14-23. DOI: 10.1002/widm.8 82. Wei W., Song P., Liang J., Wu X. (2018), “Accelerating incremental attribute reduction algorithm by compacting a decision table”, International Journal of Machine Learning and Cybernetics, Springer. 83. Wei W., Song P., Liang J., Wu X. (2019), “Accelerating incremental attribute reduction algorithm by compacting a decision system”, International Journal of Machine Learning and Cybernetics 10, pp. 2355-2373. 84. Wei W., Wu X., Liang, J., Cui J., Sun Y. (2018), “Discernibility matrix based incremental attribute reduction for dynamic data”, Knowledge-Based Systems, Vol. 140, pp. 142-157. 85. Xia W., Lu J., Ming J. (2020), “Attributes correlation coefficients and their application to attributes reduction”, Journal of Intelligent & Fuzzy Systems, 38(3), pp. 2443-2455. 86. Xie X., Qin X. (2018), “A novel incremental attribute reduction approach for dynamic incomplete decision systems”, International Journal of Approximate Reasoning, 93, pp. 443-462. 87. Yang X., Li T., Fujita H., Liu D., Yao Y. (2017), “A unified model of sequential three-way decisions and multilevel incremental processing”, Knowledge-Based Systems 134, pp. 172-188. 88. Yang X., Li T., Liu D., Chen H., Luo C. (2017), “A unified framework of dynamic three-way probabilistic rough sets”, Information Sciences 420, pp. 126-147. 89. Yang Y., Chen D., Wang H. (2017), “Active Sample Selection Based Incremental Algorithm for Attribute Reduction With Rough Sets”, IEEE Transactions on Fuzzy Systems, 25(4), pp. 825-838. 109