Nghiên cứu đồ thị tri thức mờ và ứng dụng vào bài toán phân lớp dữ liệu.

70 2 0
Nghiên cứu đồ thị tri thức mờ và ứng dụng vào bài toán phân lớp dữ liệu.

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

Thông tin tài liệu

Nghiên cứu đồ thị tri thức mờ và ứng dụng vào bài toán phân lớp dữ liệu.Nghiên cứu đồ thị tri thức mờ và ứng dụng vào bài toán phân lớp dữ liệu.Nghiên cứu đồ thị tri thức mờ và ứng dụng vào bài toán phân lớp dữ liệu.Nghiên cứu đồ thị tri thức mờ và ứng dụng vào bài toán phân lớp dữ liệu.Nghiên cứu đồ thị tri thức mờ và ứng dụng vào bài toán phân lớp dữ liệu.Nghiên cứu đồ thị tri thức mờ và ứng dụng vào bài toán phân lớp dữ liệu.Nghiên cứu đồ thị tri thức mờ và ứng dụng vào bài toán phân lớp dữ liệu.Nghiên cứu đồ thị tri thức mờ và ứng dụng vào bài toán phân lớp dữ liệu.

1 LỜI CAM ĐOAN Tôi xin cam đoan kiến thức, nội dung trình bày luận văn kiến thức tơi tìm hiểu, nghiên cứu, đọc, dịch tài liệu, tổng hợp trình bày theo kiến thức cá nhân hướng dẫn TS Trần Mạnh Tuấn Các kết luận văn tơi nghiên cứu chưa cơng bố đâu Các tài liệu có liên quan tơi sử dụng trình làm luận văn ghi rõ nguồn gốc Tôi xin cam đoan luận văn khơng chép mà hồn tồn tơi nghiên cứu thực Tơi xin chịu tồn trách nhiệm với cam đoan Hà Nội, ngày 24 tháng 11 năm 2022 Học viên Trần Ngọc Thái Sơn LỜI CẢM ƠN Sau thời gian học tập, nghiên cứu thực hiện, đến hồn thành cơng trình nghiên cứu Trong q trình làm luận văn này, tơi nhận động viên, giúp đỡ thầy cô, bạn bè người thân Trước tiên, xin chân thành cảm ơn sâu sắc tới TS Trần Mạnh Tuấn nhiệt tình hướng dẫn, cung cấp tài liệu, tạo điều kiện thuận lợi để tơi hồn thành tốt luận văn Tôi xin gửi lời cảm ơn tới thầy giáo Viện Công nghệ thông tin Ban Lãnh đạo, phòng Đào tạo, phòng chức Học viện Khoa học Công nghệ giảng dạy tạo môi trường học tập, nghiên cứu tốt để tơi hồn thành đề tài Sau cùng, tơi xin gửi lời cảm ơn đến gia đình, bạn bè, bạn lớp cao học ITT20B, người đồng hành, giúp đỡ, chia sẻ với tơi q trình thực luận văn Trân trọng! Học viên Trần Ngọc Thái Sơn MỤC LỤC DANH MỤC BẢNG DANH MỤC HÌNH VẼ, BIỂU ĐỒ MỞ ĐẦU Lý chọn đề tài Mục đích nhiệm vụ nghiên cứu Đối tượng phạm vi nghiên cứu Phương pháp nghiên cứu đóng góp luận văn Cấu trúc luận văn CHƯƠNG CƠ SỞ LÝ THUYẾT 1.1 Lý thuyết đồ thị 1.2 Logic mờ 10 1.3 Suy diễn mờ (Fuzzy Inference) 15 1.4 Đồ thị tri thức mờ 18 1.5 Ngôn ngữ MATLAB 20 1.6 Tổng kết chương 24 CHƯƠNG ĐỒ THỊ TRI THỨC MỜ 25 2.1 Mơ hình đồ thị tri thức mờ phân lớp liệu 25 2.2 Xây dựng luật mờ 25 2.3 Biểu diễn đồ thị tri thức mờ từ luật mờ 28 2.4 Suy diễn đồ thị tri thức mờ 30 2.5 Các độ đo đánh giá trình phân lớp liệu 33 2.6 Ví dụ số việc xây dựng suy diễn đồ thị tri thức mờ 33 2.7 Tổng kết chương 43 CHƯƠNG CÀI ĐẶT VÀ XÂY DỰNG ỨNG DỤNG 44 3.1 Bài toán ứng dụng 44 3.2 Mô tả liệu 44 3.3 Cài đặt xây dựng ứng dụng 48 3.4 Kết thực nghiệm 50 KẾT LUẬN 55 PHỤ LỤC 56 Danh mục tài liệu tham khảo 68 DANH MỤC BẢNG Bảng 1: Hệ luật mờ 28 Bảng 2 Tập liệu đầu vào 35 Bảng 3: Bộ liệu đầu vào 36 Bảng 4: Bảng ma trận xân dựng đồ thị từ luật 39 Bảng 5: Bảng tính giá trị C với nhãn 40 Bảng 6: Bảng tính giá trị C với nhãn 40 Bảng 1: Các thuộc tính liệu đầu vào tập liệu bệnh ung thư Breast 45 Bảng 2: Các thuộc tính liệu đầu vào tập liệu bệnh tiểu đường Diebetes 45 Bảng 3: Các thuộc tính liệu đầu vào tập liệu đo chất lượng rượu Wine 46 Bảng 4: Các thuộc tính liệu đầu vào tập liệu bệnh gan Liver 46 Bảng 5: Dữ liệu Y học cổ truyền 48 Bảng 6: Kết thực nghiệm Accuracy liệu UCI 51 Bảng 7: Kết thực nghiệm thời gian liệu UCI 51 Bảng 8: Kết thực nghiệm Accuracy liệu tiền sản giật 53 Bảng 9: Kết thực nghiệm thời gian liệu tiền sản giật 53 DANH MỤC HÌNH VẼ, BIỂU ĐỒ Hình 1: Một số dạng hàm thuộc 11 Hình 2: Mơ hình suy luận mờ với luật-một tiền đề 16 Hình 3: Mơ hình suy luận mờ luật-nhiều tiền đề 17 Hình 4: Mơ hình suy luận mờ hai luật hai tiền đề 18 Hình 5: Minh họa đồ thị tri thức mờ 19 Hình 1: Mơ hình đồ thị tri thức mờ phân lớp liệu 25 Hình 2: Sơ đồ tổng quan hệ suy diễn mờ 27 Hình 3: Biểu diễn đồ thị tri thức mờ từ luật mờ theo thuộc tính 29 Hình 4: Biểu diễn đồ thị tri thức mờ 30 Hình 5: Quá trình suy diễn đồ thị tri thức mờ 32 Hình 6: Đồ thị FKG cho luật 39 Hình 1: Mơ hình cho tốn hỗ trợ chẩn đốn bệnh y học cổ truyền 49 Hình 2: Đồ thị tri thức mờ với bệnh án Y học cổ truyền 52 MỞ ĐẦU Lý chọn đề tài Với nghiên cứu gần đầy cho thấy việc sử dụng đồ thị tri thức mờ vấn đề Đồ thị tri thức (KG) phương pháp mạnh mẽ hỗ trợ xử lý vấn đề khai phá liệu KG kết hợp với kỹ thuật khác để giải toán học máy Tuy nhiên, KG gặp khó khăn cho việc xây dựng đồ thị suy luận gần tập liệu đầu vào có thơng tin chưa đầy đủ, chưa xác Khi đó, mơ hình đồ thị tri thức mờ (FKG) thiết kế vào năm 2020 để giải vấn đề KG kết hợp với logic xây dựng lên đồ thị tri thức mờ Một biểu đồ hình thành với nút biểu diễn nhãn ngôn ngữ cạnh xác định kết nối nhãn ngôn ngữ nhãn đầu Đồ thị FKG thể lý theo quy luật tự nhiên tác động giá trị biên ngôn ngữ để đưa kết đầu tương ứng Do vậy, việc nghiên cứu đồ thị tri thức mờ cần thiết, giải hiệu số toán phân lớp liệu Mục đích nhiệm vụ nghiên cứu - Nghiên cứu lý thuyết mờ, lý thuyết đồ thị, đồ thị tri thức mờ - Xây dựng demo thử nghiệm mơ hình với tốn phân lớp liệu Đối tượng phạm vi nghiên cứu - Logic mờ, đồ thị, đồ thị tri thức mờ (FKG) - Nghiên cứu Logic mờ, lý thuyết đồ thị, đồ thị tri thức mờ - Cài đặt, mơ hình dựa ngơn ngữ lập trình Matlab - Xây dựng thực thi demo liệu thu thập từ UCI liệu thu thập thực tế Phương pháp nghiên cứu đóng góp luận văn Phương pháp nghiên cứu lý luận: Học viên tập trung vào việc đọc hiểu, phân tích tốn, thu thập liệu cho tốn thơng qua nguồn tài liệu từ sách, giáo trình, … liên quan đến kiến thức sử dụng luận văn Phương pháp nghiên cứu thực tiễn: Tiến hành cài đặt mơ hình đồ thị tri thức mờ, xây dựng demo với liệu thu thập Các bước thực trình xây dựng mơ hình: - Thu thập liệu - Tiền xử lý liệu - Xây dựng mơ hình phân lớp kết - Đánh giá mơ hình - Báo cáo luận văn hoàn chỉnh đồ thi thức mờ ứng dụng - Demo mơ hình đồ thị tri thức mờ Cấu trúc luận văn Mở đầu: Trình bày tổng quan đề tài Chương 1: Cơ sở lý thuyết: trình bày lý thuyết liên quan sử dụng đồ án Chương 2: Đồ thị tri thức mờ: trình bày mơ hình đồ thị tri thức mờ, cách biểu diễn đồ thị tri thức mờ, suy diễn đồ thị tri thức mờ Chương 3: Cài đặt ứng dụng: chương em trình bày cài đặt mơ hình tri thức mờ, thực nghiệm liệu UCI, đánh giá mơ hình đồ thị tri thức mờ Kết luận: đánh giá công việc thực chưa thực trình làm luận văn, đề xuất hướng phát triển tương lai CHƯƠNG CƠ SỞ LÝ THUYẾT 1.1 Lý thuyết đồ thị Đồ thị xây dựng dựa đỉnh (hay nút), cung (cạnh) đường nối đỉnh đồ thị với Khi lập trình để biểu diễn máy tính người ta sử dụng nhiều cách khác Trong lĩnh vực sử dụng đồ thị nhiều như: Toán học, tin học, … Khi đồ thị phương pháp tỏ hiệu với toán ứng dụng thực tế Đồ thị giải toán thực tế như: giao thơng, du lịch, giáo dục,… Nó cơng cụ trực quan hóa để biểu diễn, diễn tả tốn Một đồ thị xây dựng có cấu trúc rời rạc, gồm thành phần: tập đỉnh tập cạnh Khi đồ thị: G=(V,E) Trong đồ thị gọi G, tập đỉnh gọi V, tập cạnh gọi E Mỗi cạnh đồ thị cặp (u,v) với đỉnh u nối với đỉnh v, hai đỉnh u, v thuộc vào tập V Người ta chia đồ thị dựa tính chất cạnh tập E: - Đồ thị G đơn đồ thị hai đỉnh (u,v) V có khơng q cạnh E để nối từ u tới v - Đồ thị G đồ thị đa cạnh đỉnh u đỉnh v V có từ hai cạnh E nối từ đỉnh u tới đỉnh v - Đồ thị G gọi đồ thị vô hướng (undirected graph) cạnh nối đỉnh u đỉnh v đồ thị không định hướng - Đồ thị có hướng G (directed graph) đồ thị cạnh nối đỉnh v với đỉnh u có định hướng, xác định chiều đường cạnh đồ thị Cạnh gọi cung đồ thị có hướng Nếu cạnh nối đỉnh u với đỉnh v đồ thị tương ứng với cung là: (u→v), (v→u) Khi đồ thị vơ hướng coi đồ thị có hướng 10 1.2 Logic mờ Logic mờ xây dựng dựa lý thuyết mờ sử dụng để suy luận, lập luận dựa việc xấp xỉ thay lập luận xác logic (như lập luận tiến, lập luận lùi) Logic mờ sử dụng mặt ứng dụng lý thuyết mờ để xử lý giá trị mờ giới thực tốn thực tế [1,2,3,4] Độ xác thường hay nhầm lẫn với xác suất Nhưng, hai khái niệm hồn tồn khác nhau, độ xác logic mờ khả xảy biến cố hay điều kiện mà việc biểu diễn độ liên thuộc với tập định nghĩa không rõ ràng Logic mờ xây dựng dựa độ thuộc có miền giá trị đoạn [0,1], biểu diễn câu khơng xác giới thực như: “hơi nhanh”, “rất nhanh”, “hơi chậm”, “rất chậm”, “chậm chút”… Khi đó, phép tốn tập hợp khơng xác định đầy đủ quan hệ câu với Do vậy, quan hệ lý thuyết xác suất logic mờ có liên quan tới Ý tưởng Logic mờ giáo sư Lotfi Zadeh Đại học CaliforniaBerkeley xây dựng từ năm 1965 Tuy ứng dụng thành cơng nhiều lĩnh vực, tồn nhiều nhược điểm khác tảng toán học, dẫn đến số nghiên cứu khoa học logic mờ không rõ luận vững mà thực thông qua thực nghiệm giới thực Nó bị phủ nhận số kỹ sư ngành điều khiển tự động khả thẩm định số lý khác Trong tốn học người ta ln mong muốn xây dựng tảng vững tảng, thực tế có số tượng, vật sai hoàn cảnh, thời điểm khác mơ hình tốn học biểu diễn khơng đầy đủ tồn vẹ Ví dụ lĩnh vực thống kê, nhà thống kê khẳng định có xác suất thể cho khơng chắn cho chặt chẽ tốn học khơng gian vơ hạn, thực tế thứ có giới hạn, xác 56 PHỤ LỤC Code suy diễn mờ: function [centers centers_var t t_var] = MakeRules(train_data) data_num attribute_num] = size(train_data); cluster = zeros(1, attribute_num); cluster(1) = 2; for i=2:attribute_num temp = length(unique(train_data(:,i))); if temp == cluster(i) = 2; elseif temp == cluster(i) = 3; else cluster(i) = 5; end end m = 2; esp = 0.01; maxTest = 200; center_vector = cell (1, attribute_num); centers = cell(attribute_num-1, 1); for feature_index=1:attribute_num feature_data = train_data(:,feature_index); V = 0; 57 V_var = 0; min_value = min(train_data(:,feature_index)); max_value = max(train_data(:,feature_index)); delta = max_value - min_value; if cluster(feature_index) == V(1,1) = min_value - 0.5; V(2,1) = max_value; elseif cluster(feature_index) == V(1,1) = min_value; V(2,1) = min_value + delta/2; V(3,1) = max_value; else V(1,1) = min_value; V(2,1) = min_value + delta/4; V(3,1) = min_value + 2*delta/4; V(4,1) = min_value + 3*delta/4; V(5,1) = max_value; end [center,U] = FCM_Function(feature_data,cluster(feature_index),V,m,esp,maxTest); U = U'; center_vector{feature_index}(:,1) = center(:,1); for i=1:data_num maximum = max(U(i,:)); for j=1:cluster(feature_index) 58 if (maximum == U(i,j)) rules(i,feature_index) = j; end end end if feature_index ~= center = center'; centers{feature_index-1} = center(1,:); end end [t,sigma_M] = RuleWeight(rules, train_data,cluster,center_vector); sigma_M(1,:) = []; for i=1:(attribute_num-1) sigma_M(i,2:5) = sigma_M(i,1); end sigma_M_var(1,:) = []; beta = zeros(data_num,attribute_num); for i=1:data_num beta(i,:) = [[1 train_data(i,2:attribute_num)]\train_data(i,1)]'; end label = train_data(:,1); for i=1:data_num rules(i,(attribute_num+1)) = min(t(i,2:attribute_num)); end 59 for i=1:data_num-1 for j=i+1:data_num if(rules(i,2:attribute_num) == rules(j,2:attribute_num)) if(rules(i,(attribute_num+1)) > rules(j,(attribute_num+1))) rules(j,:)=0; else rules(i,:)=0; end end end end Rules with weight < 0.5 will be removed for i=1:data_num if(rules(i,(attribute_num+1)) < 0.5) rules(i,:) = 0; end end rules(:,1) = []; Filter rules RuleCheck = zeros(1,attribute_num); j = 1; for i=1:data_num if (rules(i,:) ~= RuleCheck(1,:)) FilteredRules(j,:) = [rules(i,1:(attribute_num-1)) label(i)]; FilterT(j,:)=t(i,:); 60 j = j + 1; end end W_rule=min(FilterT'); ruleList = FilteredRules; Code xây dựng đồ thị tri thức: for i =1:r1 j=1; for l=1:r2-2 for h=l+1:r2-1 dem=0; for t=1:r1 if(ruleList1(t,l)==ruleList1(i,l)) &(ruleList1(t,h)==ruleList1(i,h)) dem=dem+1; end end A(i,j)=dem/r1; j=j+1; end end end [k1 k2]= size(A); for i=1:2 for j=1:k2 61 tong=0; for l=1:k1 if ruleList1(l,r2)==i-1 tong=tong+A(l,j); end end T(i,j)=tong; end end for i=1: r1 dem=1; for j=1:r2-2 for k=j+1:r2-1 dem1=0; dem2=0; for l=1:r1 if (ruleList1(l,j)==ruleList1(i,j))&(ruleList1(l,r2)==ruleList1(i,r2)) dem1=dem1+1; end if (ruleList1(l,k)==ruleList1(i,k))&(ruleList1(l,r2)==ruleList1(i,r2)) dem2=dem2+1; end end M1=dem1/r1; 62 M2=dem2/r1; for l1=1:2 if ruleList1(i,r2)==l1 B(i,dem)=T(l1,dem)*min(M1,M2); end end dem=dem+1; end end end Code suy diễn đồ thị tri thức mờ: for i=1: a1 dem=1; for j=1:r2-2 for k=j+1:r2-1 dem1=0; dem2=0; for l=1:r1 if (te(i,j)==ruleList1(l,j))&(te(i,k)==ruleList1(l,k)) if (ruleList1(k,r2)==0) dem1=dem1+B(l,dem); else dem2=dem2+B(l,dem); end end 63 end C1(i,dem)=dem1; C2(i,dem)=dem2; dem=dem+1; end end end minC1=min(C1'); maxC1=max(C1'); D1=minC1+maxC1; minC2=min(C2'); maxC2=max(C2'); D2=minC2+maxC2; for k=1:a1 if D1(k)>D2(k) nhan(k)=0; else nhan(k)=1; end end Độ đo độ xác (accuracy) thời gian tính tốn (computational time) Code mơ hình FIS để so sánh function [Time, Accuracy, Recall, Precision] = Run_Train_FIS(temp_data, centers, centers_var,ruleList, ruleList_var) eta=0.000001; 64 term_num=5; FIS_para_filename = strrep('Train','.txt','.mat'); FIS_para_filename = strrep(FIS_para_filename, 'Database', 'FIS'); addpath(' \output'); load([' \output\' FIS_para_filename]); train_output = temp_data(:,1); temp_data(:,1) = []; train_input = temp_data; input_num=size(train_input,1); attri_num=size(train_input,2); rule_num=size(ruleList,1); rule_length=size(ruleList,2); re_degree_M=ones(input_num,attri_num,term_num); wtsum = zeros(input_num,1); M_DataPerRule = zeros(input_num,rule_num); start_time_train = cputime; for i=1:input_num for j=1:attri_num for k=1:length(centers{j}) degree_M(i,j,k) = gaussmf(train_input(i,j),[sigma_M(j,k) centers{j}(k)]); end end end min_M=1; 65 for i=1:input_num for j=1:rule_num min_M=1; for k=1:attri_num degree_M(i,k,ruleList(j,k)); if min_M>degree_M(i,k,ruleList(j,k)); min_M=degree_M(i,k,ruleList(j,k)); end end M_DataPerRule(i,j)=re_min_M; end end result=zeros(input_num,1); for i=1:input_num result(i)=0; wtsum(i)=0; for j=1:rule_num wtsum(i)=wtsum(i)+M_DataPerRule(i,j)*cos(M_DataPerRule(i,j)); result(i)=result(i)+M_DataPerRule(i,j)*cos(M_DataPerRule(i,j))*ruleLis t(j,rule_length); end result(i)=sqrt(result(i)^2 /wtsum(i)^2); end temp=result; 66 data_num=size(result); for i=1:data_num if temp(i)>=0.41*(max(train_output)+min(train_output)) temp(i)=max(train_output); else temp(i)=min(train_output); end end end_time_train = cputime; Time = end_time_train - start_time_train; TN=0; TP=0; FN=0; FP=0; for i=1:size(temp) if (temp(i)==train_output(i))& (temp(i)==0) TP=TP+1; end if (temp(i)==train_output(i))& (temp(i)==1) TN=TN+1; end if (train_output(i)==0)& (temp(i)==1) FN=FN+1; end if (train_output(i)==1)& (temp(i)==0) 67 FP=FP+1; end end Accuracy=(TN+TP)/(TN+TP+FN+FP); 68 Danh mục tài liệu tham khảo [1] Wenqiang Liu, Jun Liu, Mengmeng Wu, Samar Abbas, Qinghua Zheng, Representation learning over multiple knowledge graphs for knowledge graphs alignment Neurocomputing, Volume 320, December 2018, Pages 12-24 [2] Yantao Jia, Yuanzhuo Wang, Xiaolong Jin, Xueqi Cheng, Path-specific knowledge graph embedding, Knowledge-Based Systems, Volume 151, July 2018, Pages 37-44 [3] Thao, N X., Cuong, B C., Ali, M., & Lan, L H (2018) Fuzzy equivalence on standard and rough neutrosophic sets and applications to clustering analysis In Information Systems Design and Intelligent Applications (pp 834-842) Springer, Singapore [4] Giang, N L., Son, L., H., Ngan, T T., Tuan, T M., Phuong, H T., AbdelBasset, M., de Macêdo, A R L., & Albuquerque, V (2019) Novel Incremental Algorithms for Attribute Reduction from Dynamic Decision Tables using Hybrid Filter–Wrapper with Fuzzy Partition Distance IEEE Transactions on Fuzzy Systems, 28(5), pp.858-873 [5] Luong Thi Hong Lan et al., “A New Complex Fuzzy Inference System with Fuzzy Knowledge Graph and Extensions in Decision Making” IEEE Access Vol 8, 2020 (164899-164921) DOI: 10.1109/ACCESS.2020.3021097 [6] Lien Faelens, Kristof Hoorelbeke, Eiko Fried, Rudi De Raedt, Ernst H W Koster, Negative influences of Facebook use through the lens of network analysis,Computers in Human Behavior, Volume 96, July 2019, Pages 13-22 [7] Wenqiang Liu, Jun Liu, Mengmeng Wu, Samar Abbas, Qinghua Zheng, Representation learning over multiple knowledge graphs for knowledge graphs alignment Neurocomputing, Volume 320, December 2018, Pages 12-24 69 [8] De Matteis, A D., Marcelloni, F., & Segatori, A (2015, August) A new approach to fuzzy random forest generation In Fuzzy Systems (FUZZ-IEEE), 2015 IEEE International Conference on (pp 1-8) IEEE [9] James, S C., Zhang, Y., & O'Donncha, F (2018) A machine learning framework to forecast wave conditions Coastal Engineering, 137, 1-10 [10] Luong Thi Hong Lan et al., “A New Complex Fuzzy Inference System with Fuzzy Knowledge Graph and Extensions in Decision Making” IEEE Access Vol 8, 2020 (164899-164921) DOI: 10.1109/ACCESS.2020.3021097 [11] N K Geetha, P Sekar, An unprecedented multi attribute decision making using graph theory matrix approach, Engineering Science and Technology, an International Journal, Volume 21, Issue 1, February 2018, Pages 7-16 [12] Phuong, N H., & Kreinovich, V (2001) Fuzzy logic and its applications in medicine International journal of medical informatics, 62(2), 165-173 [13] Khang, T D., Phong, P A., Dong, D K., & Trang, C M (2010, July) Hedge Algebraic Type-2 Fuzzy Sets In International Conference on Fuzzy Systems (pp 1-8) IEEE [14] Son, L.,H., Tuan, T M (2016) A cooperative semi-supervised fuzzy clustering framework for dental X-ray image segmentation Expert Systems with Applications, 46, 380-393 [15] Cù, K L., Trần, M T., Lê, H S., Lương, T H L., Phạm, M C., Nguyễn, T T., & Phạm, V H (2021) Chẩn đoán bệnh y học cổ truyền: Hướng tiếp cận dựa đồ thị tri thức mờ dạng cặp Các cơng trình nghiên cứu, phát triển ứng dụng Công nghệ Thông tin Truyền thông, 59-68 [16] Üncü, Ü (2010) Evaluation of pulmonary function tests by using fuzzy logic theory Journal of medical systems, 34(3), 241-250 70 [17] Zaidi, N L B., Santen, S A., Purkiss, J A., Teener, C A., & Gay, S E (2016) A Hybrid Interview Model for Medical School Interviews: Combining Traditional and Multisampling Formats Academic Medicine, 91(11), 1526-1529 [18] Boriss Siliverstovs, Daniel S Wochner, Google Trends and reality: Do the proportions match?: Appraising the informational value of online search behavior: Evidence from Swiss tourism regions, Journal of Economic Behavior & Organization, Volume 145, January 2018, Pages 1-23

Ngày đăng: 01/03/2023, 22:24

Tài liệu cùng người dùng

Tài liệu liên quan