Một số áp dụng của giải tích toán học trong machine learning và deep learning

55 19 0
Một số áp dụng của giải tích toán học trong machine learning và deep learning

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

Thông tin tài liệu

Bộ GIÁO DỤC VÀ ĐÀO TẠO TRƯỜNG ĐẠI HỌC QUY NHƠN ĐĂNG HẢI TRIỀU MỘT SỐ ÁP DỤNG CỦA GIẢI TÍCH TỐN HỌC TRONG MACHINE LEARNING VÀ DEEP LEARNING LUẬN VĂN THẠC SĨ TOÁN HỌC Bộ GIÁO DỤC VÀ ĐÀO TẠO TRƯỜNG ĐẠI HỌC QUY NHƠN Bình Đinh - Năm 2020 ĐẶNG HẢI TRIỀU MỘT SỐ ÁP DỤNG CỦA GIẢI TÍCH TỐN HỌC TRONG MACHINE LEARNING VÀ DEEP LEARNING Chun ngành : Tốn Giải tích Mã số : 8460102 Người hướng dẫn: TS MAI THÀNH TÂN Muc luc Trang 1.1 Bộ GIÁO DỤC VÀ ĐÀO TẠO TRƯỜNG ĐẠI HỌC QUY NHƠN Kết 45 Tài luận liệu tham khảo 46 Lời cam đoan Tôi xin cam đoan kết đề tài: “ Một số áp dụng Giải tích toán học Machine learning Deep learning” cơng trình nghiên cứu độc lập tơi hướng dẫn giảng viên: TS Mai Thành Tấn, khơng có chép người khác Đề tài, nội dung luận văn kết nỗ lực nghiên cứu thân trình học tập trường nơi làm việc Các tài liệu tham khảo, kế thừa trích dẫn liệt kê danh mục Tài liệu tham khảo Tơi xin chịu hồn tồn trách nhiệm, kỷ luật môn nhà trường đề có vấn đề xảy Quy Nhơn, tháng năm 2020 Học viên Đặng Hải Triều Lời cảm ơn Luận văn hoàn thành nhờ hướng dẫn giúp đỡ tận tình thầy hướng dẫn TS Mai Thành Tấn, Trường Đại học Quy Nhơn Nhân dịp tơi xin bày tỏ kính trọng lịng biết ơn sâu sắc đến Thầy giúp đỡ suốt trình học tập thực luận văn Xin gửi lời cảm ơn đến quý Ban lãnh đạo Trường Đại học Quy Nhơn, Phòng Đào tạo Sau Đại học, Khoa Toán Thống kê tạo điều kiện thuận lợi cho tơi q trình học tập thực đề tài Xin gửi cảm ơn đến FPT Software Quy Nhơn, team Trí Tuệ Nhân Tạo FWI.AAA tạo điều kiện cho làm việc mơi trường chun nghiệp, bên cạnh hỗ trợ cho tiếp xúc gần với ngành công nghiệp AI Nhờ giúp tơi hồn thiện tốt đề tài Xin bày tỏ lịng biết ơn đến quý thầy, cô giảng dạy lớp cao học Tốn Giải Tích số khóa 21, người dày công truyền đạt kiến thức đạo đức sư phạm cho chúng tơi suốt khóa học Cuối cùng, xin gửi lời cảm ơn chân thành đến gia đình bạn bè tơi, người tạo điều kiện thuận lợi để tơi hồn thành tốt khóa học luận văn Quy Nhơn, tháng năm 2020 Đặng Hải Triều Danh mục hình vẽ đồ thị Trang 1.1 4.1 1.2 1.3 Danh mục ký hiệu Ký 1.4 Ý nghĩa At 1.6 Ma trận giả nghịch đảo A 1.8 Ma trận đường chéo A>0 1.10 1.12 Miền xác định f Ma trận A nửa xác định dương jump 1.14 Bước nhảy f x 1.15 sgn 1.16 Hàm dấu 1.17 inf 1.19 Seq(X 1.18 1.20 Cận Tập dãy X 1.21 NN 1.22 Neural Network hiệu 1.5 1.7 diag(Ai,Ă2, , A r) 1.9 1.11 1.13 domf (f, xi) ) i 1.23 ANN 1.24 Artificial Neural Network 1.25 SVM 1.26 Support Vector Machine 1.27 Lời nói đầu 1.28 Trong tất ngành khoa học, tốn học đóng vai trị quan trọng việc phát triển ngành khoa học đặc thù Ví dụ tốn học xác xuất thống kê sinh học, toán học vật lý, toán học hóa học, Đặc biệt lĩnh vực cơng nghệ thơng tin, tốn học ln trước mở đường cho ngành công nghệ thông tin Một số lĩnh vực toán học tiền đề, xương sống phát triển cơng nghệ thơng tin 1.29 Trí tuệ nhân tạo (Artificial Intelligence - AI) trở thành thành phần cốt lõi hệ thống công nghệ cao Trong xã hội đại, bắt gặp AI khắp nơi AI ứng dụng kinh tế, y học, kỹ thuật quân sự, khoa học máy móc, thiết bị cơng nghệ phục vụ sinh hoạt ứng dụng giải trí Điển kĩnh vực chế tạo người máy, trò chơi điện tử, trợ lý ảo, nhà thông minh, công nghệ thực tế ảo VR, 1.30 Machine Learning Deep Learning lĩnh vực Trí tuệ nhân tạo liên quan đến việc nghiên cứu xây dựng kỹ thuật cho phép hệ thống "tự học" tự động từ liệu để giải vấn đề cụ thể 1.31 Hiện tại, có hội tiếp xúc làm thuật tốn, tìm hiểu thuật tốn thấy ý nghĩa, tầm quan trọng toán học với tin học lớn ngày lớn Gần ta nghe thấy nhiều lĩnh vực Trí tuệ nhân tạo từ ngữ phổ biến Trí tuệ nhân tạo lên chứng cách mạng công nghiệp lần thứ tư 1.32 Luận văn: “ Một số ứng dụng giải tích machine learning deep learning” nhằm tìm hiểu số vấn đề tốn học giải tích có ứng dụng lĩnh vực Machine Learning Deep Learning Nội dung luận văn gồm bốn chương: 1.33 Chương Một số kiến thức chuẩn bị 1.34 Chương trình bày số kiến thức giải tích lồi, tốn tối ưu, giải tích ma trận 1.35 Chương Mạng nơ-ron 1.36 Chương trình bày Mạng nơ-ron, thuật ngữ quan trọng AI, kèm theo giải số vấn đề tốn giải tích có liên quan trực tiếp 1.37 Chương Hồi quy tuyến tính Trang 1.38 Chương trình bày số vấn đề tốn giải tích ma trận để giải số tốn hồi quy 1.39 Chương Support Vector Machine 1.40 Chương trình bày số vấn đề tối ưu, đặc biệt tối ưu lồi để giải toán phân chia lớp liệu 1.41 Mặc dù luận văn thực với tinh thần nghiêm túc với nỗ lực cố gắng thân, trình độ kiến thức kinh nghiệm nghiên cứu hạn chế nên luận văn khó tránh khỏi thiếu sót Chình thế, mong nhận góp ý q thầy để luận văn hoàn thiện 1.43 Tác giả 1.42 2020 Quy Nhơn, tháng năm Trang 1.44 Chương 1.45 MỘT SÔ KIÊN THỨC CHUÂN BỊ 1.46 Chương trình bày số kiến thức Lý thuyết độ đo, giải tích hàm, lý thuyết tối ưu, số khái niệm Machine learning Các kết chương chủ yếu tham khảo từ tài liệu [1], [3], [4] [7] trong: “Danh mục tài liệu tham khảo” 1.1 Lý thuyết độ đo 1.1.1 Đại số 1.47 Định nghĩa 1.1.1 Cho X tập không rỗng Một đại số lớp chứa X,0 đóng phép tốn hữu hạn tập hợp 1.48 Ví dụ 1.1.2 a) P(X) = {A : A c X} đại số b) Nếu A c X C = {X, A, A , 0} đại số c 1.1.2 đại số 1.49 Định nghĩa 1.1.3 Một ơ— đại số lớp chứa X, đóng phép toán hữu hạn hay đếm tập hợp 1.50 Ví dụ 1.1.4 a) Nếu X = {a, b, c, d}, - đại số X A = {0, {a, b}, {c, d}, {a, b, c, d}} Nhìn chung, đại số hữu hạn - đại số b) Nếu {A , A ,A } phân hoạch đếm X tập hợp tất 1.51 tập phân hoạch (bao gồm tập rỗng) ơ— đại số 1.1.3 n đại số Borel 1.52 Định nghĩa 1.1.5 Một ơ— đại số nhỏ bao hàm lớp tập mở không 1.593 = (X X + AI) X y T -1 T 1.594.Mơ hình machine learning với hàm mát gọi hồi quy ridge Ngồi việc giúp phương trình gradient theo hệ số khơng có nghiệm nhất, hồi quy ridge cịn giúp mơ hình tránh overfitting 3.4 Ví dụ minh họa 3.4.1 Bài toán 1.595 Bài toán ước lượng giá nhà 1.596 Bạn làm công ty bất động sẩn, bạn có liệu diện tích giá nhà, có ngơi nhà bạn muốn ước tính xem giá ngơi nhà khoẩng Trên thực tế giá nhà phụ thuộc nhiều yếu tố: diện tích, số phịng, gần trung tâm thương mại, toán đơn giẩn, giẩ sử giá nhà phụ thuộc vào diện tích nhà Bạn có liệu diện tích giá bán cửa 30 nhà sau: 1.597 Diện tích (m30 ) 1.601 1.605 2.4138 1.609 4.8276 1.613 7.2414 1.617 9.6552 1.621 42.069 1.625 4.4828 1.629 6.8966 1.633 9.3101 1.637 1.7241 1.641 4.1379 1.645 6.5517 1.649 8.9655 1.653 1.3793 1.657 1.661 3.7931 4 5 5 6 1.598 Giá (triệu VNĐ) 1.602 448.524 1.599 Diện tích66.2069 (m ) 1.603 1.600 Giá (triệu VNĐ) 1.604 995.531 1.606 509.248 1.610 535.104 1.614 551.432 1.618 623.418 1.607 68.6207 1.611 71.0345 1.615 73.4483 1.619 5.8621 1.623 78.2759 1.608 1069.78 1.612 1074.42 1.616 1103.88 1.620 1138.69 1.622 625.992 1.626 655.248 1.627 80.6879 1.624 1153.13 1.628 1240.27 1.630 701.377 1.634 701.377 1.638 757.881 1.642 831.004 1.631 83.1034 1.635 85.5172 1.639 87.931 1.643 90.3448 1.632 1251.9 1.636 1287.97 1.640 1320.47 1.644 1374.92 1.646 855.409 1.650 866.707 1.654 902.545 1.658 952.261 1.647 92.7586 1.651 95.1724 1.655 97.5862 1.648 1410.16 1.652 1469.69 1.656 1478.54 1.660 1515.28 1.659 100 3.4.2 Giải toán Python 1.662 import matplo tlib pyplot as p l t 1.663 import numpy a s np 1.664 from s kl e arn linear_model import L ine a rRe g res sion import pand as a s pd 1.665 path_csv = " data_linear csv " 1.666 data = pd read_csv ( path_csv ) v a l u e s 1.667 N = data shape [ ] 1.668 x = data[:, 0].reshape(-1, 1) 1.669 y = data[:, 1].reshape(-1, 1) 1.670 plt scatter (x , y) 1.671 p11 xlabel ( 'Met -Vuong ') plt ylabel( 'Gia') 1.672 x = np hsl ack((np ones((N, 1)) , x)) 1.673 1.674 1.675 Hình 3.1: Biểu đồ liệu giá diện tích 1.676 df = pd read_csv("dal a_linear csv") 1.677 x = np array ( df [" Dieii-tich "]) y = np array(df["Gia"]) 1.678 X_i = ip array ( [ [ , x [ i ] ] for i in range ( len (x))]) 1.679 X_i = ip mal rix(X_i) 1.680 y = ip expaid_dims(y, axis = -1) y = ip malrix(y) 1.681 w = np linalg inv (X_n.T*X_n)*X_n.T*y 1.682 print ("ww=w", w) 1.683 def p r e d i c l ( x , w) : 1.684 return int (x*w[1]+w[0]) 1.685 predicl (50,w) 1.686 pll plol ([xmii ,xmax] ,[model(xmii ,w) ,model(xmax,w)] , color ="red") pll scal l er(x, [ya[ i ] [0] for i in range(len(ya))] ,) 1.687 Kết quẳ chạy 1.688 w = [[-7.06426865] 1.689 [15.2110908 ] ] 1.690 1.691 1.692 1.693 1.694 1.695 1.696 1.697 1.698 1.699 1.700 1.701 1.702 1.703 1.704 1.12 Hình 3.2: Kết model 1.705 Chương 1.706 MÁY VECTOR HỖ TRƠ 1.707 Support Vector Machine - tạm dịch Máy vector hỗ trợ (Support Vector Machine - SVM) Thuật toán SVM ban đầu tìm Vladimir N Vapnik dạng chuẩn sử dụng lề mềm tìm Vapnik Corinna Cortes năm 1995 1.708 Support vector machine (SVM) khái niệm thống kê khoa học máy tính cho tập hợp phương pháp học có giám sát liên quan đến để phân loại phân tích hồi quy Các SVM sử dụng phổ biến vấn đề phân lớp SVM dạng chuẩn nhận liệu vào phân loại chúng vào hai lớp khác Do SVM thuật toán phân loại nhị phân Với ví dụ luyện tập thuộc hai thể loại cho trước, thuật tốn luyện tập SVM xây dựng mơ hình SVM để phân loại ví dụ khác vào hai thể loại Một mơ hình SVM cách biểu diễn điểm không gian lựa chọn ranh giới hai thể loại cho khoảng cách từ ví dụ luyện tập tới ranh giới xa Các ví dụ biểu diễn không gian thuật toán dự đoán thuộc hai thể loại tùy vào ví dụ nằm phía ranh giới 1.709 Support Vector Machine xây dựng siêu phẳng tập hợp siêu phẳng không gian nhiều chiều vơ hạn chiều, sử dụng cho phân lớp, hồi quy nhiệm vụ khác Một cách trực giác, để phân loại tốt siêu phẳng nằm xa điểm liệu tất lớp tốt, nói chung lề lớn sai số tổng qt hóa thuật tốn phân loại bé Tóm lại, SVM dựa ý tưởng tìm siêu phẳng chia tốt tập liệu thành hai lớp cho lề tối ưu 1.710 Các kết chương chủ yếu tham khảo từ tài liệu [1], [3], [6], [8] trong: “Danh mục tài liệu tham khẳo” Hình 4.1: Tập liệu phân tách tuyến tính 1.711 1.712 4.1 Tập 1.713 liêu phân tách tuyến tính Cho siêu phẳng H G R xác định n 1.714 Hw,a = {x G R |xiWi + + XnWn = a} , n 1.715 w , ,w ,a G R siêu phẳng H , xác định phương trình w a n 1.716 T 1.717 w x=a 1.718 Ta biết khoảng cách từ điểm x G R siêu phẳng H , n w a | w x0 - a| T d(Hw,a, x0) = cho đẳng thức 1.719 1.720 Giả sử có hai lớp liệu mô tả vector đặc trưng không gian nhiều chiều Hơn nữa, hai lớp liệu tách biệt tuyến tính, tức tồn siêu phẳng phân chia xác hai lớp Hãy tìm siêu phẳng cho tất điểm thuộc lớp nằm phía siêu phẳng ngược phía với tồn điểm thuộc lớp lại Chúng ta biết có vơ số siêu phẳng thực việc phân chia nhờ vào thuật toán Perceptron 1.721 1.722 1.723 Hình 4.2: Siêu phẳng phân tách tập liệu 1.724 Có câu hỏi đặt ra: Trong vơ số phẳng phân chia đó, đâu phẳng phân chia tốt ? 1.725 Gọi khoảng cách nhỏ từ điểm thuộc lớp tới đường phân chia lề Ta cần tìm phẳng phân chia cho lề hai lớp phẳng phân chia Hơn nữa, độ rộng lề lớn khả xảy phân loại lỗi thấp Bài toán tối ưu SVM tốn tìm đường phân chia cho lề rộng 4.2 Xây dựng toán tối ưu cho SVM 1.726 Giả sử liệu tập huấn luyện có kích thước m cặp vector 1.727 s = ((x1,y1), ,(xm,ym)), 1.728 x , , x G R y G {-1; 1} với < i < m 1.729 liệu âm n m i Các liệu dương s cặp x , y cho y = 1, cặp lại i i i 1.730 Nhiệm vụ phẳng phân lớp tuyến tính xây dựng siêu phẳng H , để tách liệu s cho với liệu dương (x , 1) x G HW° với liệu âm (x , -1) x G HW0J w a i i i i a 1.731 Ban đầu, ta giả định tồn siêu phẳng phân chia, nghĩa liệu s làphân tách tuyến tính 1.732 Với cặp liệu (x , y ) bất kỳ, khoảng cách từ x tới mặt phân chia i i i yi(w Xi - a) T 1.733 w 1.734 Lề xác đinh 1.737 1.735 yi(w xi - a) p = 1.736 i ||w|| Bài toán tối ưu SVM T a) = argmax w,a L i 1.738 1.739 yi(w xi - a) w, ||w|| T = argmax w ,a yi(w xi - a) T ||w 1.740 Như vậy, với i = 1,2,m ta ln có 1.741 yi(w Xi - a) > T 1.742 dạng Bài tốn tối ưu đưa tốn tối ưu với ràng buộc có 1.743 (w, a) = argmax ' 1.744 w,a ||w|| 1.745 thỏa mãn y (w Xi — a) > 1, với i = 1,2, ,m i T 1.746 Bằng biến đổi đơn giản, ta tiếp tục đưa tốn dạng 1.747 (w,a) = argmin-||w|| (4.1) w ,a 1.748 thỏa mãn — y (w x — a) < 0, với i = 1,2, ,m i 4.3 T i Bài toán đối ngẫu i) Kiểm tra tiêu chuẩn Slater 1.749 Điều kiện Slater nói tồn w, a thỏa mãn 1.750 - yi(w Xi - a) < 0, Vi = 1, 2, ,m T 1.751 đối ngẫu mạnh thỏa mãn 1.752 Dễ thấy luôn tồn cặp (w ,a ) cho 0 1.753 - yi(w Xi - ao) < o - yi(2w Xi - 2ao) < 0, Vi = 1, 2, ,m T T 1.754 Vậy cần chọn w = 2w a = 2a , ta có 1 1.755 1-yi(w Xi-a1) T T T 1.777 Điều chứng tỏ 1.778 g(u) = -1 u V Vu + u T T T 1.779 hàm lõm hay K ma trận nửa xác định dương iv) Bài toán đối ngẫu Lagrange 1.780 Kết hợp hàm đối ngẫu Lagrange điều kiện ràng buộc u, ta thu toán dối ngẫu Lagrange toán tối ưu 1.781 u = argmaxg ( u) , u 1.782 với ràng buộc m 1.783 u > 0; ^2 Uiyi = 1.784 i=1 v) Điều kiện KKT 1.785 Bởi toán tối ưu lồi đối ngẫu mạnh xảy nên nghiệm toán thỏa mãn hệ điều kiện KKT 1.786 —yi(w Xi - a) < 0, Vi = 1, 2, 1.787 .,m; 1.789 Ui > 0, 1.790 .,m; T 1.788 (4 1.791 Vi = 1, 2, (4 1.794 1.792 ui(1 - yi(w Xi - a)) = 0, Vi = 1, 2, 1.793 .,m; (4 1.798 1.795 m 1.799 (4 1.796 w = uiyiXi ; 1.803 6) 1.800 m 1.804 ( 1.801 uiyi = 4.7) 1.802 i=1 1.805 Điều kiện 4.5 dẫn đến u = — 1.806 = với 1.807 i = ,2, ,m y (w x — a) Nếu — y (w x — a) = T i i T i i T i 1.809 1.808 w Xi - a = yi, 1.811 T 1.812 với i = 1,2, ,m 1.813 1.810 ( 4.8) Đặt 1.814 S = {i : ui = 0} mS = |S| 1.815 Theo 4.6, w tính 1.816 w = uj yj xj 1.817 jeS 1.818 Và với i G S, ta có 1.819 = yi (w Xi - a a = w Xi - yi T T 1.820 1.821 =m s x - yỊ=m fc u yj xTx - yi a 1.822 vi) Xác định lớp cho điểm liệu ieS ieS yjeS 1.823 Sau tìm mặt phân chia w X = a, nhãn điểm xác định đơn giản T 1.824 class(X) = sgn w X - a T 4.4 Ví dụ minh họa 1.825 Bài tốn Tìm siêu phẳng phân tách tập liệu phân tách tuyến tính cho trước 1.826 Lời giải toán Python 1.827 from _future_ import print_function 1.828 import numpy as np 1.829 import matplotlib pyplot as p l t 1.830 from scipy s p a t i a l distance import c d i s t np.random seed(22) 1.831 means = [[2 , 2] , [4 , 2]] 1.832 cov = [[.3 , 2], [.2, 3]] 1.833 N= 10 1.834 X0 = np.random multivariate_normal(means[0 ] , cov , N) # class 1.835 X1 = np.random multivariate_normal(means[1 ] , cov , N) # class -1 1.836 X = np concatenate((X0.T, X1.T) , axis = 1) # all data 1.837 y = np.concatenate((np.ones((1, N)), — 1*np.ones((1, N))), axis = 1) # labels 1.838 from sklearn svm import SVC 1.839 y1 = y reshape((2*N,)) 1.840 X1 = X.T clf =SVC(kernel="linear", C=1e5) 1.841 clf fit(X1, y1) 1.842 w = c l f coef_ 1.843 b = clf intercept_ 1.844 print ( ’ww=w ', w) print( ’aw=w', —b) 1.845 1.846 w = 1.847 a = Nhẫn kết quẳ [[—2.00971102 [—4.66595309] 1.848 0.64194082]] Kết luận 1.849 Nội dung chủ yếu luận văn nhằm nghiên cứu ứng dụng Tốn giải tích Machine learning Deep learning Luận văn đạt số kết sau: Trình bày kiến thức nơ-ron mạng nơ-ron Qua làm rõ cấu trúc mạng nơ-ron nhân tạo, cách hoạt động thành phần nơ-ron Ngoài ra, luận văn làm rõ cách mạng nơ-ron thực trình huấn luyện hình thức lan truyền ngược tính tốn thuật tốn Gradient Descent ứng dụng tính chất hàm đơn điệu lý thuyết độ đo để làm rõ tính chất mạng nơ-ron hàm kích hoạt (hàm sigmoid) mạng, từ chứng minh định lý xấp xỉ phổ quát, định lý quan trọng mạng nơ-ron Trình bày kiến thức giải tích ma trận tối ưu để giải tốn hồi quy Trình bày ma trận giả nghịch đảo hướng giải phương pháp hồi quy rigde Áp dụng toán tối ưu để xây dựng giải toán phân lớp SVM Trình bày hàm Lagrange tốn đối ngẫu Lagrange để tìm phẳng phân chia tối ưu tập liệu phân tách tuyến tính Sử dụng ngơn ngữ lập trình Python số thư viện để giải toán cách lập trình máy tính 1.850 Tài liêu tham khảo [1] Vũ Hữu Tiệp (2014), https://machinelearningcoban.com/ Machine Learning bẳn [2] Nguyễn Thanh Tuấn (2016), Deep Learning Cơ bẳn http://nttuan8.com/ [3] Dan A Simovici (2008), Mathematical Analysis For Machine Learning And Data Mining, World Scientific Publishing [4] White, H., Gallant, A R., Hornik, K., Stinchcombe, M and Woolridge, J (1992), Artificial Neural Networks - Approximation and Learning Theory, Blackwell, Oxford, UK [5] Shalev Shwartz, Ben David (2016), Understanding Machine Learning - From Theory to Practice, Cambridge University Press, Cambridge, UK [6] Peter Wentworth, Jeffrey Elkner, Allen B Downey, and Chris Meyers (2012), How to Think Like a Computer Scientist: Learning with Python [7] Ji, Zongliang (2019), Approximation of Continuous Functions by Artificial Neural Networks, Union College - Schenectady, NY [8] Andrew Ng-Course Machine Learning http://cousera.org/machine-learning/ [9] Andrew Ng - Course Deep Learning http://cousera.org/specializations/deep-learning/ - - Stanford University, Stanford University, ... GIÁO DỤC VÀ ĐÀO TẠO TRƯỜNG ĐẠI HỌC QUY NHƠN Bình Đinh - Năm 2020 ĐẶNG HẢI TRIỀU MỘT SỐ ÁP DỤNG CỦA GIẢI TÍCH TỐN HỌC TRONG MACHINE LEARNING VÀ DEEP LEARNING Chun ngành : Tốn Giải tích Mã số : 8460102... dụng giải tích machine learning deep learning? ?? nhằm tìm hiểu số vấn đề tốn học giải tích có ứng dụng lĩnh vực Machine Learning Deep Learning Nội dung luận văn gồm bốn chương: 1.33 Chương Một số. .. DỤC VÀ ĐÀO TẠO TRƯỜNG ĐẠI HỌC QUY NHƠN Kết 45 Tài luận liệu tham khảo 46 Lời cam đoan Tôi xin cam đoan kết đề tài: “ Một số áp dụng Giải tích tốn học Machine learning Deep learning? ??

Ngày đăng: 16/08/2021, 11:17

Mục lục

    Danh mục hình vẽ và đồ thị

    1.2. Danh mục ký hiệu

    1.45. MỘT SÔ KIÊN THỨC CHUÂN BỊ

    1.1. Lý thuyết độ đo

    1.1.3. ơ đại số Borel

    1.2.2. Không gian định chuẩn

    1.2.3. Định lý Haln Banach

    1.3. Lý thuyết tối ưu

    1.3.1. Hàm Lagrange của bài toán tối ưu

    1.3.2. Một số định lý