Luật học củng cố: Không như học có giám sát được cung cấp mục tiêu trước (mỗi tín hiệu ngõ vào sẽ có một tín hiệu ra tương ứng), luật học củng cố chỉ được cung cấp theo mức (Ví dụ: “đúng” hoặc “sai”). Bởi vì trong thực tế không phải lúc nào ta cũng có đầy đủ thông tin về đối tượng. Vì vậy, kiểu học củng cố sẽ thích hợp nhất cho những ứng dụng điều khiển hệ thống.
Hình 2.13: Mô hình luật học củng cố [2].
Luật học không có giám sát: trọng số và ngưỡng phân cực chỉ được hiệu chỉnh đối với ngõ vào. Không có mục tiêu ngõ ra được đặt trước. Có vẻ như điều
này thiếu thực tế, vì làm sao huấn luyện được mạng nếu không biết nó sẽ làm gì? Hầu hết những thuật toán này sẽ tự phát hiện các đặc điểm, các mối tương quan giữa các mẫu dữ liệu vào và mã hóa thành dữ liệu ra. Điều này rất hữu ích trong những ứng dụng như lượng tử hoá vector.
Hình 2.14: Mô hình luật học không có giám sát [2]. 2.2.4 Mạng truyền thẳng một lớp (mạng perceptron đơn giản)
Thuật toán học perceptron:
Vào cuối những năm 1950, Frank Rosenblatt và một số nhà nghiên cứu khác đã phát triển một loại mạng neutron gọi là perceptron. Rosenblatt đã giới thiệu một luật học để huấn luyện mạng perceptron giải quyết một số vấn đề nhận dạng kiểu mẫu. Mạng perceptron sẽ học từ những đáp ứng mà ta đưa vào. Nó cũng có thể học khi đựơc cho những giá trị trọng số và phân cực ngẫu nhiên.
Ngày nay, mạng perceptron vẫn được xem là một mạng quan trọng vì tính nhanh và chính xác đối với những vấn đề mà nó có thể giải quyết.
1. Cấu trúc mạng perceptron
Mạng perceptron tổng quát có cấu trúc như hình :
Hình 2.15: Cấu trúc mạng perceptron tổng quát [2].
Ma trận trọng số:
Ngõ ra của mạng:
a = hardlim(wp + b)
ai= hardlim(ni) = hardlim(iwTp +bi)
Nhận xét:
Mỗi nơ-ron trong mạng sẽ chia không gian ngõ vào thành 2 miền: một miền bao gồm các ngõ vào sao cho ngõ ra bằng 1 và một miền bao gồm các ngõ vào sao cho ngõ ra bằng 0. Vì vậy, ta cần khảo sát đường phân chia giữa những miền này.
2.2.5 Mạng truyền thẳng nhiều lớp (Multilayer perceptron _ MLP)
Để khắc phục những khó khăn đối với những bài toán có mẫu phân chia không tuyến tính, mạng nơ-ron nhiều lớp được sử dụng. Có rất nhiều công trình nghiên cứu về mạng MLP và đã cho thấy nhiều ưu điểm của mạng này. Mạng MLP là một giải pháp hữu hiệu cho việc mô hình hoá, đặc biệt với quá trình phức tạp hoặc cơ chế chưa rõ ràng. Nó không đòi hỏi phải biết trước dạng hoặc tham số. Mạng MLP là cơ sở cho thuật toán lan truyền ngược và khả năng xấp xỉ liên tục.
1. Thuật toán lan truyền ngƣợc
Giải thuật lan truyền ngược là một trong những giải thuật phổ biến để huấn luyện mạng nơ-ron nhiều lớp. Đây cũng là một kiểu học có giám sát. Trọng số của mỗi nơ-ron được chỉnh định theo hướng tỉ lệ với sai số của nơ-ron mà nó kết
nối. Việc lan truyền ngược những sai số này từ ngõ ra đến ngõ vào của mạng có thể chỉnh định tất cả các trọng số của mạng.
Giải thuật lan truyền ngƣợc huấn luyện mạng nơ-ron nhiều lớp:
Tập dữ liệu đã cho có n mẫu (xn,dn), với mỗi n, xn là tín hiệu đầu vào, dn là đầu ra mong muốn. Quá trình học là việc thực hiện cực tiểu hoá hàm G sau:
Q là số nút tại lớp ra của mạng.
Thuật toán lan truyền ngược đề cập ở các phần trên đã được ứng dụng rất rộng rãi trong việc huấn luyện các mạng nơ-ron. Tuy nhiên, nó vẫn mắc phải 2 khuyết điểm cố hữu là: tốc độ hội tụ chậm và dễ bị rơi vào các vùng cực trị cục bộ. Hai khuyết điểm này có thể hạn chế bằng việc lựa chọn tối ưu
tốc độ học (hệ số η ) và sử dụng bổ sung hệ số momentum vào luật học: ) ( ) ( ) ( ) 1 (t w t w t w t wii ii ii ii Trong đó: α là hệ số momentum
Tuy có thể được cải thiện phần nào chất lượng học nhưng rõ ràng điều này vẫn chưa đủ để có thể ứng dụng giải thuật lan truyền ngược vào thực tế do tốc độ hội tụ chậm của nó. Và những hạn chế này có thể được khắc phục khi sử dụng mạng hàm cơ sở xuyên tâm.
Kết luận chƣơng
Trong chương này chúng ta đã tìm hiểu các khái niệm về logic mờ, mạng nơ ron nhân tạo và khả năng ứng dụng của logic mờ, mạng nơ-ron nhân tạo. Logic mờ được sử dụng để cung cấp một cách thức suy luận chất lượng, gần gũi hơn với quyết định của con người vì nó xử lý không chính xác và sự mơ hồ bằng cách kết hợp các mối quan hệ mờ và các thực tế mờ, trong khi mạng nơ ron cung cấp một cách thuận tiện để đạt được khả năng thích nghi của quá trình chẩn đoán cho lập luận và đánh giá chủ quan của giáo viên. Như vậy, kết hợp logic mờ và mạng nơ ron giúp hệ thống mã hóa cả kiến thức có cấu trúc và không có cấu trúc. Trong chương tiếp theo, chúng ta sẽ nghiên cứu ứng dụng mạng nơ ron và logic mờ vào việc phân loại đối tượng học tập trong đào tạo điện tử.
Chƣơng 3: ÁP DỤNG MẠNG NƠ RON VÀ LOGIC MỜ CHO VẤN ĐỀ PHÂN LOẠI ĐỐI TƢỢNG HỌC
3.1 Ứng dụng mạng nơ ron và logic mờ cho vấn đề phân loại đối tƣợng học học
Theo [4], các hành vi có thể quan sát được của người học được chia thành k nhóm. Một giáo viên thường xác định đặc điểm cụ thể của loại hành vi này để có thể phân biệt cho việc dạy học đối với mỗi người học khác nhau.
Tập B = {B1, B2,…,Bi,..,Bk} mô tả một cách ngôn ngữ k khía cạnh về hành vi có thể quan sát được của người học sẽ phục vụ như là đầu vào cho quá trình chẩn đoán, với Bi (i=1,2,..k) là một từ hoặc một câu mô tả loại hành vi thứ i quan sát được. k phản hồi đo được tạo thành một tập hợp thông tin số mô tả hành vi của người học. Mỗi loại i (i =1,2,..,k) lấy giá trị của nó trong một tập hợp các số dương Ui. Đầu vào số X {x1, x2, xi,..., xk}, với xi є Ui và Ui là tập nền của đầu vào thứ i; mỗi Ui ⊂ℜ+ (i =1,2,..., k) đại diện cho giá trị đo được của Bi và lập một đầu vào cho quá trình chẩn đoán.
Đầu ra của quá trình chẩn đoán cập nhật vào mô hình người học liên quan đến L đặc tính học tập khác nhau của người học C1, C2, ..., CL, như khả năng của người học, động lực hoặc phong cách học tập. Sự đánh giá về người học tương ứng với từng đặc tính Cj (j = 1,2, ... .. L) được mô tả qua việc việc sử dụng các giá trị ngôn ngữ. Tùy thuộc vào đặc tính thứ j, sẽ có một số mj khác của các giá trị ngôn ngữ mô tả Cj (j = 1,2, ... .. L).
Mỗi đặc tính của người học được đánh giá bằng cách xử lý các đầu vào số X { x1, x2, xi,..., xk }của hành vi người học. Quá trình này bao gồm ba bước: làm mờ, suy luận, và giải mờ
Hình 3.1: Lược đồ cho mô hình dự đoán [4].
chuyển đổi các dữ liệu đầu vào số thành các thuật ngữ ngôn ngữ. Bộ làm mờ thứ i (i = 1,2,..,k) biến đổi đầu vào số xi thành các mức độ thuộc của các giá trị ngôn ngữ mô tả Bi
Trong bước thứ hai, quá trình suy diễn cung cấp một đánh giá mờ về các đặc tính của người học C1, C2, ..., CL bằng việc đánh giá các mức độ thuộc với các thuật ngữ ngôn ngữ mô tả mỗi đặc tính Cj. Cuối cùng, toàn bộ các hệ thống mờ cụ thể, trong đó mỗi hệ thống suy luận về một đặc tính Cj cụ thể được sử dụng để tạo ra một đánh giá mờ từ một tiền điều kiện mờ. Một hệ thống mờ kết hợp các giá trị ngôn ngữ và nhận ra các mối quan hệ mờ hoạt động với toán tử max – min. Những mối quan hệ này đại diện cho ước lượng của một giáo viên với mức độ liên kết giữa một đầu vào quan sát được X { x1, x2, xi,..., xk}, và một đánh giá mờ của một đặc tính người học Cj cụ thể (j = 1,2, ... .. L).
Cuối cùng, trong bước thứ ba, các đánh giá mờ được giải mờ thành các giá trị không mờ, tức là các quyết định đánh giá cho các đặc điểm C1, C2, ..., CL bằng cách sử dụng một bộ giải mờ từ toàn bộ các bộ giải mờ M. Mỗi bộ giải mờ có một số đầu vào khác nhau. Vì vậy, tùy thuộc vào số lượng giá trị ngôn ngữ mj của mỗi đặc trưng Cj (j = 1,2, ... .. L), 1 bộ giải mờ M khác nhau được sử dụng để đánh giá đặc tính của người học.
3.1.1 Lược đồ thể hiện kiến thức mờ
a. Quá trình làm mờ
Bước này thể hiện cho mô tả chủ quan của giáo viên theo hình thức ngôn ngữ về các phản hồi của người học khi thực hiện giao tiếp mặt đối mặt trong quá trình giảng dạy (ví dụ như thời gian cần thiết để giải quyết bài tập là
ngắn, người học trả lời đầy đủ các câu hỏi trong quá trình giảng dạy). Các loại phản hồi B1, B2, …, Bi được xử lý như các biến ngôn ngữ. Mỗi biến Bi (i =1,2, ... .. k) có thể đưa ra một số giá trị ngôn ngữ fi khác nhau. Số fi của các giá trị ngôn ngữ và tên của nó V1, V2, ..., Vfi được định nghĩa bởi nhà phát triển với sự giúp đỡ của các chuyên gia, và phụ thuộc vào mỗi biến. Tập T (Bi) = {Vi1, Vi2, ..., Vifi} là tập thuật ngữ của Bi.
Ví dụ: Chúng ta hãy xem xét biến ngôn ngữ Bi = "Điểm bài thi". Tập thuật ngữ tương ứng có thể là:
T (Bi) = T (Điểm bài thi) = {Kém, Trung bình, Thấp, Cao} bao gồm bốn giá trị ngôn ngữ (fi = 4), hoặc bất kỳ phân loại nào như T (Bi) = T (Thời gian hoàn thành bài thi= {Chậm, Trung bình, Nhanh} bao gồm ba giá trị ngôn ngữ (fi = 3). T = {T (B1), ..., T(Bi), ..., T (Bk)} là tập hợp của tất cả các tập thuật ngữ mà đại diện toàn bộ hành vi có thể quan sát Β (cho tất cả Bi; i = 1,2, ... .. k). Vì vậy, đầu vào số X = {x1 ,..., xi,...,xk} đại diện các giá trị có thể đo được của B1, B2, ..., Bi, ..., Bk
được mờ bởi các giá trị ngôn ngữ V11, V12,..,V1fi; ..; Vi1, Vi2, ..., Vifi; Vk1, Vk2,..,Vkfi. Vì vậy, hành vi của người học B được thể hiện như 1 tập các giá trị số Y = {(Y11, Y12,..,Y1fi); (Yi1, Yi2,..,Yifi),.. (Yk1, Yk2,..,Ykfi)} trong [0,1] đại diện mức độ thuộc của mỗi giá trị số xi (i = 1,..,k) thành tập thuật ngữ của Bi với các giá trị ngôn ngữ
Vi1, Vi2, ..., Vifi
b. Quá trình suy diễn
Bước này đại diện cho lập luận của giáo viên trong việc phân loại định tính người học theo khả năng và đặc điểm cá nhân, chẳng hạn như chăm chú, khá chậm, tốt,..vv. Giáo viên có thể cung cấp một loạt các quy tắc If-Then gần giống với lý luận của họ. Ví dụ: “Nếu điểm bài thi trung bình và thời gian làm bài chậm thì phân loại người học là trung bình”.
Trong mô hình này, một mô tả định tính về các đặc điểm của người học C1, C2, ..., CL được thực hiện bằng cách coi các đặc điểm của người học như các biến ngôn ngữ. Mỗi biến ngôn ngữ Cj có thể đưa ra một số giá trị ngôn ngữ mj khác nhau. T(Cj) = {Cj1, Cj2, ..., Cjmj} là tập thuật ngữ của Cj. Các giáo viên thiết lập số mj của các giá trị ngôn ngữ và tên Cj1, Cj2, ..., Cjmj của chúng cho mỗi đặc tính Cj theo phán đoán cá nhân của họ.
Ví dụ: Nếu chúng ta xử lý biến ngôn ngữ Cj = "Phân loại người học" bằng cách sử dụng năm giá trị ngôn ngữ (mj = 5) thì tập thuật ngữ có thể là: T(Cj) = T (Phân loại người học) = {Kém, Trung bình, Trung bình khá, Khá, Giỏi}. Bằng cách này, một phương thức lý luận chất lượng, trong đó những tiền điều kiện và kết quả của các luật IF-THEN liên quan đến các biến mờ được sử dụng để cung cấp một mô tả không chính xác về lập luận của giáo viên:
“IF B1 is V1I1 AND B2 is V2I2 …AND Bk is VkIk THEN C1 is C1J1 AND C2 is C2J2…AND CL is CLJL”
Với điều kiện I1=1,2,…,f1 ; I2=1,2,…,f2 ; Ik=1,2,…,fk ; J1=1,2,…,m1;
Tất cả các kết hợp có thể có trong các tiền điều kiện, ký hiệu là PCP dưới đây, T = {T (B1), ..., T(Bi), ..., T (Bk)}: PCP = T (B1) x ...x T(Bi) x ...x T (Bk) và n = f1 x f2 x. .. x fk của các trường hợp có thể có trong các tiền điều kiện bằng n thành phần của PCP. Mỗi hệ thống mờ j (xem hình 3.1) suy luận một đánh giá mờ của một đặc trưng Cj khác nhau (j = 1,2, ..., L). Trong mỗi hệ thống mờ, sự giao nhau (tương ứng với phép logic AND) giữa các hàm thuộc với các giá trị ngôn ngữ của mỗi tiền điều kiện là toán tử min, và các kết quả trong giá trị thực pn của tiền điều kiện. Như vậy, hành vi của người học được mô tả bởi một vector P= (P1, P2, ..., Pn) trong đó P1, P2, ..., Pn trong khoảng [0,1] đại diện cho các mức độ hoàn thành tiền điều kiện.
Bằng một mối quan hệ mờ như mô tả dưới đây, P được dịch sang các đánh giá mờ bằng cách khai thác những đánh giá chủ quan giáo viên (được biểu thị bởi Rj) đối với một đặc điểm Cj:
Po Rj = Cj,
Với Cj là một vec tơ m chiều Cj = [Cj1, Cj2, ..., Cjmj], Cj1, Cj2, Cjmj trong [0,1] đại diện đánh giá mờ về đặc điểm Cj của người học, tức là một đánh giá với các mức độ thuộc Cj1, Cj2, ..., Cjmj trên mỗi giá trị ngôn ngữ (Cj1, Cj2, ..., Cjmj) của biến ngôn ngữ cho đặc điểm Cj0; Rj là một ma trận trọng số n × mj đại diện cho ước tính của giáo viên về mức độ liên kết giữa tiền điều kiện P và các giá trị ngôn ngữ của đặc điểm Cj0 của người học, biểu tượng o biểu thị toán tử thành phần max- min.
c. Quá trình giải mờ
Bước này đại diện cho quyết định cuối cùng của giáo viên trong việc phân loại một người học ở một trong những giá trị ngôn ngữ được xác định trước Cj1, Cj2, ..., Cjmj của đặc điểm Cj. Quá trình này được thực hiện bằng việc đánh trọng số đánh giá mờ. Tùy thuộc vào số lượng các giá trị ngôn ngữ mj của mỗi đặc trưng Cj, sử dụng một bộ giải mờ thích hợp, tức là thực hiện một thủ tục giải mờ khác nhau "bắt chước" các quyết định chủ quan của giáo viên. Các quyết định của giáo viên có thể rõ ràng hoặc trong biên. Các quyết định trong các trường hợp biên được đánh giá chủ quan cao, và thường thường các giáo viên sẽ dành lại sự xác định trình độ tốt nhất hay kém nhất về người học. Vì vậy, chúng ta sử dụng một thực hiện dựa trên mạng nơ ron, cho phép hệ thống thích ứng với các thủ
tục giải mờ cho ý kiến các nhân của người dùng (giáo viên) bằng cách huấn luyện, như sẽ được giải thích trong phần tiếp theo.
3.1.2 Làm mờ
Tùy thuộc vào biến ngôn ngữ Bi và giá trị ngôn ngữ Vi1, Vi2, Vifi, ta xác định chủ quan các hàm thuộc khác nhau, gán cho mỗi thành phần xi của Ui (i = 1, .. k) một mức độ thuộc Yifi (xi) cho giá trị ngôn ngữ Vifi của Bi. Trong cách này, chúng đóng góp vào các luật ngữ nghĩa kết hợp mỗi giá trị ngôn ngữ Vifi của Bi với ý nghĩa của nó. Nói chung, hình thức của 1 hàm thuộc phụ thuộc ý kiến chuyên gia. Ở đây đề xuất một cách tiếp cận để đơn giản hóa việc cài đặt bằng việc xấp xỉ các hàm thuộc sử dụng 1 thư viện regular shapes và cài đặt bước làm mờ như 1 nhóm mạng nơ ron trọng số cố định và tính toán như regular shapes. các hàm thuộc là chủ quan và thường phụ thuộc ngữ cảnh, một tập hợp M = {m1, m2,..., mk} của các tham số để điều chỉnh các hàm thuộc được xác định để cho phép một phạm vi thích nghi đối với các đánh giá chủ quan của giáo viên. Như vậy, đối với mỗi giá trị ngôn ngữ của tập T = {T (B1), T(B2), ..., T (Bk), bước làm mờ tính toán đầu ra Y của các giá trị số trong khoảng [0,1] dựa trên các vector đầu vào X = {x1, ..., xi, ... xk}, và M = {m1, m2,..., mk}: