3. Cấu trúc của luận văn
1.2.4 Phƣơng pháp thặng dƣ
Phƣơng pháp này xác định giá đất của thửa đất trống có tiềm năng phát triển theo quy hoạch hoặc đƣợc phép chuyển đổi mục đích sử dụng để sử dụng
tốt nhất bằng cách loại trừ phần chi phí ƣớc tính để tạo ra sự phát triển ra khỏi tổng giá trị phát triển giả định của bất động sản.
Phƣơng pháp thặng dƣ đƣợc áp dụng để xác định giá đất của các thửa đất trống có tiềm năng phát triển do thay đổi quy hoạch hoặc do chuyển mục đích sử dụng đất trong khi không có giá chuyển nhƣợng quyền sử dụng đất tƣơng tự. trên thị trƣờng để áp dụng phƣơng pháp so sánh trực tiếp.
CHƢƠNG 2LOGIC MỜ VÀ MẠNG NƠRON 2.1 Logic mờ
2.1.1Khái niệm
Nhƣ đã biết, trong những suy luận đời thƣờng cũng nhƣ các suy luận khoa học, logic toán học đóng một vai trò rất quan trọng.
Ngày nay, xã hội càng phát triển thì nhu cầu con ngƣời ngày càng cao. Do đó, sự tiến bộ của khoa học cũng rất cao. Suy luận logic mệnh đề (tạm gọi là logic nguyên thủy hay logic rõ) với hai giá trị đúng, sai hay 1, 0 đã không giải quyết đƣợc hết các bài toán phức tạp nảy sinh trong thực tế.
Ví dụ: quần áo nhƣ thế nào đƣợc gọi là dày, là mỏng để máy giặt biết đƣợc mà có chế độ tự động sấy khô cho hợp lý?
Những bài toán nhƣ vậy ngày một nhiều hơn trong các lĩnh vực điều khiển tối ƣu, nhận dạng hệ thống,... nói chung là trong các quá trình quyết định nhằm giải các bài toán với các dữ liệu không đầy đủ, hoặc không đƣợc định nghĩa một cách rõ ràng (trong điều kiện thiếu thông tin chẳng hạn).
Một cách tiếp cận mới đã mang lại nhiều kết quả thực tiễn và đang tiếp tục phát triển đó là cách tiếp cận của lý thuyết tập mờ (FUZZY SET THEORY), do giáo sƣ Lotfi Zadeh của trƣờng đại học California - Mỹ đề ra năm 1965. Công trình này thực sự đã khai sinh một ngành khoa học mới là lý thuyết tập mờ và đã nhanh chóng đƣợc các nhà nghiên cứu công nghệ mới chấp nhận ý tƣởng. Một số kết quả bƣớc đầu và hƣớng nghiên cứu tiếp theo góp phần tạo nên những sản phẩm công nghiệp đang đƣợc tiêu thụ trên thị trƣờng. Lý thuyết tập mờ ngày càng phong phú và hoàn chỉnh, đã tạo nền vững chắc để phát triển logic mờ. Có thể nói logic mờ (Fuzzy logic) là nền tảng để xây dựng các hệ mờ thực tiễn, ví dụ trong công nghiệp sản xuất xi măng, sản xuất điện năng, các hệ chuyên gia trong y học giúp chuẩn đoán và điều trị bệnh, các hệ chuyên gia trong xử lý tiếng nói, nhận dạng hình ảnh,...Công cụ chủ chốt của logic mờ là tiền đề hóa và lập luận xấp xỉ với phép suy diễn mờ.
Trong phần này, tác giả sẽ là giới thiệu khái niệm tập mờ, logic mờ, tập trung đi vào các phép toán cơ bản và bƣớc đầu đi vào lập luận xấp xỉ với phép suy diễn mờ để có thể áp dụng cho bài toán định giá đất.
2.1.2 Tập mờ
Nhƣ chúng ta đã biết, tập hợp thƣờng là kết hợp của một số phần tử có cùng một số tính chất chung nào đó. Ví dụ : tập các sinh viên. Ta có :
T = { t / t là sinh viên }
Vậy, nếu một ngƣời nào đó là sinh viên thì thuộc tập T, ngƣợc lại là không thuộc tập T. Tuy nhiên, trong thực tế cuộc sống cũng nhƣ trong khoa học kỹ thuật có nhiều khái niệm không đƣợc định nghĩa một cách rõ ràng. Ví dụ, khi nói về một "nhóm sinh viên khá", thì thế nào là khá? Khái niệm về khá không rõ ràng vì có thể sinh viên có điểm thi trung bình bằng 7.9 là khá, cũng có thể điểm thi trung bình bằng 6.6 cũng là khá (dải điểm khá có thể từ 6.5 đến 7.9),... Nói cách khác, "nhóm sinh viên khá" không đƣợc định nghĩa một cách tách bạch rõ ràng nhƣ khái niệm thông thƣờng về tập họp. Hoặc, khi chúng ta nói đến một "lớp các số lớn hơn 10" hoặc "một đống quần áo cũ",... là chúng ta đã nói đến những khái niệm mờ, hay những khái niệm không đƣợc định nghĩa một cách rõ ràng. Các phần tử của nhóm trên không có một tiêu chuẩn rõ ràng về tính "thuộc về" (thuộc về một tập họp nào đó). Đây chính là những khái niệm thuộc về tập mờ. Trong đối thoại hàng ngày chúng ta bắt gặp rất nhiều khái niệm mờ này. Ví dụ, một ông giám đốc nói: " Năm qua chúng ta đã gặt hái đƣợc một số thành tích đáng khen ngợi. Năm tới đây chúng ta phải cố gắng thêm một bƣớc nữa". Đây là một câu chứa rất nhiều khái niệm mờ.
Nhƣ vậy, logic rõ có thể biểu diễn bằng một đồ thị nhƣ sau
1
a
Logic mờ cũng có thể biểu diễn bằng một đồ thị nhƣng là đồ thị liên tục
1
Hình 2.2: Đồ thị thể hiện một biến lôgic mờ
Định nghĩa tập mờ (Fuzzy set):
Cho Ω là không gian nền, một tập mờ A trên Ω tƣơng ứng với một ánh xạ từ Ω đến đoạn [0,1].
A : Ω → [0,1] đƣợc gọi là hàm thuộc về (membership function) Kí hiệu A = {(a, µA(a)) / a∈ Ω}
Trong đó, µA(a) ∈ [0,1] chỉ mức độ thuộc về (membership degree) của phần tử a vào tập mờ A.
Khoảng xác định của hàm µA(a) là đoạn [0, 1], trong đó giá trị 0 chỉ mức độ không thuộc về, còn giá trị 1 chỉ mức độ thuộc về hoàn toàn.
Ví dụ 1: Một sự biểu diễn tập mờ cho số "integer nhỏ".
Hình 2.3: Hàm thể hiện hàm “số integer nhỏ”
Ví dụ 2: Một sự biểu diễn tập mờ cho các tập ngƣời đàn ông thấp, trung bình và cao.
Hình 2.4: Hàm thể hiện tập ngƣời đàn ông thấp, trung bình, cao
Ví dụ 3: Cho Ω = {1, 2, 3, 4, 5}, tập mờ A trên Ω tƣơng ứng với ánh xạ µA nhƣ sau: µA : 1 → 0 2 → 1 3 → 0.5 4 → 0.3 5 → 0.2 Ta có tập mờ A = {(1,0), (2,1), (3,0.5), (4,0.3), (5,0.2)}
Cách viết trên là sự liệt kê các phần tử khác nhau cùng với mức độ thuộc về tập hợp A.
Từ định nghĩa trên chúng ta có thể phát biểu:
- Tập mờ A là rỗng nếu và chỉ nếu hàm thuộc về µA(a)= 0 ,∀a∈ Ω - Tập mờ A là toàn phần nếu và chỉ nếu µA(a) = 1 ,∀a∈ Ω
- Hai tập mờ A và B bằng nhau nếu µA(x) = µB(x) với mọi x trong Ω. Ví dụ 4: Cho Ω = {1, 2, 3, 4, 5}, tập mờ A trên Ω tƣơng ứng với ánh xạ µA nhƣ ví dụ trên.
A = {(1,0), (2,1), (3,0.5), (4,0.3), (5,0.2)}
Tập mờ B trên Ω tƣơng ứng với ánh xạ µB nhƣ sau: µB : 1 → 0
2 → 1 3 → 0.5 4 → 0.3 5 → 0.2
Ta có tập mờ B = {(1,0), (2,1), (3,0.5), (4,0.3), (5,0.2)} Nhận thấy, µA(x) = µB(x) với mọi x trong Ω. Vậy A= B.
2.1.3.Mệnh đề mờ
Trong logic rõ thì mệnh đề là một câu phát biểu có giá trị đúng hoặc sai.Trong logic mờ thì mỗi mệnh đề mờ là một câu phát biểu không nhất thiết là đúng hoặc sai.
Mệnh đề mờ đƣợc gán cho một giá trị trong khoảng từ 0 đến 1 để chỉ mức độ đúng (độ thuộc về) của nó.
Ví dụ : " Nam trông khá đẹp trai"
"Chiếc xe này chạy cũng đƣợc đấy". "Cô ấy sống tạm gọi là hạnh phúc".
Cho Ω = {P1, P2, ...} với P1, P2, ... là các mệnh đề. Tập mờ A trên Ω tƣơng ứng với ánh xạ v nhƣ sau:
v : Ω → [0, 1]
∀Pi ∈Ω → v(Pi)
Ta gọi v(Pi) là độ thuộc về của mệnh đề Pi trên [0, 1].
Các phép toán trên mệnh đề mờ là các phép toán logic mờ dựa trên các tập mờ.
Ký hiệu độ thuộc về của mệnh đề mờ P là v(P), ta có: 0≤v(P)≤ 1.
2.1.4 Các phép toán mệnh đề trong logic mờ
a. Phép phủ định: v(┐P ) = 1 - v(P) b. Phép tuyển: v(P1∨ P2) = max(v(P1), v(P2)) c. Phép hội: v(P1∧ P2) = min(v(P1), v(P2)) Ví dụ 1: Cho P, Q, R là các mệnh đề mờ với : v(P) = 0.1, v(Q)= 0.9, v(R) = 0.8. Mệnh đề M = (P∧Q)∨R có chân trị (độ thuộc về) là : 0.8
c. Phép kéo theo: v(P→Q) = v(┐P∨Q) = max(v(┐P ), v(Q)) Ví dụ 2: Cho P, Q là các mệnh đề mờ với : v(P) = 0.1, v(Q)= 0.6 Mệnh đề v(P→Q) = v(┐P∨Q) = max(v(┐P ), v(Q)) = max(1- 0.1, 0.6) =0.9 2.1.5.Suy diễn mờ
Suy diễn mờ hay còn gọi là suy luận xấp xỉ là quá trình suy ra những kết luậndƣới dạng các mệnh đề mờ trong điều kiện của qui tắc "Nếu... thì...", với các dữ liệu đầu vào cho trƣớc là không đƣợc rõ ràng.
Thông thƣờng, suy diễn mờ hay sử dụng luật Modus Ponnens hoặc Modus Tollen. Trong logic rõ, Modus Ponnen diễn đạt nhƣ sau:
Mệnh đề 1 (Luật hoặc tri thức): P → Q Mệnh đề 2 (Sự kiện): P đúng
Kết luận: Q đúng
Trong suy diễn mờ, luật đƣợc diễn đạt dƣới dạng sau: Luật mờ: Nếu x=A thì y=B
Sự kiện mờ: x=A' Kết luận: y=B'
trong đó A, A' là các tập mờ trên không gian P, B và B' là các tập mờ trên không gian Q.
Ví dụ :
Luật mờ: Nếu góc tay quay ga lớn thì xe đi nhanh Sự kiện mờ: Góc tay quay khá lớn
Kết luận: Xe đi khá nhanh
Trong logic rõ Modus Tollen có dạng: Mệnh đề 1 (Luật hoặc tri thức): P → Q Mệnh đề 2 (Sự kiện): ¬Q đúng
Kết luận: ¬P đúng
Luật mờ (hoặc tri thức mờ): P → Q Sự kiện mờ: ¬Q khá đúng
Kết luận: ¬P khá đúng Ví dụ:
Luật mờ: Nếu góc tay quay ga lớn thì xe đi nhanh Sự kiện mờ: Xe không đi nhanh lắm
Kết luận: Góc tay quay không lớn lắm
2.1.6.Hệ suy diễn mờ
Hình 2.5: Mô hình hệ thống suy diễn mờ Bộ mờ hóa: Chuyển các biến giá trị thực thành các biến mờ Cơ sở luật mờ: Là tập hợp các luật mờ
Bộ suy diễn mờ:Sử dụng các luật mờ để tính mức giá trị các luật Giải mờ:Chuyển kết quả mờ thành kết quả đầu ra thực
2.2.Mạng Nơ ron
2.2.1 Khái niệm mạng nơ ron
Mạng nơ ron nhân tạo là một mô phỏng xử lý thông tin, đƣợc nghiên cứu ra từ hệ thống thần kinh của sinh vật, giống nhƣ bộ não để xử lý thông tin. Nó bao gồm số lƣợng lớn các mối gắn kết cấp cao để xử lý các yếu tố làm việc trong mối liên hệ giải quyết vấn đề rõ ràng. Mạng nơ ron nhân tạo giống nhƣ con ngƣời, đƣợc học bởi kinh nghiệm, lƣu những kinh nghiệm hiểu biết và sử dụng trong những tình huống phù hợp. Cơ sở luật mờ Bộ suy diễn mờ Bộ mờ hoá Bộ giải mờ Đầu vào (số) Đầu vào (tập mờ) Tham khảo luật mờ Đầu ra (tập mờ) Đầu ra (số)
Đầu tiên mạng nơ ron nhân tạo đƣợc giới thiệu năm 1943 bởi nhà thần kinh học Warren McCulloch và nhà logic học Walter Pits. Nhƣng với những kỹ thuật trong thời gian này chƣa cho phép họ nghiên cứu đƣợc nhiều. Những năm gần đây mô phỏng mạng nơ ron nhân tạo xuất hiện và phát triển. Các nghiên cứu ứng dụng đã đƣợc thực hiện trong các ngành: điện, điện tử, kỹ thuật chế tạo, y học, quân sự, kinh tế...
2.2.2 Cấu trúc mạng nơ ron
Mỗi nơ ron (nút) là một đơn vị xử lý thông tin của mạng nơ ron, là yếu tố cơ bản để cấu tạo nên mạng nơ ron.
x1 x2 xn ∑ F(.) b yk wk1 wk2 wkn
Hình 2.6: Cầu trúc 1 nơ ron
Trong đó
xi: Các tín hiệu input
wkp: Trọng số của từng input F(.): Hàm hoạt động
yk: Kết xuất của Neural
b: Thông số ảnh hƣởng đến ngƣỡng ra của output
a. Mạng dẫn tiến một lớp
Mạng dẫn tiến một lớp là cấu trúc mạng nơ ron đơn giản nhất.Mạng này chỉ gồm1 lớp xuất, không có lớp ẩn.
Nơ ron Input Nơ ron Nơ ron Nơ ron Output Hình 2.7: Mạng dẫn tiến một lớp b. Mạng dẫn tiến nhiều lớp
Input Hidden layer Output
Hình 2.8: Cấu trúc mạng dẫn tiến nhiều lớp
Mạng nơ ron nhiều lớp có thể giải quyết các bài toán phi tuyến nhờ vào các lớp ẩn. Các lớp ẩn này xen giữa các input bên ngoài và output của mạng. Càng nhiều lớp ẩn thì khả năng mở rộng thông tin càng cao và xử lý tốt mạng có nhiều input và output.
2.2.3 Hàm hoạt động
- Hàm bị chặn trên và chặn dƣới; - Hàm có tính đơn điệu;
- Hàm phải có tính liên tục và trơn;
Trong thực tế thông thƣờng ngƣời ta thƣờng chọn các hàm sau:
a. Hàm Threhold 1 nếu u > 0 f (u) = (2.1) 0 nếu u < 0 b. Hàm piecewwise – linear 1 nếu u > 1/2 f (u) = u nếu 1/2 > u > -1/2 (2.2) 0 nếu u < -1/2 c. Hàm sigmoid (logistic) 𝑓 𝑢 = 1 1+𝑒−𝑢 (2.3) d. Hàm tang- hyperbol 𝑓 𝑢 =𝑡𝑎𝑛 𝑢 = 𝑒𝑢−𝑒−𝑢 𝑒𝑢+𝑒−𝑢 (2.4) 2.2.4.Tiến trình học
Tiến trình học là tiến trình quan trọng của con ngƣời, nhờ học mà bộ não ngày càng tích luỹ những kinh nghiệm để thích nghi với môi trƣờng và xử lý tình huống tốt hơn. Mạng neural xây dựng lại cấu trúc bộ não thì cần phải có khả năng nhận biết dữ liệu thông qua tiến trình học, với các thông số tự do của mạng có thể thay đổi liên tục bởi những thay đổi của môi trƣờng và mạng neural ghi nhớ giá trị đó.
x1 x2 xn w1 w2 wn Input Output Teach/use Hình 2.9: Tiến trình học
Trong quá trình học, giá trị đầu vào đƣợc đƣa vào mạng và theo dòng chảy trong mạng tạo thành giá trị ở đầu ra.
Tiếp đến là quá trình so sánh giá trị tạo ra bởi mạng nơ ron với giá trị ra mong muốn. Nếu hai giá trị này giống nhau thì không thay đổi gì cả. Tuy nhiên, nếu có một sai lệch giữa hai giá trị này vƣợt quá giá trị sai số mong muốn thì đi ngƣợc mạng từ đầu ra về đầu vào để thay đổi một số kết nối.
Đây là một quá trình lặp liên tục và có thể không dừng khi không tìm các giá trị w sao cho đầu ra tạo bởi mạng Neural bằng đúng đầu ra mong muốn. Do đó trong thực tế ngƣời ta phải thiết lập tiêu chuẩn dựa trên một giá trị sai số nào đó của hai giá trị này, hay dựa trên một số lần lặp xác định.
Để tiện cho việc trình bày, ta ký hiệu y là giá trị kết xuất của mạng nơ ron, t là giá trị ra mong muốn, e là sai lệch giữa hai giá trị này:
e = t – y (2.5)
2.2.5 Giải thuật Back – Propagation
Thuật toán Back – Propagation đƣợc sử dụng để điều chỉnh các trọng số kết nối sao cho tổng sai số E nhỏ nhất.
n
E = ∑ (t (xi, w) – y (xi))2 (2.6)
i = 1
Trong đó:
t (xi, w): giá trị của tập mẫu y (xi): giá trị kết xuất của mạng
Trƣớc tiên , ta xét trên 1 nơ ron, mỗi nơ ron đều có giá trị vào và ra, mỗi giá trị đều có một trọng số để đánh giá mức độ ảnh hƣởng của giá trị vào đó. Thuật toán Back – Propagation sẽ điều chỉnh các trọng số đó để giá trị ej = Tj – yj là nhỏ nhất.
Trƣớc hết ta phải xác định vị trí của mỗi nơ ron. Nơ ron nào thuộc lớp ẩn và nơ ron nào thuộc lớp xuất.Ta cần biết các ký hiệu:
uj: vector giá trị kết xuất của neuron trong lớp j x1 x2 xn w1 w2 wn tj ej
Hình 2.10: Mô hình tính toán một nơ ron
- Giá trị sai số của neuron j tại vòng lặp thứ n
ej (n) = tj (n) – yj (n) (2.7) - Tổng bình phƣơng sai số của mạng neural:
E n = 1
2 𝑘𝑗=1𝑒𝑗2(𝑛) (2.8) - Tại neuron j ta có tổng trọng số input:
p
uj (n) = ∑ wij.xj (n) (2.9)
i= 0
- Giá trị kết xuất của neuron j:
yj (n) = fj (uj(n)) (2.10) - Tính toán giá trị đạo hàm sai số cho mỗi neuron wij
∂E(n) ∂wij(n) = ∂E(n) ∂ej(n) ∂ej(n) ∂yj(n) ∂yj(n) ∂uj(n) ∂uj(n) ∂wij(n) (2.11) Trong đó 𝜕𝐸(𝑛) 𝜕𝑒𝑗(𝑛) = 1 2 𝑘𝑗=1𝑒𝑗2(𝑛) 𝜕𝑒𝑗(𝑛) = 𝜕𝑒𝑗(𝑛) (2.12) 𝜕𝑒𝑗(𝑛) 𝜕𝑦𝑗(𝑛) = 𝜕(𝑡𝑗 𝑛 −𝑦𝑗 𝑛 ) 𝜕𝑦𝑗(𝑛) =−1 (2.13) 𝜕𝑦𝑗(𝑛) 𝜕𝑢𝑗(𝑛) = 𝑓𝑗′(𝑢𝑗 𝑛 ) (2.14)
𝜕𝑢𝑗(𝑛) 𝜕𝑤𝑖𝑗(𝑛) =𝜕( 𝑤𝑖𝑗 𝑝 𝑖=0 .𝑥𝑗(𝑛)) 𝜕 𝑤𝑖𝑗(𝑛) = 𝑥𝑗(𝑛) (2.15) Do đó 𝜕𝐸(𝑛) 𝜕𝑤𝑖𝑗(𝑛) =−𝜕𝑒𝑗 𝑛 .𝑓𝑗′(𝑢𝑗 𝑛 .𝑥𝑗(𝑛) (2.16) Giá trị điều chỉnh trọng số: ∆𝑤𝑖𝑗 = −Ƞ 𝜕𝐸 𝑛 𝜕𝑤𝑖𝑗 𝑛 = −Ƞ𝑒𝑗 𝑛 .𝑓𝑗′(𝑢𝑗 𝑛 .𝑥𝑗(𝑛)(2.17) Đặt 𝛿𝑗 =− 𝜕𝐸 𝑛 𝜕𝑤𝑖𝑗 𝑛 = −𝜕𝐸 𝑛 𝜕𝑒𝑗 𝑛 𝜕 𝑒𝑗 𝑛 𝜕𝑦𝑗 𝑛 𝜕𝑦𝑗 𝑛 𝜕𝑢𝑗 𝑛 =𝑒𝑗 𝑛 .𝑓𝑗′(𝑢𝑗 𝑛 (2.18) ∆𝑤𝑖𝑗 = −Ƞ.𝛿𝑗.𝑥𝑗 𝑛 ; (2.19) Từ đó ta có công thức điều chỉnh trọng số: 𝑤𝑖𝑗 𝑛+ 1 =𝑤𝑖𝑗 𝑛 +∆𝑤𝑖𝑗(𝑛) (2.20)
Nhƣ vậy quá trình điều chỉnh trọng số có thể đƣợc xác định theo các công thức trên, tuy nhiên ta cần phải xác định vị trí của neuron thuộc lớp nào (lớp ẩn hay lớp xuất). Điều này rất quan trọng trong việc tính toán cho từng hệ số điều chỉnh trọng số.
2.11 Mô hình tính toán mạng nơron tổng quát
Trƣờng hợp 1: Nếu nơron j là nút xuất