PHƯƠNG PHÁP #

Một phần của tài liệu Trí tuệ nhân tạo lập trình tiến hóa (Trang 67 - 68)

M Chương 6: Xử Lý Ràng Buộc LAI SỐ HỌC

PHƯƠNG PHÁP #

Phương pháp này được doines và Houck để nghị. Trái với

phương pháp trên, các tác giả thực hiện thưởng phạt động. Các cá

thể được lượng giá (tại lần lặp #) theo cơng thức:

m

eoal(x) = ƒ(x)+(ex£)*Š fƒ(x)

J=t

trong đĩ, C, œ và B là những hằng số. Các tác giả chọn C=0.5,dœ= = 9. Phương pháp cần ít tham số hơn nhiều so với phương pháp

trước. Cũng vậy, thay vì định nghĩa nhiều cấp độ vi phạm, áp lực trên những lời giải khơng thỏa mãn tăng lên do (C*L)*ø thành phân

của số hạng thưởng phạt: về cuối tiến trình (khi thế hệ £ lớn), thành phần này chấp nhận các giá trị lớn.

PHƯƠNG PHÁP #3

Phương pháp này do Schoenauer và Xanthakis để nghị; thực hiện như sau:

© Bất đầu với một quần thể ngẫu nhiên các cá thể (thơa mãn

hay vi phạm ràng buộc),

« - Khởi tạo = 1 ( là biến đếm ràng buộc),

« Tiến hĩa quản thể này với eual(œ) = ƒ/J, cho đến khi một tỉ lệ phần trăm cho trước của quần thể (được gọi là ngưỡng lệch

ø) thỏa ràng buộc này,

182

Tối Ưu Số [

® Tăng/:7=j+ 1

« - Quần thể hiện hành là điểm khởi đầu cho giai đoạn kế tiếp

của tiến trình, trong đĩ. euaf() = ƒ, (x). Trong giai đoạn này, những điểm khơng thỏa một trong các rang buộc thứ nhất,

thứ hai, .... hay thứ -7) sẽ bị loại khỏi quần thể. Tiêu chí đừng lần nữa lại là thỏa ràng buộc thứ j theo phẩn tràm ngưỡng lệch @ của quần thể.

«© Nếu/ < m, lặp lại hai bước sau cùng, ngược lại ÿ = m) tối ưu hĩa hàm mục tiêu, nghĩa là, euai(x) = +), loại bổ các cá thể khơng khả thi.

Phương pháp này địi hỏi các ràng buộc cĩ bậc tuyến tính được

xử lý lần lượt. Ta khơng thấy rõ tác động của bậc trong các ràng buộc đối với kết quả của các thuật giải; nhưng kinh nghiệm cho thấy

các bậc khác nhau cung cấp các kết quả khác nhau (khác về ý nghĩa của tổng thời gian chạy và độ chính xác).

Tổng cộng, phương pháp này cần ba tham số: thừa số chia sẻ ơ, ngưỡng lệch $, và bậc cụ thể của các ràng buộc. Phương pháp này khác hai phương pháp trước nhiều, và, nĩi chưng, cũng khác với những phương pháp thưởng phạt khác, vì nĩ chỉ xét mỗi lần một

ràng buộc. Cũng vậy, ở bước cuối cùng của thuật giải, phương pháp

này tối ưu hĩa hàm mục tiêu ƒ mà khơng cĩ thành phần thưởng phạt

Trao.

PHƯƠNG PHÁP #4 (adsbygoogle = window.adsbygoogle || []).push({});

GENOCOP HH là phương pháp #4. Như đã nĩi ở trên, đây là

phương pháp duy nhất cĩ phân biệt giữa ràng buộc tuyến tính và ràng buộc phi tuyến. Thuật giải duy trì tính khả thì của tất cả các

ràng buộc tuyến tính bằng một tập các tốn tử đĩng, chuyển một lời

giải thỏa ràng buộc (thỏa theo nghĩa các ràng buộc tuyến tính mà

thơi) thành một lời giải thỏa mãn các ràng buộc khác. Tại mỗi lần

Một phần của tài liệu Trí tuệ nhân tạo lập trình tiến hóa (Trang 67 - 68)