Eoal{x)=ƒ(x)+rÐ fj(x)+Ä (t.x) z

Một phần của tài liệu Lập trình tiến hóa trí tuệ nhân tạo (Trang 68 - 69)

M Chương 6: Xử Lý Ràng Buộc LAI SỐ HỌC

eoal{x)=ƒ(x)+rÐ fj(x)+Ä (t.x) z

z1

trong đĩ, r là hằng số; nhưng cũng cĩ một thành phần 2 Œ, z). Đây là lần lặp bổ sung phụ thuộc hàm cĩ ảnh hưởng đến việc lượng giá những lời giải khơng thỏa mãn. Vấn để là phương pháp phân biệt các cá thể thỏa với các cá thể khơng thỏa ràng buộc theo một

heuristie bổ sung: đối với một cá thể thĩa mãn + bất kỳ và một cá

thể khơng thỏa mãn y bất kỳ, e0al(%) < eudl(y), nghĩa là lời giải thỏa ràng buộc tốt hơn lời giải khơng thỏa. Cĩ thể đạt được điều này bằng nhiễu cách; một khá năng là thiết lập:

0, xef

- m

^- Œ,#) =Ý max|0,max„.g{f(xJ|{ min „gIrỒf,(z)ll, xe F

z1

134

Tối Ưu Số 8

trong đĩ, F biểu thị phần khả thi của khơng gian tìm kiếm. Nĩi cách

khác, các cá. thể khơng thỏa mãn bị phạt: các giá trị của chúng

khơng thể tốt hơn giá trị của cá thế thỏa mãn xấu nhất (nghĩa là:

max ,„„ {ƒ(x)} ).

PHƯƠNG PHÁP #6

Phương pháp cuối cùng loại bỏ những cá thế khơng thỏa mãn

(phạt chết); phương pháp đã được dùng trong phương pháp chiến

lược tiến hĩa (xem phụ lục 2), chương trình tiến hĩa giải bài tốn tối ưu hĩa số, và mơ phỏng luyện thép.

6.4. Các khả năng khác

: Như đã trình bày, nhiều nhà nghiên cứu đã nghiên các heuristic khi thiết kế các hàm thưởng phạt. Một số giả thiết đã được hình

thức hố như sau: Ỷ -

® Thưởng phạt là các hàm tính khoảng cách thỏa mãn ràng buộc sẽ thực hiện tốt hơn các thưởng phạt chỉ đơn

thuần là các hàm tính số ràng buộc bị vi phạm.

« _ Đối với những bài tốn ít ràng buộc, và ít lời giải đây đủ,

nếu thưởng phạt chỉ đơn thuần là các hàm tính số ràng

buộc bị xâm phạm sẽ khĩ tìm được lời giải,

e Hàm thưởng phạt tốt cĩ thể được xây dựng từ hai đại

lượng, chỉ phí hồn thành cực đạt và chí phí hồn thành ước tính.

© Thưởng phạt cẩn sát với chỉ phí hồn thành ước tính,

nhưng thường khơng nên nhỏ hơn. Thưởng phạt càng chính xác thì lời giải tìm được càng tốt. Khi sự thưởng

phạt lượng giá chi phí hồn thành thường xuyên thấp

hơn, thì việc tìm kiếm lời giải thất bại.

Chương 6 : Xử Lý Ràng Buộc

Hoặc heuristic khác:

© Thuật giải di truyền cĩ hệ số thưởng phạt thay đổi được sẽ thành cơng hơn thuật giải cĩ nhân tố thưởng phạt cố

định,

Ở đây, sự biến đổi của hệ số thưởng phạt được quyết định theo

heuristic.

Quan sát cuối cùng này được Smith và Tate nghiên cứu sâu hơn. Họ đã thử nghiệm với các thưởng phạt động mà phép đo thưởng phạt phụ thuộc số ràng buộc bị xâm phạm, hàm mục tiêu khá thi tốt.

nhất tìm được cũng như giá trị tốt nhất của hàm này.

Cũng vậy, một phương pháp áp dụng thưởng phạt thích nghỉ được Bean và Hadj—Alouane để nghị. Nĩ dùng một hàm thưởng phạt,

một thành phẩn của hàm thưởng phạt nhận một hồi tác từ tiến trình tìm kiếm. Mỗi cá thể được lượng giá bằng cơng thức:

Một phần của tài liệu Lập trình tiến hóa trí tuệ nhân tạo (Trang 68 - 69)