Eoal{x)=ƒ(x)+rÐ fj(x)+Ä (t.x) z

Một phần của tài liệu Trí tuệ nhân tạo lập trình tiến hóa (Trang 68 - 69)

M Chương 6: Xử Lý Ràng Buộc LAI SỐ HỌC

eoal{x)=ƒ(x)+rÐ fj(x)+Ä (t.x) z

z1

trong đĩ, r là hằng số; nhưng cũng cĩ một thành phần 2 Œ, z). Đây là lần lặp bổ sung phụ thuộc hàm cĩ ảnh hưởng đến việc lượng giá những lời giải khơng thỏa mãn. Vấn để là phương pháp phân biệt các cá thể thỏa với các cá thể khơng thỏa ràng buộc theo một heuristie bổ sung: đối với một cá thể thĩa mãn + bất kỳ và một cá thể khơng thỏa mãn y bất kỳ, e0al(%) < eudl(y), nghĩa là lời giải thỏa ràng buộc tốt hơn lời giải khơng thỏa. Cĩ thể đạt được điều này bằng nhiễu cách; một khá năng là thiết lập:

0, xef

- m

^- Œ,#) =Ý max|0,max„.g{f(xJ|{ min „gIrỒf,(z)ll, xe F

z1

134

Tối Ưu Số 8

trong đĩ, F biểu thị phần khả thi của khơng gian tìm kiếm. Nĩi cách khác, các cá. thể khơng thỏa mãn bị phạt: các giá trị của chúng khơng thể tốt hơn giá trị của cá thế thỏa mãn xấu nhất (nghĩa là:

max ,„„ {ƒ(x)} ).

PHƯƠNG PHÁP #6

Phương pháp cuối cùng loại bỏ những cá thế khơng thỏa mãn (phạt chết); phương pháp đã được dùng trong phương pháp chiến lược tiến hĩa (xem phụ lục 2), chương trình tiến hĩa giải bài tốn tối ưu hĩa số, và mơ phỏng luyện thép.

6.4. Các khả năng khác

: Như đã trình bày, nhiều nhà nghiên cứu đã nghiên các heuristic khi thiết kế các hàm thưởng phạt. Một số giả thiết đã được hình

thức hố như sau: Ỷ -

® Thưởng phạt là các hàm tính khoảng cách thỏa mãn ràng buộc sẽ thực hiện tốt hơn các thưởng phạt chỉ đơn thuần là các hàm tính số ràng buộc bị vi phạm.

« _ Đối với những bài tốn ít ràng buộc, và ít lời giải đây đủ,

nếu thưởng phạt chỉ đơn thuần là các hàm tính số ràng buộc bị xâm phạm sẽ khĩ tìm được lời giải,

e Hàm thưởng phạt tốt cĩ thể được xây dựng từ hai đại lượng, chỉ phí hồn thành cực đạt và chí phí hồn thành ước tính.

© Thưởng phạt cẩn sát với chỉ phí hồn thành ước tính, nhưng thường khơng nên nhỏ hơn. Thưởng phạt càng chính xác thì lời giải tìm được càng tốt. Khi sự thưởng phạt lượng giá chi phí hồn thành thường xuyên thấp hơn, thì việc tìm kiếm lời giải thất bại.

Chương 6 : Xử Lý Ràng Buộc

Hoặc heuristic khác:

© Thuật giải di truyền cĩ hệ số thưởng phạt thay đổi được sẽ thành cơng hơn thuật giải cĩ nhân tố thưởng phạt cố định,

Ở đây, sự biến đổi của hệ số thưởng phạt được quyết định theo heuristic.

Quan sát cuối cùng này được Smith và Tate nghiên cứu sâu hơn. Họ đã thử nghiệm với các thưởng phạt động mà phép đo thưởng phạt phụ thuộc số ràng buộc bị xâm phạm, hàm mục tiêu khá thi tốt. nhất tìm được cũng như giá trị tốt nhất của hàm này.

Cũng vậy, một phương pháp áp dụng thưởng phạt thích nghỉ được Bean và Hadj—Alouane để nghị. Nĩ dùng một hàm thưởng phạt, một thành phẩn của hàm thưởng phạt nhận một hồi tác từ tiến trình tìm kiếm. Mỗi cá thể được lượng giá bằng cơng thức:

Một phần của tài liệu Trí tuệ nhân tạo lập trình tiến hóa (Trang 68 - 69)