Thuật Giải Di Truyền |

Một phần của tài liệu Trí tuệ nhân tạo lập trình tiến hóa (Trang 153)

M Chương 9: Các Bài Tốn Tối Ưu Tổ Hợp Khác

Thuật Giải Di Truyền |

G1 G2 G3 G4 V BỊ|V B V EỊV B SGA 2.814 1467|0875 345 |1996 1420|0868 2186 GAVaPS()|2831 1708|08/5 970 |1989 1682|0969 2133 GAVaPS(2) |2.841 3040|0.875 1450 |1999 2813|0970 3739 GAVaPS(3)| 2.813 7 15388|0.875 670 |1.9989 1865j0.972 2106

Chiến lược tuyến tính (2) được đặc trưng bằng hiệu quả tốt nhất và (thật khơng may) chi phí cao nhất. Mặt khác, chiến lược song và (thật khơng may) chi phí cao nhất. Mặt khác, chiến lược song tuyến tính (3) thì rẻ nhất, nhưng hiệu quả khơng tốt như tuyến tính. Cuối cùng, chiến lược tỉ lệ (1) cho ta một hiệu quả trưng bình và chỉ phí trung bình. Nên lưu ý rằng, thuật giải GAVaPS với chiến lược

phân phát thời gian sống (1) - (3), trong hầu hết các trường hợp, cho

hiệu quả tốt hơn 8GA. Chi phí cho GAVaPS (so với SGA) cao hơn, tuy nhiên các kết quả của SGA đã được báo cáo về vấn để kích thước tuy nhiên các kết quả của SGA đã được báo cáo về vấn để kích thước tối ưu của quần thể. Thí dụ, nếu kích thước quần thể đối với SGA rút

kinh nghiệm qua các bàm G2 là 75 (thay-vì tối ưu là 15), thì chỉ phí

mơ phỏng SGA sẽ là 1035.

Tri thức về sự chọn lọc các tham số GA cho thích hợp vẫn cịn

rời rạc và cĩ nền tảng thực nghiệm. Trong những tham số này, kích

thước quần thể đường như là tham số quan trọng nhất, vì nĩ ảnh bưởng mạnh mẽ đến chi phí mơ phỏng GA. Cách tốt nhất đối với giá bưởng mạnh mẽ đến chi phí mơ phỏng GA. Cách tốt nhất đối với giá

304

Thuật Giải Di Truyền |

Thuật Giải Di Truyền |

Như đã nĩi trong phần dẫn nhập, các kỹ thuật xử lý ràng buộc của thuật giải di truyền cĩ thể được gom vào một số loại. Một cách của thuật giải di truyền cĩ thể được gom vào một số loại. Một cách để xử lý với các ứng viên vi phạm ràng buộc là phát sinh những lời mà khơng xét đến ràng buộc rồi thưởng phạt chúng bằng cách giảm “độ tốt” của hàm lượng giá. Nĩi cách khác, bài tốn ràng buộc được biến đổi thành khơng ràng buộc, bằng cách thêm thưởng phạt vào tất cả vi phạm ràng buộc; thưởng phạt này được gộp vào lượng giá hàm. Đương nhiên, cĩ nhiễu hàm thưởng phạt khác nhau cĩ thể áp dụng. Một số hàm thưởng phạt gán một hằng số làm mức đo thưởng phạt. Những hàm thưởng phạt khác phụ thuộc vào mức độ vi phạm: vi phạm càng nhiều thì phạt càng nặng, (nhưng, tăng trưởng hàm cĩ thể là logarít, tuyến tính, bình phương, lũy thừa v.v phù hợp với

ràng buộc bị vi phạm).

Phiên bản bổ sung của các thưởng phạt là loại trừ các lời giải khơng-khả thi khỏi quần thể (nghĩa là, áp dụng thưởng phạt nghiêm khơng-khả thi khỏi quần thể (nghĩa là, áp dụng thưởng phạt nghiêm khắc nhất: phạt chết. Kỹ thuật này được dùng thành cơng trong các chiến lược tiến hĩa (chương 8) cho những bài tốn tối ưu số. Nhưng, cách này cĩ một số khuyết điểm. Đối với vài bài tốn xác suất phát sinh (bằng phương tiện của các tốn tử di truyền chuẩn) một lời giải

khả thi khá nhỏ và thuật giải tốn một lượng lớn thời gian đánh giá các cá thể khơng hợp lệ. Hơn nữa, trong cách này, những lời giải

khơng khả thi khơng đĩng gĩp vào vùng lưu trữ gen của các quần

thể.

Một phần của tài liệu Trí tuệ nhân tạo lập trình tiến hóa (Trang 153)

Tải bản đầy đủ (PDF)

(177 trang)