Hàm thích nghi định nghĩa tiêu chuẩn để xếp hạng các giả thuyết tiềm ẩn và để chọn lọc chúng theo xác suất để đưa vào quần thể thế hệ kế tiếp. Nếu tác vụ là học các luật phân loại, thì hàm thích nghi thông thường có một thành phần cho điểm độ chính xác phân loại của luật trên tập mẫu huấn luyện được cho. Thường các tiêu chuẩn khác có thể được bao hàm, chẳng hạn như độ phức tạp và mức độ tổng quát của luật. Một cách tổng quát hơn, khi giả thuyết chuỗi bit được hiểu như là một thủ tục phức tạp (ví dụ, khi chuỗi bit thể hiện tập chọn lọc, các luật if-then sẽ được móc xích với nhau, để điều khiển thiết bị robot), hàm thích nghi có thể đo hiệu suất tổng của thủ tục kết quả hơn là hiệu suất của các luật riêng biệt.
Trong thuật giải GA mẫu được chỉ trong giải thuật, xác suất để một giả thuyết được chọn được cho bởi tỉ số của độ thích nghi của nó với độ thích nghi của các thành viên khác của quần thể hiện tại, như đã thấy trong phương trình tính giá trị thích nghi.
Phương pháp này thỉnh thoảng thường được gọi là sự chọn lọc tỉ lệ độ thích nghi, hoặc sự chọn lọc vòng roulette. Các phương pháp khác dùng độ thích nghi để chọn lọc các giả thuyết cũng sẽ được đề xuất. Ví dụ, sự chọn lọc kiểu vòng thi đấu, hai giả thuyết đầu tiên được chọn ngẫu nhiên từ quần thể hiện tại. Với một vài xác suất p được định nghĩa trước hai cá thể này càng phù hợp càng được chọn và với xác suất (1 – p) giả thuyết càng ít phù hợp càng được chọn. Sự chọn lọc theo vòng thi đấu thường tạo ra quần thể khác nhau nhiều hơn so với sự chọn lọc tỉ lệ với độ thích nghi (Goldberg và Deb 1991). Trong phương pháp sự chọn lọc theo hạng, các giả thuyết trong quần thể hiện tại đầu tiên sẽ được sắp xếp theo độ thích nghi. Xác suất để giả thuyết sẽ được chọn tỉ lệ với hạng của nó trong danh sách đã sắp xếp hơn là độ thích nghi của nó.
Kết luận chƣơng
Trong chương này chúng tôi tìm hiểu về giải thuật di truyền, giải thuật di truyền là giải thuật tìm kiếm hiệu quả trong việc tìm kiếm mù. Mục đích của chúng tôi là sử dụng nó để tìm ra các bộ tham số thực tốt nhất cho các Kernel của bộ phân lớp với SVM từ đó nâng cao hiệu quả của bài toán đa phân lớp với SVM.
Chƣơng 3 - MÔ HÌNH TỐI ƢU ĐA PHÂN LỚP SVM
Trong hai chương trước tôi đã giới thiệu về một thuật toán SVM phân lớp dữ liệu mới và các kĩ thuật đa phân lớp vào phân lớp dữ liệu.
Đối với SVM chúng ta thường áp dụng các hàm nhân để phân lớp dữ liệu, việc phân lớp dữ liệu có kết quả tốt hay xấu phụ thuộc lớp vào hàm nhân – cụ thể là các tham số của hàm nhân đó. Việc tìm được hàm nhân tốt, các tham số phù hợp thuộc trường số thực là hết sức cần thiết, chúng ta sẽ không biết tham số nào là thích hợp nếu không thử nhiều trường hợp trong một biên độ rộng. Bởi vậy, tôi xin đề xuất việc “lựa chọn” các tham số này bằng thuật toán Gas để tìm được tham số tối ưu cho đa phân lớp dữ liệu với SVM