Batch SOM
Batch SOM là một biến thể của SOM nhƣng có tốc độ nhanh hơn kể và có ít tham số điều chỉnh hơn.
Mặc dù thuật toán là khác nhau nhƣng về mặt kiến trúc của bản đồ thì lại tƣơng tự nhau. Bản đồ phụ gồm có đơnvị bản đồ (map unit) đƣợc sắp xếp có thứ tự trên lƣới. Thông thƣờng lƣới này có hình chữ nhật và 2 chiều và đƣợc dung để mô tả hình hóa dữ liệu.
Tree- structured SOM
Tree - Structured SOM là một phiên bản đặc biệt nhanh của SOM. Nó gồm tập các lớp (Layer), mỗi lớp là một mức lƣợng tử hoàn chỉnh của không gian dữ liệu. Sự khác biệt giữa các lớp là ở số lƣợng các mẫu tăng theo hàm mũ tƣơng tự nhƣ cây phát triển hƣớng xuống. Ví dụ, lớp đầu tiên chỉ có 4 vector mẫu, lớp thứ 2 là 16, lớp thứ 3 là 64…. Nhƣ vậy mỗi vector mẫu của một lớp có bốn lớp con trong lớp kế tiếp. Các lớp trên cùng đƣợc sử dụng trong việc huấn luyện lớp đi sau: Thay vì so sánh vector dữ liệu nhận đƣợc với tất cả các vector mẫu, giả sử của lớp 3, đầu tiên nó so sánh với cá mẫu có trong lớp thứ nhất, sau đó so sánh tiếp với các lớp con của lớp chiến thắng thứ nhất và các lân cận của lớp này, và cứ thế tiếp tục. Các kết quả tính toán số khoảng cách thì giảm một cách đáng kể, đặc biệt là trên các lớp thấp hơn. Ngoài ra, các lớp đƣợc thêm vào theo từng lớp vì vậy bản đồ dữ liệu sẽ đƣợc chi tiết dần lên.
MST-SOM
Trong mô hình MST-SOM, các mối quan hệ lân cận đƣợc xác định bằng cách dung cây cân bằng tối thiểu (MST – Minimal Spanning Tree). MST định nghĩa một cách gắn gọn nhất có thể đƣợc tập liên kết của tập vector. Trong vector lƣợng tử hóa, MST-SOM nhanh và ổn định hơn SOM cơ bản. Hay nói cách khác, vị trí các mẫu trên
Số hóa bởi Trung tâm Học liệu – Đại học Thái Nguyên http://www.lrc-tnu.edu.vn
một lƣới có số chiều thấp là không đƣợc hoàn toàn xác định, vì vậy việc mô tả cũng sẽ khó khăn hơn.
Neural Gass
Neural Gass cũng là một biến thể khác của SOM với các lân cận đƣợc xác định trong suốt quá trình huấn luyện. Các lân cận đƣợc xác định theo vị trí thứ tự của khoảng cách các vector mẫu từ tập huấn luyện giải thiết.
Growing Cell Structures
Trong thuật toán Growing Cell Structures, khả năng thích nghi đã đƣợc thực hiện từng bƣớc sâu hơn. Thay cho việc phải có một số lƣợng cố định các vector mẫu, thuật toán chỉ bắt đầu với 2 và sau đó thêm vào các vector mẫu tùy thuộc vào tiêu chuẩn hàm báo lỗi. Các lân cận đƣợc xác định tại thời điểm một mẫu mới đƣợc thêm vào mạng và các vector mẫu cũng đƣợc xóa đi.
Các giải thuật Parallel SOM
Huấn luyện mạng neural theo mô hình song song hoặc thực hiện việc phân chia mạng theo số bộ xử lý (network portioning) hoặc thực hiện theo hƣớng phân chia dữ liệu đi qua bộ xử lý (data portioning). Trong mô hình network portioning mỗi bộ xử lý, hoặc mỗi tác vụ song song phải xử lý tất cả các bản ghi huấn luyện xử dụng phần mạng neural đƣợc gắt kết tƣơng ứng với nó. Trong mô hình data portioning, mỗi bộ xử lý là một bản sao đầy đủ của mạng chỉ sử dụng các bản ghi đƣợc gửi đến cho nó.