Sơ đồ thiết lập co-training cho bài toán hai lớp lúc đầu được A. Blum và T. Mitchell [11] xây dựng như hình dưới:
Hình 11: Sơ đồ thiết lập co-training gốc cho bài toán hai lớp
Lúc đầu hai bộ học cùng sử dụng tập dữ liệu đã được gán nhãn L (hạn chế với số lượng nhỏ) để xây dựng hai bộ học h1 và h2 dựa trên hai khung nhìn dữ liệu X1 và X2. Sau đó hai bộ học này được dùng để gán nhãn các dữ liệu chưa gán nhãn, kết quả “tốt” nhất được bổ sung vào L để dạy lại cho hai bộ học đó. Quá trình lặp tiếp tục và dừng khi đạt tới một số hữu hạn bước nào đó hoặc khi không còn dữ liệu nào chưa gán nhãn, U rỗng.
Cho trước: + L là tập các mẫu huấn luyện đã gán nhãn. + U là tập các mẫu chưa gán nhãn.
Lặp k vòng hoặc tới khi U rỗng:
Sử dụng L huấn luyện bộ phân lớp h1 dựa trên khung nhìn x1 của x.
Sử dụng L huấn luyện bộ phân lớp h2 dựa trên khung nhìn x1 của x.
Sử dụng h1 gán nhãn tập U.
Sử dụng h2 gán nhãn tập U.
Thêm các mẫu mới được gán nhãn có độ tin cậy cao vào tập L.
Sau này khi phát hiện ra rằng, với U lớn thuật toán sẽ rất tốn thời gian chạy, nên trong thực nghiệm phân lớp trang web, Blum và Mitchell đã cải tiến co-training bằng cách sử dụng U‟ thay cho U, với U‟ là tập con lấy ngẫu nhiên đại diện trong U. Hình 12 dưới đây biểu diễn thiết lập co-training cải tiến cho bài toán hai lớp.
Hình 12: Sơ đồ thiết lập co-training cải tiến cho bài toán hai lớp
Trong sơ đồ thiết lập trên, việc sử dụng '
U sẽ tạo ra kết quả tốt hơn vì: Nó bắt buộc hai bộ phân lớp lựa chọn các mẫu có tính đại diện hơn trong tập U, ngoài ra vì U’
chỉ là tập con của U nên thuật toán sẽ giảm bớt được thời gian chạy.