Mạng ANN có hai trạng thái làm việc: trạng thái ánh xạ (lan truyền) và trạng thái học (luyện). Ở trạng thái ánh xạ, thông tin lan truyền từ lớp nhập đến lớp xuất và mạng thực hiện ánh xạ để tính đƣợc các biến phụ thuộc theo trình tự: trƣớc tiên, các neural nhập nhận các giá trị biến độc lập đƣợc đƣa vào, mỗi neural nhập chuyển giá trị nó nhận đƣợc cho tất cả các neural ẩn của lớp ẩn. Mỗi neural ẩn tính tổng trọng số của tất cả các dữ liệu nhập. Sau đó một hàm truyền đƣợc áp dụng lên tổng trọng số để nén chúng vào một miền giới hạn của hàm truyền (mỗi loại hàm truyền sẽ có miền giới hạn khác nhau). Mỗi neural ẩn này lại chuyển kết quả của mình đến các neural ở lớp kế tiếp…cho đến các neural lớp xuất. Mỗi nút xuất thực hiện các thao tác tƣơng tự nhƣ đã thực hiện trong nút ẩn để cho ra giá trị kết xuất của nút xuất - là giá trị của các biến phụ thuộc cần xác định. Ở trạng thái học: mạng thực hiện lặp đi lặp lại nhiều lần hai tiến trình chính: ánh xạ và lan truyền ngƣợc sai số. Quá trình luyện mạng đƣợc bắt đầu với các giá trị trọng số tùy ý và tiến hành lặp đi lặp lại. Mỗi lần lặp đƣợc gọi là một thế hệ (epoch). Trong mỗi thế hệ, mạng hiệu
chỉnh các trọng số sao cho sai số (độ lệch giữa các kết xuất và giá trị đích) giảm dần. Tiến trình điều chỉnh nhiều lần giúp cho trọng số dần dần đạt đƣợc tập giá trị tối ƣu. Để cập nhật trọng số trong mỗi thế hệ luyện, mạng phải xử lý tất cả các mẫu trong tập mẫu. Đầu tiên mạng thực hiện phép toán lan truyền tiến, nghĩa là mạng thực hiện ánh xạ các biến nhập của mẫu hiện hình thành các giá trị xuất. Sau đó, xác xuất đƣợc tính dựa trên sai số của kết xuất và giá
trị đích. Trên cơ sở sai số tính tốn, mạng sẽ cập nhật lại bộ trọng số theo nguyên tắc lan truyền ngƣợc sai số - gọi là giai đoạn lan truyền ngược (back
propagation) [66].
Kỹ thuật cơ bản trong lan truyền ngƣợc là cập nhật bộ trọng số theo hƣớng giảm gradient lỗi. Ví dụ, khi áp dụng trong QSAR, trƣớc hết mạng tính các kết xuất hoạt tính ai theo các dữ liệu nhập (các thông số cấu trúc) từ các trọng số đã khởi tạo ban đầu. Sau đó tính gradient gi, cuối cùng chỉnh sửa các trọng số wi+1 cho vòng lặp kế tiếp theo gradient gi và tốc độ luyện hiện tại: wi+1 = wi+αigi (wi là trọng số hiện tại). Quá trình này đƣợc thực hiện lặp đi lặp lại nhiều lần cho đến khi đạt đƣợc điều kiện ngừng luyện đƣợc trình bày trong Hình 1.8.