Các hàm truyền là những công thức toán học mà quyết định số đầu ra của một quá trình neuron. Chúng cũng đồng thời nối kết với các chức năng thay đổi, nén lại, kích hoạt hay đổi mới. Điểm chính trong mô hình Neural Network hiện nay sử dụng chức năng hình S, nhưng những cái khác như tiếp tuyến và hồi quy cũng được đưa ra. Mục đích của hàm truyền là để ngăn chặn các biến đầu ra trong việc đặt đến các giá trị lớn mà chúng có thẻ “làm liệt” mô hình và do đó hạn chế huấn luyện.
Hàm truyền tuyến tính không có ích lắm trong các ánh xạ và loại phi tuyến. Levich và Thoma, Kao và Ma nhận ra rằng các thị trường tài chính đều phi tuyến và cũng nhớ đề nghị rằng các hàm truyền phi tuyến thì thích hợp hơn. Các hàm truyền như hình sigma thì thường sử dụng phổ biến hơn cả cho dữ liệu chuỗi thời gian vì chúng cũng phi tuyến và những đặc trưng tiếp diễn có thể là những tính năng ao ước được dùng cho mô hình Neural Network.
Dữ liệu thô thường đều có cùng tỷ lệ và ở giữa 0 – 1 và -1 đến 1, vì thế nó thường nhất quán với loại hàm truyền đang được sử dụng.
Tuyến tính và độ lệch chuẩn là hai trong các phương pháp phổ biến nhất được sử dụng trong hệ thống Neural Network. Trong phương pháp tuyến tính, tât cả các biến đều được đo với số lớn nhất và nhỏ nhất được xác định theo công thức sau:
Với SV là giá trị cần cân, TF là giá trị tương ứng của hàm truyền, D là giá trị của mẫu, là giá trị lớn nhất và nhỏ nhất của mẫu.