Sử dụng chip khớp thần kinh 16x16 đơn giản, số lƣợng chíp khớp thần kinh thì giảm xuống, kết nối với nhau (khi hệ thống hoạt động trong chế độ lan truyền ngƣợc) nhƣ chỉ ra trong hình 2.21 (chip khớp thần kinh thì đƣợc rút ra có kiến trúc nhƣ hình 1 để cho thuận tiện) [5,11]. Bốn đƣờng truyền tín hiệu đầu vào và bốn đƣờng truyền tính hiệu đâu ra trong mỗi ma trận của các khớp thần kinh thì đƣợc điều khiển bởi điện áp DC, đặt bốn hàng và bốn cột trong mỗi lớp cho ngƣỡng noron (chỉ trong chế độ truyền thẳng) và thiết bị bù độ lệch nhƣ đã nêu trong hình.
Trƣớc khi học, các đầu ra mạch nhân ma trận vector thì đƣợc đo lƣờng (trong cả hai chế độ truyền thẳng và đảo chiều) và các thiế bị bù độ lệch khớp thần kinh bền thì đƣợc điều chỉnh để giảm thiểu các bộ bù tới mức nhỏ nhất (tức là trên slksvà elks).
Hình 3.21: Cấu trúc ANN lan truyền ngược.
Nhƣ bộ nhớ lƣu trữ khớp thần kinh bền chúng tôi sử dụng một RAM 16 bit. Một số tác giả đã giải quyết các vấn đề rời rạc trọng số trong ANNs. Độ phân giải bít cho một hệ thống học phù hợp với hầu hết các báo cáo mô phỏng. Sau quá trình học, độ phân giả trọng số cần thiết thì thấp – bởi vì nó thƣờng là các đại lƣợng trọng số tƣơng đối chứ không phải là giá trị trọng số chính xác để xác định các trạng thái của hệ thống; tuy nhiên, trong quá trình học thay đổi trọng số nhỏ cần đƣợc tích trữ. Khi làm mới các khớp thần kinh bền trên chíp khớp thần kinh từ RAM, chúng tôi sử dụng một DAC 12 bit. Thực tế việc rời rạc trọng số ANN là giảm tới 12bit; tuy nhiên, chúng tôi vẫn có thể tích lũy thay đổi trọng số nhỏ nhƣ khi sử dụng một bộ rời rạc 16 bit. Trên thực thế, việc thực hiện ANN khi sử dụng chƣơng trình này sẽ là tốt hơn của hệ thống mà ở đó rời rạc trọng số thì đƣợc giảm từ 16 tới 12 bit sau khi học: chúng tôi huấn luyện trên mạng thực tế cuối cùng hơn là trên một mạng trung gian với độ phân giải trọng số caọ