Mô-đun NAR chịu trách nhiệm cung cấp các đề xuất tin tức cho các phiên hoạt động. Do mức độ thưa thớt của người dùng và sự thay đổi sở thích liên tục của họ, mô hình này chỉ sử dụng thông tin theo ngữ cảnh dựa trên phiên hoạt động, bỏ qua các phiên hoạt động trong quá khứ của người dùng.
Các đầu vào cho mô-đun NAR là: (1) Biểu diễn nội dung bài viết đã được huấn luyện trước của bài viết vừa được xem bởi người dùng; (2) các thuộc tính theo ngữ cảnh của bài viết (mức độ phổ biến và những lần truy cập gần đây); và (3) bối cảnh của người dùng (ví dụ: thời gian, địa điểm và thiết bị truy cập). Các đầu vào này được kết hợp bởi các lớp nơ-ron được kết nối đầy đủ để tạo ra một biểu diễn bài viết theo ngữ cảnh được cá nhân hóa bởi người dùng (User-Personalized Contextual Article Embedding). Có thể có các cách biểu diễn khác nhau cho cùng một bài viết, tùy thuộc vào bối cảnh người dùng và bối
Mô-đun NAR sử dụng một loại mô hình RNN – Long-Short Term Memory (LSTM) - để mô hình hóa chuỗi bài viết mà người dùng đọc trong các phiên của họ, được thể hiện bằng các biểu diễn bài viết theo ngữ cảnh được cá nhân hóa của họ. Đối với mỗi bài viết trong chuỗi, RNN đưa ra một biểu diễn bài viết theo ngữ cảnh – biểu diễn của một nội dung tin tức mà được dự đoán sẽ được đọc tiếp theo bởi người dùng trong phiên hoạt động.
Trong hầu hết các kiến trúc học tập sâu được đề xuất cho hệ gợi ý, mạng nơ-ron sẽ có đầu ra là một vectơ có số chiều là số lượng vật phẩm (item) có sẵn. Cách tiếp cận như vậy là hiệu quả đối với các lĩnh vực mà số vật phẩm là ổn định, như phim và sách. Mặc dù, trong hoàn cảnh thay đổi liên tục của các hệ khuyến nghị tin tức, hàng ngàn trong số các bài viết được thêm vào và loại bỏ hàng ngày, cách tiếp cận như vậy có thể yêu cầu huấn luyện lại toàn bộ mạng nơ-ron, một cách thường xuyên ngay khi các bài viết mới được xuất bản.
Vì lý do này, thay vì sử dụng hàm mất mát là softmax cross entropy, mô-đun NAR được huấn luyện để tối đa hóa sự tương đồng giữa biểu diễn bài viết theo ngữ cảnh được dự đoán và biểu diễn bài viết theo ngữ cảnh tương ứng với bài viết tiếp theo mà người dùng thực sự đọc trong phiên của mình (positive sample), trong khi giảm thiểu sự tương đồng của nó với các negative samples (các bài viết không được người dùng đọc trong phiên). Với chiến lược này, một bài viết mới được xuất bản có thể được đề xuất ngay lập tức, ngay khi biểu diễn ngữ cảnh theo nội dung của nó (Article Content Embeddings) được huấn luyện và thêm vào kho lưu trữ.