KHOA CÔNG NGHỆ THÔNG TINPHẠM VIỆT TÂN - 523H0093 BÁO CÁO GIỮA KỲ GIẢI TÍCH ỨNG DỤNG CHO CÔNG NGHỆ THÔNG THÀNH PHỐ HỒ CHÍ MINH, NĂM 2023... LỜI CẢM ƠNEm xin chân thành cảm ơn trường Đại h
Trang 1KHOA CÔNG NGHỆ THÔNG TIN
PHẠM VIỆT TÂN - 523H0093
BÁO CÁO GIỮA KỲ GIẢI TÍCH ỨNG DỤNG CHO CÔNG NGHỆ THÔNG THÀNH PHỐ HỒ CHÍ MINH, NĂM 2023
Trang 2KHOA CÔNG NGHỆ THÔNG TIN
Trang 3LỜI CẢM ƠN
Em xin chân thành cảm ơn trường Đại học Tôn Đức Thắng, khoa Công Nghệ Thông tin, bộ môn Thực hành thông tin, thầy Nguyễn Văn Khoa đã tạo cơ hội cho
em được học môn này, giúp em mở mang tri thức
TP Hồ Chí Minh, ngày 17 tháng 12 năm 2023
Tác giả Phạm Việt Tân
Trang 4CÔNG TRÌNH ĐƯỢC HOÀN THÀNH
TẠI TRƯỜNG ĐẠI HỌC TÔN ĐỨC THẮNG
Tôi xin cam đoan đây là công trình nghiên cứu của riêng tôi và được sựhướng dẫn khoa học của TS Nguyễn Văn Khoa Các nội dung nghiên cứu, kếtquả trong đề tài này là trung thực và chưa công bố dưới bất kỳ hình thức nàotrước đây Những số liệu trong các bảng biểu phục vụ cho việc phân tích, nhậnxét, đánh giá được chính tác giả thu thập từ các nguồn khác nhau có ghi rõtrong phần tài liệu tham khảo
Ngoài ra, trong Dự án còn sử dụng một số nhận xét, đánh giá cũng như
số liệu của các tác giả khác, cơ quan tổ chức khác đều có trích dẫn và chú thíchnguồn gốc
Nếu phát hiện có bất kỳ sự gian lận nào tôi xin hoàn toàn chịu trách nhiệm về nội dung Dự án của mình Trường Đại học Tôn Đức Thắng không
liên quan đến những vi phạm tác quyền, bản quyền do tôi gây ra trong quá trìnhthực hiện (nếu có)
TP Hồ Chí Minh, ngày 17 tháng 12 năm 2023
Tác giả Phạm Việt Tân
Trang 5TÓM TẮT
Giúp biết cách tìm giao điểm 2 đồ thi, tìm đường tiếp tuyến của hàm số khiqua tiếp điểm và khi qua 1 diểm bất kì Biết cách vẽ đồ thị hàm số và tiếptuyến trên Python
Trang 6
TITLE ABSTRACT
(Time New Romans – 13)
Trang 7MỤC L
DANH MỤC BẢNG BIỂU
DANH MỤC CÁC CHỮ VIẾT TẮT
CHƯƠNG 1 MỞ ĐẦU VÀ TỔNG QUAN ĐỀ TÀI
1.1 Lý do chọn đề tài
1.2 Mục tiêu thực hiện đề tài
CHƯƠNG 2 CƠ SỞ LÝ THUYẾT
2.1 Mạng neural hồi quy
2.1.1 Recurrent Neural Network (RNN)
2.1.2 Long Short-term Memory (LSTM)
2.2 Mô hình Transformer
2.2.1 Encoder và Decoder1
2.2.2 Attention
CHƯƠNG 3 MÔ HÌNH ĐỀ XUẤT
CHƯƠNG 4 THỰC NGHIỆM
4.1 Dữ liệu thực nghiệm
4.2 Cài đặt thực nghiệm
CHƯƠNG 5 KẾT LUẬN
5.1 Kết luận
5.2 Hướng phát triển
TÀI LIỆU THAM KHẢO
Trang 8DANH MỤC HÌNH VẼ
Hình 2.1: Scaled Dot-Product Attention
Trang 9DANH MỤC BẢNG BIỂU
Bảng 4.1: Thống kê kiểu thực thể trong tập VLSP 2016
Trang 10DANH MỤC CÁC CHỮ VIẾT TẮT
BERT Bidirectional Encoder Representations from
Transformers
Trang 11CHƯƠNG 1 PHƯƠNG PHÁP GIẢI CÁC BÀI TẬP
1.1 Bài 1a
- Bước 1: Tìm giao điểm của f(x) và g(x) bằng cách giải phương trình hoành giao điểm của f(x) và g(x) Giải phương trình f(x)=g(x).Sau khi tìm ra 2 nghiệm x ta thế vào phương trình f(x) ta được y sau đó ta được 2 giao điểm
- Bước 2: Sau khi có 2 giao điểm ta tiến hành vẽ đồ thị
- Bước 3: Thay x0 vừa tìm được vào f(x0) ta được 2 tiếp điểm
- Bước 4: Từ 2 tiếp điểm ta lập 2 phương trình tiếp tuyến với công thức y=f’(x0)(x-x0)+y0 Sau đó lập phương trình hoành độ giao điểm 2 tiếp tuyến
ta tìm được giao điểm của chúng
Trang 12CHƯƠNG 2 MÃ NGUỒN VÀ KẾT QUẢ ĐẦU RA
Trang 14
2.2.2 Bài 1b
a Mã nguồn
Trang 172.2.3 Bài 1c
a Mã Nguồn
Trang 18b Giải thích
b.1
b.2
Trang 24Sách giáo khoa Toán 12