Tài liệu tham khảo |
Loại |
Chi tiết |
[1] T. t. n. tạo, "Word embedding là gì? Tại sao nó quan trọng?," 02 04 2019. [Online]. Available: https://trituenhantao.io/kien-thuc/word-embedding-la-gi-tai-sao-no-quan-trong/ |
Sách, tạp chí |
Tiêu đề: |
Word embedding là gì? Tại sao nó quan trọng |
Tác giả: |
T. t. n. tạo |
Năm: |
2019 |
|
[2] huggingface, "huggingface," huggingface, [Online]. Available: https://huggingface.co/learn/nlp-course/chapter1/4?fw=pt. [Accessed 15 06 2023] |
Sách, tạp chí |
Tiêu đề: |
huggingface |
Tác giả: |
huggingface |
|
[3] N. D. Thien, "viblo.asia," viblo.asia, 13 07 2021. [Online]. Available: https://viblo.asia/p/xay-dung-mo-hinh-transformer-co-ban-dich-tieng-nhat-sang-tieng-viet-m68Z0oPNKkG. [Accessed 15 06 2023] |
Sách, tạp chí |
Tiêu đề: |
viblo.asia |
Tác giả: |
N. D. Thien |
Nhà XB: |
viblo.asia |
Năm: |
2021 |
|
[4] N. P. J. U. L. J. Noam Shazeer∗, "Attention Is All You Need," USA, 2017 |
Sách, tạp chí |
Tiêu đề: |
Attention Is All You Need |
Tác giả: |
N. P. J. U. L. J. Noam Shazeer |
Nhà XB: |
USA |
Năm: |
2017 |
|
[5] Q. Pham, 20 03 2020. [Online]. Available: https://pbcquoc.github.io/transformer/. [Accessed 15 06 2023] |
Sách, tạp chí |
Tiêu đề: |
Tìm hiểu mô hình Transformer - Ngươi Không Phải Là Anh Hùng, Ngươi Là Quái Vật Nhiều Đầu |
Tác giả: |
Q. Pham |
Năm: |
2020 |
|
[6] "kikaben.com," 13 12 2021. [Online]. Available: https://kikaben.com/transformers-encoder-decoder/. [Accessed 15 06 2023] |
Sách, tạp chí |
Tiêu đề: |
kikaben.com |
Năm: |
2021 |
|
[7] "kikaben.com," 15 11 2021. [Online]. Available: https://kikaben.com/transformers-self-attention/. [Accessed 15 06 2023] |
Sách, tạp chí |
Tiêu đề: |
kikaben.com |
Năm: |
2021 |
|
[8] T. t. n. tạo, 13 03 2021. [Online]. Available: https://trituenhantao.io/tin-tuc/minh-hoa-transformer/. [Accessed 15 06 2023] |
Sách, tạp chí |
Tiêu đề: |
Minh họa Transformer |
Tác giả: |
T. t. n. tạo |
Năm: |
2021 |
|
[9] J. D. M.-W. C. K. L. K. Toutanova, "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding," 2019 |
Sách, tạp chí |
Tiêu đề: |
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding |
Tác giả: |
J. D. M.-W. C. K. L. K. Toutanova |
Năm: |
2019 |
|
[10] Y. L. a. M. Lapata, "Text Summarization with Pretrained Encoders," 2019 |
Sách, tạp chí |
Tiêu đề: |
Text Summarization with Pretrained Encoders |
Tác giả: |
Y. L., M. Lapata |
Năm: |
2019 |
|
[11] huggingface, "https://huggingface.co/docs/transformers/model_doc/mobilebert," [Online]. Available:https://huggingface.co/docs/transformers/model_doc/mobilebert. [Accessed 9 7 2023] |
Sách, tạp chí |
Tiêu đề: |
mobilebert |
Tác giả: |
huggingface |
|
[12] T. Z. e. al, "BERTSCORE: EVALUATING TEXT GENERATION WITH BERT," 2020 |
Sách, tạp chí |
Tiêu đề: |
BERTSCORE: EVALUATING TEXT GENERATION WITH BERT |
Tác giả: |
T. Z. e. al |
Năm: |
2020 |
|
[13] P. H. Quang, 19 07 2020. [Online]. Available: https://viblo.asia/p/bert-roberta-phobert-bertweet-ung-dung-state-of-the-art-pre-trained-model-cho-bai-toan-phan-loai-van-ban-4P856PEWZY3. [Accessed 15 06 2023] |
Sách, tạp chí |
Tiêu đề: |
BERT, RoBERTa, PhoBERT, BERTweet: Ứng dụng state-of-the-art pre-trained model cho bài toán phân loại văn bản |
Tác giả: |
P. H. Quang |
Năm: |
2020 |
|