Mặc dù đã đạt được các kết quả theo mục tiêu đề ra của luận án, do hạn chế về thời gian và khuơn khổ nội dung, luận án vẫn tồn tại một số điểm hạn chế:
- Việc thử nghiệm đánh giá chỉ dựa trên một số ít bộ số liệu được cơng
bố nên các thử nghiệm đánh giá chưa được đa dạng với nhiều miền dữ liệu khác nhau. Chất lượng giĩng hàng từ được đánh giá thơng qua điểm BLEU của hệ thống dịch máy mà chưa cĩ thử nghiệm đánh giá bằng các độ đo về chất lượng giĩng hàng từ như AER, precision, recall, F-measure nên chưa chỉ rõ được chất lượng giĩng hàng từ thay đổi như thế nào sau khi áp dụng các phương pháp chia nhỏ từ và cải tiến thuật tốn giĩng hàng.
- Dịch ngược sử dụng ngơn ngữ trung gian địi hỏi phải cĩ ngữ liệu huấn luyện đủ lớn để huấn luyện mơ hình dịch hoặc phải cĩ mơ hình huấn luyện sẵn chất lượng tốt, trong nghiên cứu sử dụng mơ hình dịch máy nơ-ron cho cặp
ngơn ngữ Anh - Đức - Anh, điều này tăng thời gian tăng thời gian huấn luyện mơ hình dịch máy thống kê.
Để khắc phục các tồn tại nêu trên, NCS đề xuất một số hướng nghiên cứu tiếp theo của luận án như sau:
1. Nghiên cứu, áp dụng kết hợp hai phương pháp đã đề xuất để nâng
cao chất lượng hệ thống dịch máy thống kê, bên cạnh đĩ, tiếp tục nghiên cứu cải tiến các thành phần khác trong hệ thống dịch máy thống kê như mơ hình ngơn ngữ.
2. Phương pháp chia nhỏ từ cĩ sẵn được xây dựng để áp dụng cho dịch
máy nơ-ron, trong luận án đã sử dụng cho dịch máy thống kê, tuy nhiên cần nghiên cứu đề xuất phương pháp chia nhỏ từ phù hợp với kiến trúc và đặc điểm của dịch máy thống kê.
3. Nghiên cứu, đề xuất áp dụng các phương pháp đã sử dụng trong luận
án vào dịch máy nơ-ron để cĩ thể xây dựng hệ thống dịch máy tốt cho cả hai chiều Việt - Anh và Anh - Việt.
DANH MỤC CÁC CƠNG TRÌNH KHOA HỌC ĐÃ CƠNG BỐ
[CT1]. “Automatic Detection of Problematic Rules in Vietnamese Treebank”. RIVF-2015.
[CT2]. “The JAIST-UET-MITI Machine Translation Systems for IWSLT 2015”. IWSLT-2015.
[CT3]. “Phương pháp tăng cường dữ liệu huấn luyện dịch máy thống kê cặp ngơn ngữ Việt - Anh bằng kỹ thuật back - translation và lựa chọn thích nghi”. Tạp chí nghiên cứu khoa học và cơng nghệ quân sự số đặc san
tháng 12-2020.
[CT4]. “Cải tiến mơ hình giĩng hàng trong dịch máy thống kê cặp ngơn ngữ Việt - Anh với kỹ thuật chia nhỏ từ”. Tạp chí nghiên cứu khoa học và cơng nghệ quân sự số 74 tháng 8-2021.
TÀI LIỆU THAM KHẢO Tiếng Anh
1.Al-Onaizan Y, Curin J, Jahr M, Knight K, Lafferty J, Melamed D, et
al. (1999). Statistical machine translation: Final report. JHU Workshop.
2.Axelrod A, Elgohary A, Martindale M, Nguyen K, Niu X, Vyas Y, et
al. (2015). The UMD Machine Translation Systems at IWSLT 2015. Proc
IWSLT.
3.Ayan NF (2005). Combining linguistic and machine learning
techniques for word alignment improvement, PhD Thesis.
4.Bahdanau D, Cho K, Bengio Y (2014). Neural machine translation by
jointly learning to align and translate. ArXiv Prepr ArXiv14090473.
5.Banĩn M, Chen P, Haddow B, Heafield K, Hoang H, Espla-Gomis M,
et al. (2020). ParaCrawl: Web-scale acquisition of parallel corpora. Proc 58th Annu Meet Assoc Comput Linguist. Tr. 4555–67.
6.Bao HT, Khanh PN, Le HT, Thao NTP (2009). Issues and first development phase of the english-vietnamese translation system evsmt1.
0. Proc Third Hanoi Forum Information—Communication Technol.
7.Bentivogli L, Bisazza A, Cettolo M, Federico M (2016). Neural versus phrase-based machine translation quality: a case study. ArXiv
PreprArXiv160804631.
8.Bentivogli L, Bisazza A, Cettolo M, Federico M (2018). Neural versus phrase-based mt quality: An in-depth analysis on english– german and english–french. Comput Speech Lang. Số 49., Tr.52–70
9.Berg-Kirkpatrick T, Bouchard-Cơté A, DeNero J, Klein D (2010).
Painless unsupervised learning with features. Hum Lang Technol 2010 Annu Conf North Am Chapter Assoc Comput Linguist. Tr. 582–90.
10. Bojar O, Tamchyna A (2011). Improving translation model by
monolingual data. Proc Sixth Workshop Stat Mach Transl. Tr. 330–6.
11. Brown PF, Cocke J, Della Pietra SA, Della Pietra VJ, Jelinek F,
Lafferty J, et al. (1990). A statistical approach to machine translation. Comput Linguist. Số 16.(2), Tr.79–85
12. Brown PF, Della Pietra SA, Della Pietra VJ, Lai JC, Mercer RL
(1992). An estimate of an upper bound for the entropy of English.
ComputLinguist. Số 18.(1), Tr.31–40
13. Brown PF, Della Pietra SA, Della Pietra VJ, Mercer RL (1993).
The mathematics of statistical machine translation: Parameter estimation.
Comput Linguist. Số 19.(2), Tr.263–311
14. Castilho S, Gaspari F, Moorkens J, Popović M, Toral A (2019).
Editors’ foreword to the special issue on human factors in neural machine translation. Mach Transl. Số 33.(1), Tr.1–7
15. Castilho S, Moorkens J, Gaspari F, Calixto I, Tinsley J, Way A
(2017). Is neural machine translation the new state of the art? Prague
Bull MathLinguist. (108)
16. Castilho S, Moorkens J, Gaspari F, Sennrich R, Sosoni V,
Georgakopoulou P, et al. (2017). A comparative quality evaluation of
PBSMT and NMT using professional translators.
17. Cettolo M, Jan N, Sebastian S, Bentivogli L, Cattoni R,
Federico M (2015). The iwslt 2015 evaluation campaign. Int Workshop
Spok Lang Transl.
18. Chatzikoumi E (2020). How to evaluate machine translation: A
review of automated and human metrics. Nat Lang Eng. Số 26.(2), Tr.137–61
19. Cheng Y (2019). Semi-supervised learning for neural machine
translation. Jt Train Neural Mach Transl. Springer Tr. 25–40.
20. Chiang D (2005). A hierarchical phrase-based model for
statistical machine translation. Proc 43rd Annu Meet Assoc Comput Linguist
Acl’05. Tr. 263–70.
21. Chiang D (2007). Hierarchical phrase-based translation.
Comput
Linguist. Số 33.(2), Tr.201–28
22. Cho K, Van Merriënboer B, Gulcehre C, Bahdanau D,
Bougares F, Schwenk H, et al. (2014). Learning phrase representations
using RNN encoder-decoder for statistical machine translation. ArXiv
PreprArXiv14061078.
23. Chung J, Cho K, Bengio Y (2016). A character-level decoder
without explicit segmentation for neural machine translation. ArXiv
PreprArXiv160306147.
24. Clifton A, Sarkar A (2011). Combining morpheme-based
machine translation with post-processing morpheme prediction. Proc
25. Creutz M, Lagus K (2005). Inducing the morphological lexicon of a natural language from unannotated text. Proc Int Interdiscip Conf
Adapt Knowl Represent Reason AKRR’05. Tr. 51–9.
26. Creutz M, Lagus K (2002). Unsupervised discovery of
morphemes. ArXiv Prepr Cs0205057.
27. Cui Y, Chen Z, Wei S, Wang S, Liu T, Hu G (2017). Attention-
over-Attention Neural Networks for Reading Comprehension. Proc 55th
AnnuMeet Assoc Comput Linguist Vol 1 Long Pap. , Tr.593–602
28. Currey A, Miceli-Barone AV, Heafield K (2017). Copied
monolingual data improves low-resource neural machine translation.
Proc SecondConf Mach Transl. Tr. 148–56.
29. Dempster AP, Laird NM, Rubin DB (1977). Maximum
likelihood from incomplete data via the EM algorithm. J R Stat Soc Ser B Methodol. Số 39.(1), Tr.1–22
30. Dien D (2003). BTL: an Hybrid Model in the English-
Vietnamese Machine Translation System. Proc MT Summit IX La USA 2003.
31. Dinh D, Ngan NLT, Quang DX, Nam VC (2003). A Hybrid
Approach to Word Order Transfer in the English-to-Vietnamese Machine Translation. Proc Mach Transl Summit IX. Citeseer
32. Doddington G (2002). Automatic evaluation of machine
translation quality using n-gram co-occurrence statistics. Proc Second
Int Conf HumLang Technol Res. Tr. 138–45.
33. Dowling M, Lynn T, Poncelas A, Way A (2018). SMT versus
NMT: Preliminary comparisons for Irish.
34. Dyer C, Chahuneau V, Smith NA (2013). A simple, fast, and
effective reparameterization of ibm model 2. Proc 2013 Conf North Am
Chapter Assoc Comput Linguist Hum Lang Technol. Tr. 644–8.
35. Dyer C, Clark JH, Lavie A, Smith NA (2011). Unsupervised
word alignment with arbitrary features. Proc 49th Annu Meet Assoc
ComputLinguist Hum Lang Technol. Tr. 409–19.
36. Edunov S, Ott M, Auli M, Grangier D (2018). Understanding
back-translation at scale. ArXiv Prepr ArXiv180809381.
37. Farwell D, Wilks Y (1990). ULTRA: a multilingual machine
38. Galley M, Hopkins M, Knight K, Marcu D (2004). What’s in a translation rule? Proc Hum Lang Technol Conf North Am Chapter
Assoc Comput Linguist HLT-NAACL 2004. Tr. 273–80.
39. Garcia-Varea I, Och FJ, Ney H, Casacuberta F (2002).
Improving alignment quality in statistical machine translation using context-dependent maximum entropy models. COLING 2002 19th Int
ConfComput Linguist.
40. Ghaffar SA, Fakhr MW, Sheraton C (2011). English to arabic
statistical machine translation system improvements using preprocessing and arabic morphology analysis. Recent Res Math
Methods Electr EngComput Sci. , Tr.50–4
41. Gibadullin I, Valeev A, Khusainova A, Khan A (2019). A
survey of methods to leverage monolingual data in low-resource neural machine translation. ArXiv Prepr ArXiv191000373.
42. Ha T-L, Niehues J, Cho E, Mediani M, Waibel A (2015). The
KIT translation systems for IWSLT 2015. Universitätsbibliothek der
RWTHAachen
43. Han D, Martínez-Gĩmez P, Miyao Y, Sudoh K, Nagata M
(2013). Effects of parsing errors on pre-reordering performance for Chinese-to-Japanese SMT. Proc 27th Pac Asia Conf Lang Inf Comput
PACLIC 27. Tr. 267–76.
44. Ho TB (2005). Current Status of Machine Translation Research
in Vietnam Towards Asian wide multi language machine translation project.Proc Vietnam Lang Speech Process Workshop.
45. Hoang VCD, Koehn P, Haffari G, Cohn T (2018). Iterative
back-translation for neural machine translation. Proc 2nd Workshop
Neural Mach Transl Gener. Tr. 18–24.
46. Hoang V, Ngo M, Dinh D (2008). A dependency-based word
reordering approach for statistical machine translation. 2008 IEEE Int
Conf ResInnov Vis Future Comput Commun Technol. IEEE Tr. 120–7.
47. Hutchins WJ (2001). Machine translation over fifty years. Hist
Epistémologie Lang. Số 23.(1), Tr.7–31
48. Hutchins WJ, Somers HL (1992). An introduction to machine
translation. Academic Press London
49. Isabelle P, Cherry C, Foster G (2017). A challenge set approach to evaluating machine translation. ArXiv Prepr ArXiv170407431.
50. Ittycheriah A, Roukos S (2005). A maximum entropy word aligner for arabic-english machine translation. Proc Hum Lang Technol
Conf Conf Empir Methods Nat Lang Process. Tr. 89–96.
51. Jia Y, Carl M, Wang X (2019). Post-editing neural machine
translation versus phrase-based machine translation for English– Chinese. MachTransl. Số 33.(1), Tr.9–29
52. Junczys-Dowmunt M, Dwojak T, Hoang H (2016). Is neural
machine translation ready for deployment? A case study on 30 translation directions. ArXiv Prepr ArXiv161001108.
53. Jurafsky D, Martin JH. Speech and Language Processing: An
Introduction to Natural Language Processing, Computational Linguistics, and Speech Recognition.
54. Kamigaito H, Watanabe T, Takamura H, Okumura M, Sumita E
(2016). Unsupervised Word Alignment Using Frequency Constraint in
Posterior Regularized EM. J Nat Lang Process. Số 23.(4), Tr.327–51
55. Kay M (1973). Automatic translation of natural languages.
Daedalus. , Tr.217–30
56. Khayrallah H, Koehn P (2018). On the impact of various types
of noise on neural machine translation. ArXiv Prepr ArXiv180512282.
57. Koehn P, Hoang H (2007). Factored translation models. Proc
2007 Jt Conf Empir Methods Nat Lang Process Comput Nat Lang Learn EMNLP-CoNLL. Tr. 868–76.
58. Koehn P, Hoang H, Birch A, Callison-Burch C, Federico M,
Bertoldi N, et al. (2007). Moses: Open source toolkit for statistical machine translation. Proc 45th Annu Meet Assoc Comput Linguist
CompanionVol Proc Demo Poster Sess. Tr. 177–80.
59. Koehn P, Knowles R (2017). Six challenges for neural machine
translation. ArXiv Prepr ArXiv170603872.
60. Koehn P, Och FJ, Marcu D (2003). Statistical phrase-based
translation.
UNIVERSITY OF SOUTHERN CALIFORNIA MARINA DEL REY INFORMATION SCIENCES INST2003
61. Kudo T (2018). Subword regularization: Improving neural network translation models with multiple subword candidates. ArXiv
PreprArXiv180410959.
62. Lample G, Ott M, Conneau A, Denoyer L, Ranzato M (2018).
Phrase-based & neural unsupervised machine translation. ArXiv Prepr ArXiv180407755.
63. Le A-C, Nguyen T-P, Tran Q-L, Linh DB (2018). Integrating
Word Embeddings into IBM Word Alignment Models. 2018 10th Int Conf Knowl Syst Eng KSE. IEEE Tr. 79–84.
64. Le KH (2003). One method of Interlingua translation. Proc
Natl Conf IT Res Dev Appl.
65. Lee J-H, Lee S-W, Hong G, Hwang Y-S, Kim S-B, Rim HC
(2010). A post-processing approach to statistical word alignment reflecting alignment tendency between part-of-speeches. Coling 2010 Posters. Tr.623–9.
66. Lin D, Cherry C (2003). Word Alignment with Cohesion
Constraint. Companion Vol Proc HLT-NAACL 2003 - Short Pap. HLT- NAACL
2003 Truy cập ngày 11/05/2021, Tr. 49–51. URL: https://www.aclweb.org/anthology/N03-2017 .
67. Liu Y, Liu Q, Lin S (2010). Discriminative word alignment by
linear modeling. Comput Linguist. Số 36.(3), Tr.303–39
68. Liu Y, Liu Q, Lin S (2005). Log-linear models for word
alignment. Proc 43rd Annu Meet Assoc Comput Linguist ACL’05. Tr. 459–66.
69. Liu Y, Sun M (2015). Contrastive unsupervised word alignment
with non-local features. Proc AAAI Conf Artif Intell.
70. Luong M-T, Manning CD (2015). Stanford neural machine
translation systems for spoken language domains. Proc Int Workshop
Spok LangTransl. Tr. 76–9.
71. Ma Y, Ozdowska S, Sun Y, Way A (2008). Improving word
alignment using syntactic dependencies. Association for Computational Linguistics
72. Mahata SK, Mandal S, Das D, Bandyopadhyay S (2018). SMT
vs NMT: a comparison over Hindi & Bengali simple sentences. ArXiv
73. Menacer MA, Langlois D, Mella O, Fohr D, Jouvet D, Smạli
K (2017). Is statistical machine translation approach dead? ICNLSSP
2017-Int Conf Nat Lang Signal Speech Process. Tr. 1–5.
74. Mermer C, Saraçlar M, Sarikaya R (2013). Improving statistical
machine translation using Bayesian word alignment and Gibbs sampling.
IEEETrans Audio Speech Lang Process. Số 21.(5), Tr.1090–101
75. Mitamura T (1999). Controlled language for multilingual
machine translation. Proc Mach Transl Summit VII. Tr. 46–52.
76. Mitamura T, Nyberg E, Carbonell JG (1991). An efficient
interlingua translation system for multi-lingual document production.
77. Moore RC (2005). A discriminative framework for bilingual
word alignment. Proc Hum Lang Technol Conf Conf Empir Methods
Nat LangProcess. Tr. 81–8.
78. Moore RC (2004). Improving IBM word alignment model 1.
Proc 42nd Annu Meet Assoc Comput Linguist ACL-04. Tr. 518–25.
79. Müller M, Nguyen T-S, Sperber M, Kilgour K, Stüker S, Waibel A (2015). The 2015 KIT IWSLT Speech-to-Text Systems for English and German. Int Workshop Spok Lang Transl IWSLT. Citeseer
80. Nagao M (1984). A framework of a mechanical translation between Japanese and English by analogy principle. Artif Hum Intell. , Tr.351–4
81. Ng N, Yee K, Baevski A, Ott M, Auli M, Edunov S (2019).
Facebook FAIR’s WMT19 News Translation Task Submission. ArXiv
PreprArXiv190706616.
82. Nguyen NT, Le VQ, Nghiem M-Q, Dinh D (2015). A General
Approach for Word Reordering in English-Vietnamese-English Statistical Machine Translation. Int J Artif Intell Tools. Số 24.(06), Tr.1550024
83. Nomura T, Tsukada H, Akiba T. Improvement of Word
Alignment Models for Vietnamese-to-English Translation.
84. Och FJ (2003). Minimum error rate training in statistical
machine translation. Proc 41st Annu Meet Assoc Comput Linguist. Tr. 160–7.
85. Och FJ, Ney H (2000). A Comparison of Alignment Models for
Statistical Machine Translation. COLING 2000 Vol 2 18th Int Conf Comput Linguist. COLING 2000 Truy cập ngày 11/05/2021, URL: https://www.aclweb.org/anthology/C00-2163 .
86. Och FJ, Ney H (2003). A systematic comparison of various statistical alignment models. Comput Linguist. Số 29.(1), Tr.19–51
87. Och FJ, Ney H (2000). Improved statistical alignment models.
Proc 38th Annu Meet Assoc Comput Linguist. Tr. 440–7.
88. Och FJ, Ney H (2004). The alignment template approach to
statistical machine translation. Comput Linguist. Số 30.(4), Tr.417–49
89. Ojha AK, Chowdhury KD, Liu C-H, Saxena K (2018). The
RGNLP machine translation systems for WAT 2018. ArXiv Prepr ArXiv181200798.
90. Ott M, Auli M, Grangier D, Ranzato M (2018). Analyzing
uncertainty in neural machine translation. Int Conf Mach Learn. PMLR Tr. 3956–65.
91. Papineni K, Roukos S, Ward T, Zhu W-J (2002). Bleu: a method for automatic evaluation of machine translation. Proc 40th Annu
Meet AssocComput Linguist. Tr. 311–8.
92. Park J, Song J, Yoon S (2017). Building a neural machine
translation system using only synthetic parallel data. ArXiv Prepr
ArXiv170400253.
93. Pham N-L, Nguyen V-V (2020). Adaptation in Statistical
Machine Translation for Low-resource Domains in English-Vietnamese Language. VNU J Sci Comput Sci Commun Eng. Số 36.(1)
94. Phuoc NQ, Quan Y, Ock C-Y (2016). Building a bidirectional
english-vietnamese statistical machine translation system by using moses. Int JComput Electr Eng. Số 8.(2), Tr.161
95. Poerner N, Sabet MJ, Roth B, Schütze H (2018). Aligning Very
Small Parallel Corpora Using Cross-Lingual Word Embeddings and a Monogamy Objective. ArXiv Prepr ArXiv181100066.
96. Poncelas A, Popovic M, Shterionov D, Wenniger GM de B,
Way A (2019). Combining SMT and NMT back-translated data for efficient NMT. ArXiv Prepr ArXiv190903750.
97. Poncelas A, Shterionov D, Way A, Wenniger GM de B, Passban
P (2018). Investigating Backtranslation in Neural Machine Translation.
Truy cập ngày 11/05/2021; URL: https://arxiv.org/abs/1804.06189v1 .
98. Richman T. Johns Hopkins scientists win $10.7 million grant to
translate little-used languages. baltimoresun.com. Truy cập ngày 11/05/2021, URL: https://www.baltimoresun.com/latest/bs-md-hopkins- language-grant-20171011-story.html .