1. Trang chủ
  2. » Luận Văn - Báo Cáo

Bài toán nhận dạng văn bản (OCR) cho tiếng Việt

74 29 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 74
Dung lượng 4,91 MB

Nội dung

Trong những năm gần đây, bài toán nhận dạng ký tự quang học (OCR) rấtđược quan tâm bởi cộng đồng thị giác máy tính vì những ứng dụng thực tếcủa nó. Ví dụ như số hoá các văn bản giấy hoặc trích xuất thông tin văn bản từhình ảnh. Giải quyết được bài toán này sẽ giúp tiết kiệm được rất nhiều côngsức, nhân lực cũng như là tài chính cho các doanh nghiệp.

TRƯỜNG ĐẠI HỌC BÁCH KHOA HÀ NỘI ĐỒ ÁN TỐT NGHIỆP Bài toán nhận dạng văn cho tiếng Việt LÊ VĂN HỒNG hoang.lv161669@sis.hust.edu.vn Ngành Cơng nghệ thơng tin Chun ngành Khoa học máy tính Giảng viên hướng dẫn: TS Đinh Viết Sang Chữ ký GVHD Bộ môn: Viện: Khoa học máy tính Cơng nghệ thơng tin truyền thông HÀ NỘI, 1/2021 Phiếu giao nhiệm vụ đồ án tốt nghiệp Thông tin sinh viên Họ tên : Lê Văn Hoàng Email : lehoang2797@gmail.com Lớp : CNTT2.03 - Khoá 61 Điện thoại : 0388372328 Hệ đào tạo : Đại học quy Đồ án tốt nghiệp thực tại: Bộ mơn Khoa học máy tính - Viện Công nghệ thông tin truyền thông Thời gian làm đồ án tốt nghiệp: Từ ngày 15/9/2020 đến ngày 5/1/2021 Mục đích nội dung đồ án tốt nghiệp Tìm hiểu, thử nghiệm số mơ hình phổ biến CRNN-CTC, Seq2SeqOCR, Transformer-OCR cho toán nhận dạng văn Tiếng Việt Các nhiệm vụ cụ thể đồ án tốt nghiệp • Nghiên cứu tốn nhận dạng văn bản; • Tìm hiểu số mơ hình phổ biến CRNN-CTC, Seq2Seq-OCR Transformer-OCR; • Tạo liệu huấn luyện cho Tiếng Việt; • Thực nghiệm, đánh giá kết toán nhận dạng văn thực tế Lời cam đoan sinh viên Tôi - Lê Văn Hoàng - cam kết đồ án tốt nghiệp sản phẩm thân hướng dẫn TS Đinh Viết Sang Các kết đồ án trung thực, khơng phải chép tồn văn cơng trình khác Hà Nội, ngày tháng năm 2021 Sinh viên Lê Văn Hoàng Xác nhận giáo viên hướng dẫn mức độ hoàn thành cho phép bảo vệ: Hà Nội, ngày tháng năm 2021 Giảng viên hướng dẫn TS Đinh Viết Sang LỜI CẢM ƠN Như quãng thời gian Đại học Bách khoa Hà Nội tới hồi kết Một quãng thời gian học tập, rèn luyện với nhiều trải nghiệm đáng nhớ Trước hết, muốn gửi lời cảm ơn đến thầy cô trường Bách khoa Hà Nội, đặc biệt thầy cô Viện Công nghệ thông tin truyền thông Thầy cô tận tình truyền đạt kiến thức, rèn dũa để tơi trưởng thành Tơi chân thành cảm ơn TS Đinh Viết Sang tận tình hướng dẫn, giúp đỡ để tơi hồn thành đồ án Nhân dịp này, xin gửi lời cảm ơn đến gia đình, bạn bè ln bên cạnh, cổ vũ, động viên giúp đỡ suốt trình học tập thực đồ án TĨM TẮT NỘI DUNG ĐỒ ÁN Trong năm gần đây, toán nhận dạng ký tự quang học (OCR) quan tâm cộng đồng thị giác máy tính ứng dụng thực tế Ví dụ số hố văn giấy trích xuất thơng tin văn từ hình ảnh Giải toán giúp tiết kiệm nhiều cơng sức, nhân lực tài cho doanh nghiệp Một toán OCR bao gồm tác vụ riêng biệt phát văn bản, nhận dạng văn bản, trích rút thơng tin Tuy nhiên, đồ án tập trung nghiên cứu thử nghiệm số mơ hình phổ biến cho tốn nhận dạng văn Ngoài ra, đồ án đề xuất liệu tự sinh cho tiếng Việt kết hợp liệu tiếng Anh có để huấn luyện cho mơ hình giải tốt cho tiếng Anh tiếng Việt Kết đồ án cho thấy khả năng, độ hiệu mô hình thử nghiệm tốt với liệu tự sinh tiềm ứng dụng thực tế lớn có đủ liệu thực tế để huấn luyện Đồ án tốt nghiệp bao gồm chương: • Chương 1: Giới thiệu tổng quan đồ án; • Chương 2: Cơ sở lý thuyết; • Chương 3: Một số mơ hình phổ biến; • Chương 4: Thử nghiệm đánh giá; • Chương 5: Kết luận Mục lục Tổng quan đồ án 1.1 Giới thiệu toán 1.2 Mục tiêu đồ án 1.3 Đối tượng phạm vi nghiên cứu Cơ sở lý thuyết 2.1 Mạng nơ-ron tích chập 2.2 Mạng nơ-ron hồi quy 2.2.1 Mạng nơ-ron hồi quy 2.2.2 Mạng nơ-ron hồi quy mở rộng LSTM 2.3 Cơ chế ý 2.3.1 Cơ chế ý mềm 2.3.2 Một số chế ý phổ biến 2.4 Luồng toán OCR Một số mô hình phổ biến 3.1 CRNN-CTC 3.1.1 Kiến trúc mơ hình 3.1.2 CTC - Connectionist Temporal Classification 3.2 Seq2Seq-OCR 3.2.1 Kiến trúc mơ hình 3.3 Transformer-OCR 3.3.1 Transformer NLP 3.3.2 Kiến trúc Transformer-OCR Thử nghiệm đánh giá 4.1 Môi trường ngôn ngữ cài đặt 4.2 Bộ liệu 4.2.1 Bộ liệu tự sinh 4.2.2 Bộ liệu thực tế 1 4 8 11 12 14 15 17 17 17 21 25 25 32 32 40 43 43 44 44 45 4.3 46 47 49 49 51 53 53 55 Tổng kết 5.1 Kết đạt 5.2 Hướng phát triển 57 57 57 4.4 4.5 4.6 Độ đo 4.3.1 Cài đặt mơ hình Kết thử nghiệm Đánh giá kết 4.5.1 Phân tích số trường hợp sai Thử nghiệm số toán ứng dụng thực tế 4.6.1 Bài toán nhận dạng văn từ ảnh chế 4.6.2 Bài toán nhận dạng chứng minh thư Danh sách hình vẽ 1.1 Bài tốn nhận dạng văn 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 Kiến trúc Mạng tích chập Minh hoạ lớp tích chập Ví dụ max-pooling Một số hàm phi tuyến Kiến trúc RNN Kiến trúc LSTM Cơ chế ý Luồng xử lý OCR 13 15 3.1 3.2 3.3 3.4 3.5 3.6 3.7 3.8 3.9 3.10 3.11 3.12 3.13 3.14 3.15 3.16 3.17 3.18 3.19 Kiến trúc CRNN-CTC Chuỗi đặc trưng Lớp hồi quy - BiLSTM Ví dụ: Ma trận đầu CRNN Kiến trúc Seq2Seq-OCR Sự khác CRNN-CTC Seq2Seq-OCR Chuỗi đặc trưng Seq2Seq-OCR Bộ mã hoá Seq2Seq Cơ chế ý Seq2Seq Bộ giải mã Seq2Seq Sự khác Transfomer Seq2Seq Kiến trúc mơ hình Transfomer Ma trận mã hố vị trí Bộ mã hóa Transformer Biểu diễn dạng ma trận chế tự ý Minh hoạ ý đa đầu Bộ giải mã Transformer Mơ hình Transfomer-OCR Trích xuất đặc trưng Transformer 18 19 20 22 25 26 26 27 29 30 32 33 34 35 36 37 39 40 41 3.20 Cơ chế tự ý không gian ảnh 42 4.1 4.2 4.3 4.4 4.5 4.6 4.7 44 45 46 49 53 54 56 Bộ liệu với đa dạng Trang web gán nhãn liệu Bộ liệu thực tế Hình vẽ so sánh kết ba mơ hình Minh họa số ảnh chế Một số kết thử nghiệm ảnh chế Một số kết thử nghiệm ảnh chứng minh thư Danh sách bảng 2.1 Một số chế attention phổ biến 14 4.1 4.2 4.3 4.4 Tổng quan liệu phát sinh Bảng siêu tham số kiến trúc mô hình Bảng siêu tham số huấn luyện mô hình Kết thử nghiệm mơ hình hai liệu 44 47 48 49 Chương Thử nghiệm đánh giá 48 Bên cạnh đó, siêu tham số cho q trình huấn luyện mô tả bảng 4.3 Tham số CRNN-CTC Seq2Seq-OCR Input size* Loss Function heigh=32 CTC Loss Adam, (beta_1, beta_2) = (0.9,0.999) 0.001 10 64 heigh=32 CrossEntropy Adam, (beta_1,beta_2) = (0.9,0.999) 0.001 10 32 Optimizer algorithm Learning rate Num epoch Batch size TransformerOCR heigh=32 CrossEntropy Adam, (beta_1, beta_2) = (0.9,0.999) 0.001 10 32 Bảng 4.3: Bảng siêu tham số huấn luyện mơ hình (*) Chiều dài ảnh thay đổi tuỳ thuộc vào chiều dài văn Trong trình huấn luyện, ảnh chiều dài đưa vào lô (batch) Ba mơ hình chung tập ký tự gồm 228 ký tự, bao gồm 196 chữ số 32 ký tự đặc biệt Chương Thử nghiệm đánh giá 4.4 49 Kết thử nghiệm Phần trình bày kết thu sau huấn luyện triệu ảnh tự sinh kiểm thử triệu ảnh lại Hơn nữa, đồ án có kiểm thử tồn tập 700 ảnh thực tế nhằm kiểm tra độ tổng quát mô hình Kết thể bảng 4.4 hình 4.4 Mơ hình CRNN-CTC Seq2Seq-OCR Transformer-OCR Dữ liệu tự sinh CRA(%) WRA(%) 98.3 96.89 98.90 97.25 98.93 97.38 Dữ liệu thực tế CRA(%) WRA(%) 85.19 72.61 86.26 74.25 86.38 75.33 Thời gian Kích thước 4ms 12ms 85ms 35Mb 85Mb 145Mb Bảng 4.4: Kết thử nghiệm mơ hình hai liệu Hình 4.4: Hình vẽ so sánh kết ba mơ hình 4.5 Đánh giá kết Căn kết thu từ bảng 4.4, nhìn chung, mơ hình thử nghiệm cho kết tương đối tốt lí giải hai tập liệu Chúng ta Chương Thử nghiệm đánh giá 50 phân tích kết đạt với hai yếu tố độ xác kích thước mơ hình, thời gian dự đốn Độ xác Mơ hình Transfomer-OCR cho độ xác cao với 97.38% tập tự sinh 75.33% tập thực tế, tiếp mơ hình Seq2Seq-OCR với độ xác 97.25% tập tự sinh 74.25% tập thực tế, cuối mơ hình CRNN-CTC với độ xác 96.89% 72.61% tương ứng Có thể thấy khác biệt mơ hình khơng đáng kể, chí Ta có số nhận xét sau: • Bộ liệu tự sinh dễ với mơ hình, đồng thời tập kiểm thử tương đối giống với tập huấn luyện Điều giúp mơ hình đạt độ xác cao tập liệu này; • Do mơ hình huấn luyện liệu tự phát sinh nên độ xác 75% liệu thực tế chấp nhận Chứng tỏ tập liệu phát sinh có đa dạng, tổng quát tốt Tuy nhiên, muốn áp dụng vào thực tế, cần tạo liệu thực tế đủ lớn, kết hợp với liệu tự sinh để có mơ hình tốt nhất; • Hai mơ hình Seq2Seq-OCR Transformer-OCR cao CRNN-CTC hai mơ hình có tính ngơn ngữ hóa, nghĩa chúng dự đốn từ ảnh đầu vào bị mờ số ký tự hay phần ký tự Do vậy, CRNN-CTC hoạt động tốt với liệu ảnh rõ ràng; • Sự chênh lệch độ xác Seq2Seq-OCR Transformer-OCR không nhiều, xấp xỉ 1% Nguyên nhân liệu chứa văn thẳng, từ Transformer-OCR có ưu với tốn ảnh chứa văn có hình dạng phức tạp ảnh chứa văn dài hơn; • Mơ hình CRNN-CTC có lợi liệu tương đối tập kiểm thử khác so với tập huấn luyện Nghĩa số lượng lớn từ không Chương Thử nghiệm đánh giá 51 xuất tập huấn luyện nhận dạng Nguyên nhân CRNN-CTC đọc từ ảnh mà khơng đốn từ hai mơ hình cịn lại; • Trong phạm vi đồ án, đặc điểm văn thẳng nghiêng nhẹ, chứa từ, Transformer-OCR phức tạp, nặng nề so với hai mơ hình cịn lại Kích thước mơ hình thời gian dự đoán Khi áp dụng toán vào thực tế, ngồi độ hiệu yếu tố kích thước mơ hình, thời gian cân nhắc Về bản, kích thước mơ hình tỉ lệ với thời gian dự đốn Kích thước lớn thời gian dự đốn lâu Từ hình 4.4, ta có số nhận xét sau: • Mơ hình CRNN-CTC có kích thước nhỏ nhất, 35Mb Tốc độ nhanh nhất, xấp xỉ 4ms Dẫn đến mơ hình phù hợp với toán áp dụng thiết bị nhúng điện thoại thơng minh; • Mơ hình Transformer-OCR có kích thước lớn (145Mb) thời gian dự đoán cao (85ms), chậm tận 21 lần so với CRNN-CTC Trong đó, mơ hình Seq2Seq-OCR có độ hiệu giống tốc độ có phần vượt trội hơn, 12ms Từ dẫn tới khả áp dụng lên thực tế mơ hình Seq2Seq-OCR tốt 4.5.1 Phân tích số trường hợp sai Một số trường hợp mơ hình cịn sai là: • Nhãn liệu bị gán sai; Chương Thử nghiệm đánh giá 52 • Mơ hình dự đốn q nhạy với số hình ảnh nhiễu; • Dự đốn với dấu câu cịn chưa tốt; • Phân biệt số cặp ký tự sai Y-V, chữ O với số Dựa vào nhận xét trên, triển khai mẫu số toán thực tế phía dưới, đồ án chọn mơ hình Seq2Seq-OCR cho bước nhận dạng văn Chương Thử nghiệm đánh giá 4.6 53 Thử nghiệm số toán ứng dụng thực tế Sau thử nghiệm so sánh, đồ án triển khai mô số tốn OCR thực tế nhằm trực quan hóa ứng dụng đồ án Do phạm vi đồ án nhận dạng văn nên đồ án sử dụng mơ hình CRAFT huấn luyện sẵn để thực bước phát văn Tiếp đó, mơ hình Seq2Seq-OCR lựa chọn để thực bước nhận dạng văn có cân độ xác tốc độ dự đốn Bước trích rút thông tin chưa xử lý phạm vi đồ án Hai toán áp dụng bao gồm: Nhận dạng văn từ ảnh chế, nhận dạng giấy tờ tùy thân 4.6.1 Bài toán nhận dạng văn từ ảnh chế Ảnh chế (meme) hình ảnh có chèn thêm chữ, thường mang tính hài hước, vui nhộn Tuy nhiên, số có hình ảnh châm biếm, bạo lực chí phản động Một số ví dụ cho ảnh chế hình ?? (a) Ảnh chế (b) Ảnh chế Hình 4.5: Minh họa số ảnh chế Việc phát thông tin xấu, sai lệch từ ảnh chế quan trọng Một mạng xã hội hay trang web cho người dùng đăng ảnh chế mà không https://github.com/clovaai/CRAFT-pytorch urlhttps://www.pinterest.com/pin/584342120381963472/ Chương Thử nghiệm đánh giá 54 kiểm sốt nội dung từ nguy hiểm Bài toán nhận dạng văn từ ảnh chế (meme) đời, giúp giải vấn đề đặt Khi người dùng đăng tải ảnh chế, hình ảnh đưa vào hệ thống OCR để trích rút thơng tin từ ảnh Thơng tin văn ảnh chế tiếp đưa vào hệ thống NLP để xác định phát có thông tin xấu không Do đồ án tập trung phần nhận dạng văn nên bước phát văn sử dụng mơ hình phát văn huấn luyện sẵn Một số hình ảnh kết thử nghiệm: (a) Hình (b) Hình Hình 4.6: Một số kết thử nghiệm ảnh chế Chương Thử nghiệm đánh giá 4.6.2 55 Bài toán nhận dạng chứng minh thư Bài toán OCR cho chứng minh thư đề cập nhiều, phần quan trọng cho toán định danh khách hàng điện tử Về bản, toán OCR cho chứng minh thư giống toán ảnh chế Tuy nhiên, để tăng độ xác, đồ án thêm bước phát chứng minh thư nhằm đưa chứng minh thư hình dạng thẳng Đồ án sử dụng mạng CenterNet có chỉnh sửa để phát chứng minh thư, sau sử dụng mạng CRAFT để phát văn bản, cuối sử dụng mơ hình Seq2Seq-OCR cho bước nhận dạng văn Mạng CenterNet CRAFT huấn luyện trước Một số hình ảnh kết thử nghiệm: https://github.com/xingyizhou/CenterNet https://github.com/clovaai/CRAFT-pytorch Chương Thử nghiệm đánh giá (a) Hình (b) Hình Hình 4.7: Một số kết thử nghiệm ảnh chứng minh thư 56 57 Chương Tổng kết 5.1 Kết đạt Trong đồ án này, đồ án trình bày toán nhận dạng văn cho tiếng Việt ba mơ hình phổ biến CRNN-CTC, Seq2Seq-OCR TransformerOCR Do liệu huấn luyện cho tiếng Việt chưa có nên đồ án tiến hành xây dựng liệu tự sinh Sau thử nghiệm, đánh giá tập liệu tự sinh Ngoài ra, để kiểm tra độ tổng quát liệu tự sinh hiệu mơ hình, đồ án tổng hợp liệu thực tế tương đối nhỏ để đánh giá Kết thu cho thấy ba mơ hình có độ xác không khác biệt, Transformer-OCR đạt kết tốt nhất, nhiên mơ hình nặng Trong đó, mơ hình Seq2Seq-OCR 1% độ xác cho thời gian dự đốn nhanh Cho thấy khả áp dụng lên thực tế Seq2Seq-OCR tốt nhiều Mơ hình CRNN-CTC phù hợp với toán cần triển khai thiết bị nhúng Cuối cùng, đồ án chọn áp dụng mơ hình Seq2Seq-OCR để minh hoạ số tốn thực tế nhận dạng văn từ ảnh chế, nhận dạng giấy tờ tuỳ thân, chứng tỏ khả áp dụng đa dạng toán nhận dạng văn 5.2 Hướng phát triển Mặc dù kết thực nghiệm cho thấy độ hiệu liệu tự sinh mơ hình, nhiên cịn số vấn đề cần giải Chương Tổng kết 58 cải thiện sau: • Các mơ hình chưa huấn luyện liệu thực tế nên hiệu suất chưa đủ tốt, tiếp tục đầu tư tạo liệu thực tế cho tiếng Việt huấn luyện tập tự sinh tập thực tế nhằm việc học tốt tổng quát hơn; • Tinh chỉnh, sửa đổi chế attention thay mạng trích xuất đặc trưng mạng Seq2Seq-OCR; • Giải thêm tốn phát văn cho tiếng Việt nhằm mang lại độ xác tốt cho tốn nhận dạng văn 59 Tài liệu tham khảo [1] URL : https://pbcquoc.github.io/transformer/ [2] Youngmin Baek et al Character Region Awareness for Text Detection 2019 arXiv: 1904.01941 [cs.CV] [3] Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio Neural Machine Translation by Jointly Learning to Align and Translate 2016 arXiv: 1409.0473 [cs.CL] [4] Y Bengio, P Simard, and P Frasconi “Learning long-term dependencies with gradient descent is difficult” In: IEEE Transactions on Neural Networks 5.2 (1994), pp 157–166 DOI: 10.1109/72.279181 [5] Xinjie Feng et al Scene Text Recognition via Transformer 2020 arXiv: 2003 08077 [cs.CV] [6] John Giorgi et al End-to-end Named Entity Recognition and Relation Extraction using Pre-trained Language Models 2019 arXiv: 1912.13415 [cs.CL] [7] A Graves et al “A Novel Connectionist System for Unconstrained Handwriting Recognition” In: IEEE Transactions on Pattern Analysis and Machine Intelligence 31.5 (2009), pp 855–868 DOI: 10.1109/TPAMI.2008.137 [8] A Graves et al “Connectionist temporal classification: labelling unsegmented sequence data with recurrent neural networks” In: ICML ’06 2006 [9] Alex Graves, Greg Wayne, and Ivo Danihelka Neural Turing Machines 2014 arXiv: 1410.5401 [cs.NE] Tài liệu tham khảo 60 [10] Alex Graves et al “Connectionist Temporal Classification: Labelling Unsegmented Sequence Data with Recurrent Neural Networks” In: Proceedings of the 23rd International Conference on Machine Learning ICML ’06 Pittsburgh, Pennsylvania, USA: Association for Computing Machinery, 2006, pp 369–376 URL : ISBN : 1595933832 DOI : 10 1145 / 1143844 1143891 https://doi.org/10.1145/1143844.1143891 [11] Ankush Gupta, Andrea Vedaldi, and Andrew Zisserman Synthetic Data for Text Localisation in Natural Images 2016 arXiv: 1604.06646 [cs.CV] [12] Sepp Hochreiter and Jurgen Schmidhuber “Long short-term memory ă In: Neural computation 9.8 (1997), pp 17351780 [13] Nal Kalchbrenner and Phil Blunsom “Recurrent Continuous Translation Models” In: Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing Seattle, Washington, USA: Association for Computational Linguistics, Oct 2013, pp 1700–1709 URL: https://www aclweb.org/anthology/D13-1176 [14] Lei Kang et al “Convolve, Attend and Spell: An Attention-based Sequenceto-Sequence Model for Handwritten Word Recognition” In: Pattern Recognition Ed by Thomas Brox, Andrés Bruhn, and Mario Fritz Cham: Springer International Publishing, 2019, pp 459–472 ISBN: 978-3-030-12939-2 [15] Yann LeCun, Y Bengio, and Geoffrey Hinton “Deep Learning” In: Nature 521 (May 2015), pp 436–44 DOI: 10.1038/nature14539 [16] Minghui Liao et al “TextBoxes: A Fast Text Detector with a Single Deep Neural Network” In: AAAI 2017 [17] Wei Liu et al “STAR-Net: A SpaTial Attention Residue Network for Scene Text Recognition” In: Jan 2016, pp 43.1–43.13 DOI: 10.5244/C.30.43 [18] Xiaojing Liu et al Graph Convolution for Multimodal Information Extraction from Visually Rich Documents 2019 arXiv: 1903.11279 [cs.IR] Tài liệu tham khảo 61 [19] Minh-Thang Luong, Hieu Pham, and Christopher D Manning Effective Approaches to Attention-based Neural Machine Translation 2015 arXiv: 1508.04025 [cs.CL] [20] Johannes Michael et al Evaluating Sequence-to-Sequence Models for Handwritten Text Recognition 2019 arXiv: 1903.07377 [cs.CV] [21] Vinod Nair and Geoffrey Hinton “Rectified Linear Units Improve Restricted Boltzmann Machines Vinod Nair” In: vol 27 June 2010, pp 807– 814 [22] Jeffrey Pennington, Richard Socher, and Christopher Manning “GloVe: Global Vectors for Word Representation” In: Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP) Doha, Qatar: Association for Computational Linguistics, Oct 2014, pp 1532– 1543 DOI : 10 3115 / v1 / D14 - 1162 URL : https : / / www aclweb org / anthology/D14-1162 [23] Baoguang Shi, Xiang Bai, and Cong Yao An End-to-End Trainable Neural Network for Image-based Sequence Recognition and Its Application to Scene Text Recognition 2015 arXiv: 1507.05717 [cs.CV] [24] Karen Simonyan and Andrew Zisserman Very Deep Convolutional Networks for Large-Scale Image Recognition 2015 arXiv: 1409.1556 [cs.CV] [25] Ashish Vaswani et al Attention Is All You Need 2017 arXiv: 1706.03762 [cs.CL] [26] Xinyu Zhou et al EAST: An Efficient and Accurate Scene Text Detector 2017 arXiv: 1704.03155 [cs.CV] Hệ thống kiểm tra trùng lặp nội dung KẾT QUẢ KIỂM TRÙNG TÀI LIỆU THÔNG TIN TÀI LIỆU Email: Tên file: Thời gian nộp: Thời gian trả kết quả: Chế độ kiểm tra: Số trang: Số câu: Số câu tương đồng: Mức độ cảnh báo: hoang.lv161669@sis.hust.edu.vn;lehoang2797@gmail.com datn generic ocr lvh 12 5.2m.pdf 08/01/2021 12:38:30 08/01/2021 12:39:43 Việt - Việt 73 522 THẤP (cao: > 15%; trung bình: 2÷15%; thấp: < 2%) KẾT QUẢ KIỂM TRA TRÙNG LẶP Độ tương đồng: 0.19% 0.00% 0.19% 0.00% Trên tất tài liệu Trên tài liệu nội trường Trên tài liệu nội trường khác Từ nguồn Internet Nguồn trùng lặp nhiều nhất: 0.192% Tài liệu hệ thống - nguyen_thanh_hau_-_datn_8.0m.txt Các loại trừ: - Các nội dung trước lời nói đầu, lời mở đầu - Các câu từ

Ngày đăng: 23/08/2023, 10:51

TỪ KHÓA LIÊN QUAN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

w