1. Trang chủ
  2. » Trung học cơ sở - phổ thông

ỨNG DỤNG TRÍ TUỆ NHÂN TẠO THÚC ĐẨY CHUYỂN ĐỔI SỐ TRONG LĨNH VỰC KIỂM LÂM - Full 10 điểm

10 2 0

Đang tải... (xem toàn văn)

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Tiêu đề Ứng Dụng Trí Tuệ Nhân Tạo Thúc Đẩy Chuyển Đổi Số Trong Lĩnh Vực Kiểm Lâm
Tác giả Phạm Thế Anh, Trịnh Thị Anh Loan, Nguyễn Tuấn Anh
Trường học Trường Đại Học Hồng Đức
Thể loại bài báo
Năm xuất bản 2022
Thành phố Thanh Hóa
Định dạng
Số trang 10
Dung lượng 1,67 MB

Nội dung

Số 05 (11/2022): 15 – 24 15 ỨNG DỤNG TRÍ TUỆ NHÂN TẠO THÚC ĐẨY CHUYỂN ĐỔI SỐ TRONG LĨNH VỰC KIỂM LÂM Phạm Thế Anh 1* , Trịnh Thị Anh Loan 1 , Nguyễn Tuấn Anh 2 1 Trường Đại học Hồng Đức, tỉnh Thanh Hóa 2 Chi cục Kiểm lâm Thanh Hóa, tỉnh Thanh Hóa * Email: phamtheanh@hdu edu vn Ngày nhận bài: 05/9/2022 Ngày nhận bài sửa sau phản biện: 10/11/2022 Ngày chấp nhận đăng: 14/11/2022 TÓM TẮT Chuyển đổi số đã và đang tác động mạnh mẽ đến mọi lĩnh vực và đóng vai trò quan trọng thúc đẩy phát triển nhanh và bền vững kinh tế – xã hội Nhằm đẩy mạnh chuyển đổi số trong lĩnh vực kiểm lâm, bài báo này nghiên cứu ứng dụng công nghệ trí tuệ nhân tạo trên thiết bị di động (mobile app) để giải quyết hiệu quả bài toán nhận dạng các loài động thực vật quý hiếm phục vụ công tác nghiệp vụ của ngành kiểm lâm Bài báo sử dụng mô hình mạng nơron nhân chập MobileNetV3 thông qua kỹ thuật học chuyển tiếp (transfer learning) để tối ưu thời gian xử lý và nâng cao độ chính xác nhận dạng Ngoài ra, bài báo cũng tìm hiểu, nghiên cứu các kỹ thuật tăng cường dữ liệu (data augmentation) hiện đại và làm trơn nhãn (label smoothing) để nâng cao hiệu năng của mô hình khi đưa vào sử dụng trong thực tế Kết quả nhận dạng cho thấy hệ thống hoạt động khá hiệu quả trên các thiết bị di động (Android và iOS), đồng thời cho độ chính xác nhận dạng khá cao Từ khóa: cutout, deep learning, mixup, MobileNetV3 AN APPLICATION OF ARTIFICIAL INTELLIGENCE FOR BOOSTING DIGITAL TRANSFORMATION IN THE FIELD OF FOREST MANAGEMENT ABSTRACT Digital transformation has been strongly affecting many factors of different fields and is a crucial tool to enable the fast and sustainable development of economy and the modern society This paper focuses on studying and applying artificial intelligence, specifically its sub-domain in deep learning, to create a case study of digital transformation in the area of forest management with a particular emphasis on solving the problem of animal and plant recognition Specifically, the paper proposes using the MobileNetV3 as the backbone network because of its advantages in efficiency and accuracy Following that, optimized learning techniques such as soft labeling, data augmentation, and transfer learning were used to improve generality and performance Experimental results showed that the model performs well in terms of both recognition accuracy and inference time in comparison with other methods Finally, we have developed an application on mobile platforms (iOS and Android) and the deployment test showed promising performance Keywords: cutout, deep learning, mixup, MobileNetV3 16 Số 05 (11/2022): 15 – 24 1 ĐẶT VẤN ĐỀ Trong những năm gần đây, thế giới đã chứng kiến sự phát triển mạnh mẽ của công nghệ thông tin (CNTT), tập trung chủ yếu vào các công nghệ lõi của cuộc cách mạng công nghiệp lần thứ tư (CMCN 4 0) như: trí tuệ nhân tạo (artificial intelligence hay AI), mạng Internet vạn vật (IoT), chuỗi khối (block chain), thực tế ảo (VR), v v Đặc biệt, trí tuệ nhân tạo (AI) đã nổi lên như một xu thế phát triển tất yếu của xã hội hiện đại, quyết định đến sự thành công hay thất bại của các doanh nghiệp, là yếu tố quan trọng để định hướng sự phát triển của doanh nghiệp trong việc cung cấp các dịch vụ, sản phẩm chất lượng cao cho khách hàng Trên phương diện vĩ mô, AI đóng góp rất nhiều vào sự thúc đẩy và tăng trưởng kinh tế – xã hội, giúp giải quyết nhiều bài toán nan giải trong nhiều lĩnh vực chủ chốt và quan trọng như quân sự, y tế, nông nghiệp, kiểm lâm, giáo dục, v v Những tác động và ảnh hưởng của AI trong phát triển kinh tế – xã hội đã và đang diễn ra trên quy mô toàn cầu, ở khắp các quốc gia trên thế giới Tuy nhiên, sự thành công của AI phụ thuộc nhiều vào điều kiện cụ thể của từng lĩnh vực ứng dụng, điều kiện kinh tế của từng vùng miền, sự phát triển của cơ sở hạ tầng, sự hỗ trợ của các doanh nghiệp viễn thông và công nghệ, đặc biệt là định hướng chiến lược phát triển của các nhà lãnh đạo Trong bài viết này, tác giả nghiên cứu ứng dụng công nghệ AI để giải quyết bài toán đặc thù của ngành kiểm lâm đó là xây dựng ứng dụng hỗ trợ nhận dạng các loài động thực vật quý hiếm, nguy cấp nhằm đóng góp vào quá trình bảo vệ và bảo tồn thiên nhiên cũng như góp phần thúc đẩy chuyển đổi số trong lĩnh vực này Việt Nam là một quốc gia có nhiều loài động thực vật quý hiếm nguy cấp trong sách đỏ cần được bảo vệ Tuy nhiên, hiện nay, một số loài động thực vật quý hiếm trước đây được ghi nhận tại các địa bàn trên phạm vi cả nước đã tuyệt chủng tại địa phương do tình trạng khai thác trái phép, săn bắn, bẫy bắt quá mức, mất sinh cảnh sống làm suy giảm số lượng loài, cá thể trên địa bàn địa phương (Thanh Hóa, Ninh Bình, Nghệ An) Trong những năm gần đây, được sự quan tâm của Chính phủ và các ngành liên quan đã có rất nhiều chương trình, dự án về bảo vệ, bảo tồn và phát triển các loài động, thực vật được triển khai trên địa bàn tỉnh Thanh Hóa, đặc biệt tại các khu rừng đặc dụng, là khu vực có các sinh cảnh sống chủ yếu của các loài động, thực vật nguy cấp, quý hiếm, trong đó có các loài được ưu tiên bảo vệ Do đó, việc xây dựng và ứng dụng phần mềm nhận dạng nhanh các loài động, thực vật rừng nguy cấp, quý, hiếm có ý nghĩa rất quan trọng trong lĩnh vực kiểm lâm nhằm bảo vệ các loài động thực vật quý hiếm Trên cơ sở phân tích, đánh giá các phần mềm tra cứu và nhận dạng động thực vật quý hiếm (Miao và cs , 2019; Willi và cs , 2019), chúng tôi nhận thấy rằng các phần mềm kể trên có nhược điểm là đơn điệu và kém hiệu quả (chỉ hỗ trợ theo từng nhóm đối tượng động vật, hoặc thực vật, yêu cầu kiến thức chuyên môn, v v ) Những nhược điểm này gây trở ngại lớn cho các nhà khoa học, sinh thái học, cơ quan chức năng và đặc biệt là người dân có thể tham gia vào quá trình theo dõi động, thực vật hoang dã trong một môi trường mở mà không đòi hỏi nhiều kiến thức chuyên ngành Ứng dụng các thành tựu gần đây của cuộc cách mạng công nghiệp 4 0 (đặc biệt là các công nghệ trí tuệ nhân tạo, thị giác máy), trong bài báo này chúng tôi xây dựng hệ thống tra cứu, nhận diện một số loài động, thực vật quý hiếm, cần bảo tồn đảm bảo độ chính xác cao và thời gian nhận dạng, có thể hoạt động hiệu quả trên các thiết bị di động và không cần kết nối internet Ngoài ra, hệ thống có thể được sử dụng như một công cụ tin cậy và hiệu quả để hỗ trợ đội ngũ cán bộ kiểm lâm thực hiện các nghiệp vụ bảo vệ rừng cũng như động, thực vật quý hiếm Các đóng góp chính của bài báo gồm: (i) xây dựng hệ thống mạng nơron học sâu dựa vào mạng MobileNetV3 bằng cách áp dụng kỹ thuật học chuyển tiếp; (ii) áp dụng các kỹ thuật tối ưu về tăng cường dữ liệu và làm trơn nhãn để cải thiện hiệu quả huấn luyện mô hình; (iii) xây dựng ứng dụng trên môi trường di động tích hợp mô hình nhận dạng đã huấn luyện nhằm hỗ trợ người dùng tra cứu, nhận dạng nhanh các loài động, thực vật quý hiếm Số đặc biệt: Chuyển đổi số phục vụ phát triển kinh tế – xã hội Số 05 (11/2022): 15 – 24 17 2 PHƯƠNG PHÁP NGHIÊN CỨU Bài báo sử dụng hai phương pháp nghiên cứu chính là: phương pháp phân tích và tổng hợp lý thuyết và phương pháp nghiên cứu thực nghiệm Cụ thể, chúng tôi áp dụng và triển khai quy trình nghiên cứu như sau: – Tìm hiểu tổng quan các công nghệ, phương pháp xây dựng mạng nơron học sâu đã có và phân tích ưu nhược điểm của các giải pháp đã tồn tại – Đề xuất các giải pháp, cải tiến mới và thiết kế các thuật giải – Cài đặt và đánh giá/so sánh hiệu năng của các giải pháp đề xuất với các giải pháp khác – Sử dụng các cơ sở dữ liệu chuẩn (được cung cấp bởi các cộng đồng nhà khoa học cùng chuyên ngành) và phương pháp/quy trình đánh giá chuẩn để phân tích và so sánh tính hiệu quả của các giải pháp đề xuất Để giải quyết các bài toán đặt ra ở trên, cần thiết phải kết hợp các phương pháp nghiên cứu lý thuyết và nghiên cứu thực nghiệm Phương pháp nghiên cứu lý thuyết được vận dụng để hình thành các ý tưởng chính, hoàn thiện ý tưởng, xây dựng bản mẫu/quy trình nghiên cứu hay mô hình khái niệm, thiết kế các kiến trúc mạng tích chập học sâu, phân tích và đánh giá ưu nhược điểm của các thành phần mạng về phương diện độ phức tạp tính toán cũng như tính năng dự đoán của mạng Phương pháp nghiên cứu thực nghiệm sau đó được áp dụng để xây dựng các thử nghiệm (experiments), lựa chọn các tập dữ liệu phục vụ đánh giá kiểm thử (benchmark datasets), lựa chọn giao thức (evaluation protocol) và tiêu chuẩn (metrics, criteria) để đánh giá thử nghiệm Các kết quả thử nghiệm trong nhiều tình huống có thể mâu thuẫn với mô hình khái niệm và các thuật giải đã đề xuất, xây dựng Trong trường hợp đó, chúng tôi sẽ tiến hành xem xét, đánh giá lại các thuật toán, phát hiện các điểm chưa hoàn thiện, phát triển và tinh chỉnh thuật toán nếu cần thiết Trong lĩnh vực thị giác máy và máy học, phương pháp thử nghiệm còn được vận dụng rất nhiều để đánh giá sự ảnh hưởng và tác động của các tham số liên quan trong thuật toán đề xuất Một hệ thống thị giác máy bền vững phải ít lệ thuộc vào sự thay đổi của các tham số hệ thống, có khả năng tổng quát hóa cao, bền vững với các loại nhiễu, sự thay đổi và sự đa dạng của dữ liệu 2 1 Tổng quan tình hình nghiên cứu Sự phát triển của các mạng nơron nhân chập CNN (convolutional neural network) đã được ứng dụng để giải quyết nhiều bài toán khó trong lĩnh vực thị giác máy tính như nhận dạng khuôn mặt, dò tìm đối tượng, xử lý tiếng nói, v v Tuy nhiên, các mạng CNN thường có nhược điểm về độ phức tạp tính toán Một trong những giải pháp tiềm năng là sử dụng các mạng xấp xỉ mạng CNN hay còn gọi là mạng nhân chập khả tách (separable convolution) Ý tưởng sử dụng các phép chập phân tách lần đầu tiên được giới thiệu trong (Sifre & Mallat, 2014) và sau đó đã được ứng dụng trong (Howard và cs , 2017, 2019; Sandler và cs , 2018) để phát hiện và phân loại đối tượng Trong bài báo này, phép toán tích chập thông thường được phân tích thành hai phép tích chập đơn giản hơn: tích chập theo chiều sâu (depthwise convolutions) và sau đó là tích chập điểm (pointwise convolutions) Phép chập theo chiều sâu chia một dữ liệu (tensor) đầu vào có dạng D×D×M thành M thành phần (mỗi thành phần có kích thước D×D×1) Mỗi thành phần này, sau đó được nhân chập với một bộ lọc có kích nhỏ (thường là 3×3×1), tạo ra M bản đồ đặc trưng (feature maps) có kích thước D×D×1 18 Số 05 (11/2022): 15 – 24 Bảng 1 So sánh giữa nhân chập truyền thống và nhân chập phân tách Lớp tích chập chuẩn Tích chập khả tách Input: D  D  M  Output: D  D  N Thuật toán: áp dụng bộ lọc tích chập trên tín hiệu đầu vào để tạo ra tín hiệu có kích thước đầu ra Cụ thể, bộ lọc tích chập sẽ có kích thước: 3  3  M  N (giả sử stride = 1 và spatial filter size: 3  3) Input: D  D  M  Output: D  D  N Thuật toán: Thực hiện 2 vòng tích chập sau: i) Depthwise convolution – Chia tín hiệu đầu vào thành M feature maps có kích thước: D  D  1 – Sử dụng M bộ lọc có kích thước: 3  3  1 (channel 1)để tạo ra M feature maps có kích thước D  D  1 – Ghép (concatenating) các feature maps ở trên thành một tensor có dạng: D  D  M ii) Pointwise convolution: – Áp dụng bộ lọc tích chập có kích thước: 1  1  M  N lên đầu ra của bước 1 để tạo ra tín hiệu cuối cùng: D  D  N Độ phức tạp tính toán : D  D  M  N  3  3 Độ phức tạp tính toán : – Depthwise convolution: D  D  M  3  3 – Pointwise convolution: D  D  M  N Tổng: D  D  M  (9+N)  giảm độ phức tạp từ 8 – 9 lần với kích thước mặt nạ lọc là 3  3 Độ chính xác : cao (do không có sự làm tròn) Độ chính xác : thấp do sử dụng dạng xấp xỉ của phép tích chập chuẩn Số lượng tham số : D  D  M  N  3  3 Số lượng tham số: D  D  M  (9+N) Overfitting : cao (do nhiều tham số) Overfitting : thấp (do ít tham số hơn) Do các phép nhân chập theo chiều sâu hoạt động riêng biệt trên các kênh đầu vào và do đó cần kết hợp các đầu ra để khai thác tốt hơn mối tương quan trực quan của các đặc trưng Phép tích chập điểm thực hiện công việc này bằng cách trước tiên ghép các feature maps này thành một tensor mới có dạng D×D×M, sau đó áp dụng phép nhân chập với bộ lọc có kích thước 1×1×M×N, tạo ra đầu ra cuối cùng là D×D×N (tức là N kênh đầu ra) Về mặt lý thuyết, phép tích chập phân tách giảm độ phức tạp tính toán từ 8 đến 9 lần so với bộ lọc thông thường khi sử dụng kích thước bộ lọc 3×3 nhưng độ chính xác cũng bị giảm đi một tỉ lệ nhỏ Bảng 1 so sánh hiệu quả của lớp nhân chập khả tách và lớp nhân chập chuẩn Tăng cường dữ liệu (data augmentation) là một kỹ thuật tối ưu hiệu năng huấn luyện mạng CNN trong trường hợp dữ liệu huấn luyện không đủ về mặt số lượng hoặc không đa dạng về nội dung, ngữ cảnh hoặc điều kiện môi trường thu nhận ảnh bị giới hạn Khi đó, các mô hình mạng CNN sau khi huấn luyện sẽ có xu hướng gặp phải vấn đề khả năng mở rộng hay tổng quát hóa (generlization) hoặc gặp phải vấn đề học quá nhớ (overfitting) Kết quả là mô hình CNN có thể cho kết quả khá tốt trong tập dữ liệu huấn luyện nhưng thường hoạt động không hiệu quả trong các ngữ cảnh thực tế Các kỹ thuật tăng cường dữ liệu truyền thống bao gồm: biến đổi ngẫu nhiên giá trị điểm ảnh, thay đổi độ bảo hòa, độ sáng, độ tương phản; biến đổi ngẫu nhiên hình học của ảnh như xoay, dịch chuyển, cắt ảnh Trong thời gian gần đây, nhiều kỹ thuật tăng cường dữ liệu hiện đại đã được đề xuất và chứng tỏ hiệu năng vượt trội khi huấn luyện các mô hình CNN, bao gồm: CutOut (DeVries & Taylor, 2017), MixUp (Zhang và cs , 2018), CutMix (Yun và cs , 2019) CutOut (DeVries & Taylor, 2017) là một kỹ thuật tăng cường dữ liệu bằng cách xóa bỏ một phần nội dung của bức ảnh bởi một mặt nạ hình vuông theo cách ngẫu nhiên Cụ thể, kích thước và vị trí của vùng bị xóa là được Số đặc biệt: Chuyển đổi số phục vụ phát triển kinh tế – xã hội Số 05 (11/2022): 15 – 24 19 xác định một cách ngẫu nhiên Toàn bộ nội dung bên trong mặt nạ xóa sẽ được gán màu đen Mục tiêu của CutOut nhằm tạo ra các dạng dữ liệu để huấn luyện mô hình mạng trở nên bền vững với các ngữ cảnh đối tượng bị che một phần trong thực tế Kỹ thuật MixUp được đề xuất trong (Zhang và cs , 2018) dùng để trộn dữ liệu và nhãn của hai ảnh với nhau theo công thức sau: ᵔ̃ =᷈ ᵔ ᵅ + (1 −᷈ )ᵔ ᵆ ᵕ̃ =᷈ ᵕ ᵅ + (1 −᷈ )ᵕ ᵆ Trong đó: l có giá trị có phạm vi [0, 1] và được lấy mẫu từ bản phân phối Beta, ᵔ ᵅ và ᵔ ᵆ là các ảnh đầu vào, ᵕ ᵅ và ᵕ ᵆ là các nhãn được mã hóa theo dạng chuỗi one-hot Các mạng nhân chập thường yếu trong việc học các mẫu có nhãn không chính xác (không đầy đủ) Do vậy, kỹ thuật này nhằm trộn nhãn của các mẫu lại để giúp hệ thống học bền vững hơn với các mẫu khó (hard samples) CutMix (Yun và cs , 2019) dùng để giải quyết vấn đề mất thông tin và kém hiệu quả trong các chiến lược DropOut (loại bỏ một phần các tham số để tránh hiện tượng overfitting) Thay vì loại bỏ các điểm ảnh và gán chúng bằng giá trị màu đen (đôi khi là các giá trị nhiễu của hàm Gaussian), CutMix sẽ thay thế vùng bị xóa bằng một vùng ảnh từ từ một hình ảnh khác Đồng thời, nhãn của dữ liệu tương ứng cũng được biến đổi theo một hàm tổ hợp tuyến tính với trọng số dựa trên số lượng các điểm ảnh bị thay thế 2 2 Lựa chọn mô hình mạng nhân chập học sâu Các mô hình mạng nơron nhân chập có khả năng học tự động các đặc trưng của đối tượng để thực hiện các nhiệm vụ như phân lớp hoặc dò tìm đối tượng với hiệu năng tương đương hoặc vượt con người trong một số ngữ cảnh Tuy nhiên, các mô hình này thường yêu cầu một lượng lớn dữ liệu để huấn luyện và học Trong nhiều ngữ cảnh, chúng ta không thể thu thập được lượng dữ liệu cần thiết để huấn luyện mô hình và do vậy sẽ đối mặt với các vấn đề về Underfitting (học chưa đủ), dẫn đến hiệu năng mạng hạn chế Một giải pháp tuyệt vời cho vấn đề trên đó là học chuyển tiếp (transfer learning) Về cơ bản, kỹ thuật này liên quan đến việc sử dụng một mạng CNN đã được huấn luyện (Pre-trained model) để giải quyết bài toán khác có liên quan Chúng tôi sử dụng kiến trúc mạng MobileNetV3 (Howard và cs , 2019) làm kiến trúc mạng để huấn luyện mô hình nhận dạng các loài động thực vật quý bởi tính ưu việt của mô hình này cả về tốc độ xử lý và độ chính xác MobileNetV3 là phiên bản cải tiến của hai mô hình MobileNetV2 và MobileNetV1 với số lượng tham số giảm gần 50% Điểm cải tiến của MobileNetV3 so với MobileNetV2 đó là việc sử dụng bổ sung cấu trúc Squeeze-and-Excite (Hu và cs , 2018) trong mỗi khối cơ bản của MobileNetV2 để học được nhiều đặc trưng ngữ cảnh hơn (Hình 1) Ngoài ra, mạng MobileNetV3 được xây dựng bằng cách áp dụng kỹ thuật tìm kiếm mạng NAS (Tan và cs , 2019) để tối ưu kiến trúc mạng tổng thể trên cơ sở tối ưu hóa các khối mạng thành phần Hình 1 Kiến trúc khối cơ bản trong MobileNetV3 (Howard và cs , 2019) 20 Số 05 (11/2022): 15 – 24 2 3 Kỹ thuật tăng cường dữ liệu Để giảm hậu quả của vấn đề học quá nhớ và tăng khả năng tổng quát hóa của mô hình, chúng tôi áp dụng các phép tăng cường dữ liệu sau: – Các phép biến đổi giá trị điểm ảnh: Để tạo ra sự đa dạng về điều kiện sáng hay màu sắc của ảnh, một hàm biến đổi ngẫu nhiên sẽ được tạo ra để thay đổi giá trị mầu của ảnh đầu vào Giả sử ảnh đầu vào là ảnh màu trong hệ RGB, khi đó mỗi thành phần mầu sẽ được biến đổi ngẫu nhiên về giá trị điểm ảnh Các phép biến đổi được sử dụng bao gồm: biến đổi ngẫu nhiên độ tương phản, màu, độ bão hòa, độ sáng, thêm nhiễu (noise) – Biến đổi hình học của ảnh: Các phép biến đổi hình học được áp dụng ngẫu nhiên lên ảnh đầu vào nhằm tạo ra các đối tượng có sự phong phú về hình dáng mô phỏng phép chiếu phối cảnh trong thực tế Các phép biến đổi phổ biến gồm xoay ảnh, dịch chuyển, cắt ảnh – Các phép biến đổi hiện đại, gồm: CutMix (Yun và cs , 2019), MixUp (Zhang và cs , 2018) (Hình 2) Hình 2 Kết quả ảnh sau khi áp dụng tăng cường dữ liệu: CutMix (Yun và cs , 2019), MixUp (Zhang và cs , 2018) 2 4 Kỹ thuật làm trơn nhãn (Label Smoothing) Kỹ thuật làm trơn nhãn được nghiên cứu và ứng dụng gần đây trong các mô hình mạng nơron học sâu (Goodfellow và cs , 2016; Guo và cs , 2017; Müller và cs , 2019; Pereyra và cs , 2022; Szegedy và cs , 2016) nhằm khắc phục các vấn đề về tự tin quá (overconfidence) và nâng cao khả năng tổng quát hóa cho mô hình khi sử dụng thực tế Giả sử là vector nhãn của các đối tượng ở dạng biểu diễn one–hot (nghĩa là nếu có lớp đối tượng thì là vector có phần tử trong đó chỉ số tương ứng với nhãn của đối tượng sẽ có giá trị 1 , các vị trí còn lại có giá trị 0 ) Để biến đổi thành ℎ biểu diễn nhãn mềm (label smoothing), chúng ta áp dụng công thức biến đổi như sau: ᵕ ᵏᵉᵋᵋᵐℎ = (1 − ᶾ) ∗ ᵕ ℎᵋᵐ + ᶾ/ᵾ Trong đó: ᶾ là hệ số mờ và thường được chọn là ᶾ = 0 1 Kỹ thuật làm trơn nhãn đặc biệt hữu ích cho các bài toán phân lớp đối tượng và mô hình dự đoán sử dụng hàm Softmax để tạo ra chuỗi giá trị biểu diễn xác suất của mỗi lớp đối tượng Chẳng hạn, nếu ᵾ = 10 và ᶾ = 0 1 , các vector biểu diễn đối tượng có nhãn ở vị trí thứ 5 sẽ được tạo ra như sau: ᵕ ℎᵋᵐ = [0, 0, 0, 0, 1, 0, 0, 0, 0, 0 ] ᵕ ᵏᵉᵋᵋᵐℎ = [0 01, 0 01, 0 01, 0 01, 0 91, 0 01, 0 01, 0 01, 0 01, 0 01, 0 01, 0 01] 2 5 Kỹ thuật học chuyển tiếp Để hạn chế vấn đề học quá nhớ (overfitting) và khai thác hiệu quả các mạng đã được huấn luyện sẵn trên tập dữ liệu có kích thước lớn, chúng tôi áp dụng kỹ thuật học chuyển tiếp (transfer learning) trên mạng MobileNetV3 Cụ thể, chúng tôi sử dụng mạng MobileNetV3 đã được tiền huấn luyện trên tập dữ liệu ImageNet (Russakovsky và cs , 2015) (chứa khoảng 15 triệu ảnh thuộc 1000 lớp đối tượng khác nhau) Giả sử ảnh Số đặc biệt: Chuyển đổi số phục vụ phát triển kinh tế – xã hội Số 05 (11/2022): 15 – 24 21 đầu vào có kích thước: 224  224  3, quy trình áp dụng kỹ thuật học chuyển tiếp trên mạng MobileNetV3 được thực hiện như sau: – Pha 1: Trích chọn đặc trưng và tạo một bộ phân lớp mới (classfication head): + Khởi tạo mô hình: model = MobileNetV3 (loại trừ tầng phân lớp ở đỉnh mạng) và đóng băng (khóa các tham số học) các tầng của mô hình hiện tại + Thêm một tầng nhân chập CNN với các tham số: filters = 2*NUM_CLASSES, kernel_size = 3, strides = 2 Trong đó: NUM_CLASSES là tổng số lớp đối tượng cần nhận dạng, filters là số bộ lọc, kernel_size là kích thước bộ lọc và strides là bước nhảy của bộ lọc + Thêm một tầng nhân chập CNN với các tham số: filters = NUM_CLASSES, kernel_size = 3, strides = 2 + Thêm một tầng Pooling để thu được vector chứa NUM_CLASSES giá trị tương ứng với giá trị xác suất của mỗi lớp đối tượng bằng cách áp dụng hàm GlobalAveragePooling2D của TensorFlow 1 + Áp dụng kỹ thuật làm trơn nhãn (smooth labeling) để tăng tính tổng quát hóa của mô hình học và hạn chế vấn đề mô hình tự tin quá khi đưa ra các giá trị xác suất biểu diễn các lớp đối tượng dự đoán + Huấn luyện mô hình (chính xác là các tầng mới thêm) trên tập dữ liệu động thực vật quý hiếm với các tham số: base_learning_rate = 0 001, epochs = 25 Trong pha 1 trình bày ở trên, để chuyển tiếp mô hình ban đầu dùng để nhận dạng 1000 đối tượng thành mô hình mới chỉ nhận dạng số lớp đối tượng là NUM_CLASSES (NUM_CLASSES = 56 trong bài báo này), chúng tôi đã loại bỏ hoàn toàn tầng dự đoán của mô hình gốc (dùng để dự đoán 1000 nhãn) và thay bằng 3 tầng mới gồm: 2 tầng nhân chập và một tầng Pooling để phục vụ bài toán mới là nhận dạng NUM_CLASSES lớp đối tượng 1 https://www tensorflow org/api_docs/python/tf/ keras/layers/GlobalAveragePooling2D – Pha 2: Làm mịn (fine-tuning): Sau khi kết thúc pha 1, chúng ta tiếp tục áp dụng pha 2 để thực hiện làm mịn mô hình bằng cách huấn luyện lại một số tầng ở phía cuối mạng bằng cách sử dụng tham số học (learning_rate) khá nhỏ để đảm bảo không biến đổi nhiều các trọng số đã học được từ mô hình cơ sở Các kết quả thực nghiệm gần đây 2 chỉ ra việc áp dụng pha 2 sẽ giúp cải thiện đáng kể độ chính xác và hiệu năng của mô hình Trong phần thử nghiệm, chúng tôi cũng sẽ đánh giá hiệu quả của việc áp dụng bước làm mịn này Các bước chính của pha 2 bao gồm như sau: + Mở khóa các tầng thứ ᵿ của mô hình mạng Trong thực nghiệm, chúng tôi chọn ᵿ = 200 dựa vào kết quả thực nghiệm trên cơ sở xem xét tổng số tầng của mạng cơ sở là khoảng 356 tầng + Huấn luyện mô hình trên tập dữ liệu động, thực vật quý hiếm với các tham số: learning_rate = 0 0001, epochs = 25 3 KẾT QUẢ VÀ THẢO LUẬN 3 1 Xây dựng dữ liệu huấn luyện Dữ liệu huấn luyện được chúng tôi thu thập là dữ liệu ảnh của 35 loài động vật và 21 loài thực vật với tổng số ảnh gần 25000 (NUM_CLASSES = 56) Mục đích của việc thu thập ảnh là để huấn luyện các mạng CNN phân lớp phục vụ nhận dạng danh tính của mỗi loài Do vậy, trong mỗi ảnh, chúng tôi thu thập ảnh chứa một loài với nhiều vị trí khác nhau (như thân, đuôi, đầu với động vật hoặc gốc, rễ, vân lá, thân cây với thực vật) Ngoài ra, các ảnh được chụp ở các góc độ khác nhau, điều kiện ánh sáng khác nhau và tại nhiều thời điểm trong năm để có thể bao quát được các giai đoạn phát triển của loài (ví dụ, các loài lan khi chưa nở hoa và sau khi nở hoa) Quá trình tiền xử lý dữ liệu gồm các bước như sau: – Chuẩn hóa kích thước ảnh về: 224  224  3 2 https://keras io/guides/transfer_learning/ 22 Số 05 (11/2022): 15 – 24 – Chuyển đổi định dạng ảnh về chuẩn JPEG (đuôi: * jpg) – Quá trình gán nhãn được thực hiện bởi các chuyên gia của ngành kiểm lâm (Chi cục Kiểm lâm Thanh Hóa) Dữ liệu sau tiền xử lý được chia thành ba tập: Training, Validation và Testing với tỉ lệ 80%, 5% và 15% 3 2 Kết quả huấn luyện Kết quả huấn luyện mô hình (pha 1 và pha 2) của hàm mục tiêu (Loss Functions) được trình bày trực quan trên Hình 3 Hình 3 Kết quả hàm mục tiêu trên tập Training và Validation Quan sát Hình 3, chúng ta thấy giá trị hàm mục tiêu trên tập huấn luyện cao hơn hẳn so với trên tập Validation Điều này khá ngạc nghiên nhưng được giải thích bởi tác dụng của các hàm tăng cường dữ liệu nâng cao CutMix và MixUp Trong quá trình huấn luyện, các ảnh trong tập Training được áp dụng các phép tăng cường dữ liệu nhưng điều này không đúng trên tập Validation Do vậy, các ảnh huấn luyện sau tăng cường có xu hướng trở thành các mẫu khó (hard samples) và cưỡng ép mô hình phải học các mẫu khó này để có thể trở nên thông minh hơn, bền vững hơn khi hoạt động thực tế Quan sát Hình 3, chúng ta cũng phát hiện một điểm nổi bật đó là hiệu quả của áp dụng hai pha học chuyển tiếp là khá rõ ràng Khi kết thúc pha 1, đồ thị hàm mục tiêu dừng lại ở điểm 1 2 (tập Validation) Sau khi áp dụng pha 2, đồ thị hàm mục tiêu tiếp tục giảm sâu chứng tỏ quá trình học diễn ra rất hiệu quả và tối ưu 3 3 Kết quả thực nghiệm trên tập Testing Để đánh giá kết quả thực nghiệm trên tập Testing, chúng tôi áp dụng độ đo chuẩn là độ chính xác (Accuracy) được tính như sau: Accuracy(i) = Tổng số ảnh nhận dạng đúng của lớp đối tượng (i) / Tổng số ảnh của lớp đối tượng (i); Trong đó: một ảnh được coi là nhận dạng đúng nếu nó chứa đối tượng X và hệ thống trả về kết quả dự đoán là X với xác suất đủ lớn Đầu ra của mô hình nhận dạng là nhãn dự đoán của đối tượng và xác suất dự đoán đối tượng đó Giá trị xác suất nằm trong đoạn [0, 1] Vì vậy, chúng tôi quy định hệ thống nhận dạng đúng nếu xác suất nhận dạng phải đủ lớn (hay lớn hơn một ngưỡng cho trước) Trong các kết quả thử nghiệm sau, chúng tôi đặt ngưỡng nhận dạng được là 0 5 (hay 50%) Kết quả thực nghiệm trên hệ thống cho thấy độ chính xác trung bình của nhận dạng 56 loài động, thực vật là 82% Nếu không sử dụng ngưỡng nhận dạng (ngưỡng nhận dạng = 0), độ chính xác trung bình là 96 1% Bảng 2 so sánh kết quả nhận dạng của một số hệ thống tiêu biểu cho bài toán nhận dạng động, thực vật quý hiếm khi không dùng ngưỡng nhận dạng Bảng 2 So sánh độ chính xác của một số hệ thống khác nhau Hệ thống Độ chính xác Ghi chú MobileNetV2 (Howard và cs , 2017) 91 1% Áp dụng transfer learning trên tập dữ liệu chung InceptionV3 (Szegedy và cs , 2016) 95 0% Hệ thống đề xuất 96 1% Chúng tôi cũng triển khai mô hình nhận dạng trên môi trường thiết bị di động (Android và iOS) bằng cách chuyển đổi mô hình nhận dạng sử dụng công cụ Số đặc biệt: Chuyển đổi số phục vụ phát triển kinh tế – xã hội Số 05 (11/2022): 15 – 24 23 TensorFlowJS 3 Mục đích của thử nghiệm này nhằm đánh giá thời gian xử lý trên các thiết bị di động của mô hình Kết quả thực nghiệm trên các máy Andoird (LG G8 Thin Q) và iOS (iPhone XR) cho thấy để nhận dạng một ảnh có kích thước bất kỳ thì thời gian trung bình khoảng 350 ms trong đó khoảng 50% thời gian được sử dụng để thực hiện phép chuẩn hóa kích thước ảnh về 224×224 Như vậy, mô hình chỉ cần khoảng 175 ms để hoàn thành việc dự đoán nhãn của ảnh Đây là tốc độ xử lý rất hiệu quả, phù hợp với yêu cầu thời gian thực khi sử dụng trong thực tế Hình 4 Giao diện một số chức năng chính của ứng dụng trên iOS 4 KẾT LUẬN Trong bài báo này, chúng tôi xây dựng hệ thống nhận dạng động, thực vật quý hiếm ứng dụng mạng CNN học sâu kết hợp nhiều kỹ thuật học tối ưu bao gồm: học chuyển tiếp, làm trơn nhãn và tăng cường dữ liệu Hệ thống sử dụng kiến trúc mạng MobileNetV3 và sử dụng mô hình đã được tiền huấn luyện (pre-trained) trên tập dữ liệu ImageNet Chúng tôi áp dụng các kỹ thuật học tối ưu để tiếp tục cải tiến mô hình cho bài toán nhận dạng động thực vật quý hiếm Kết quả huấn luyện cho thấy hệ thống có tính tổng quát cao, có độ chính xác cao và đặc biệt thời gian xử 3 https://www tensorflow org/js lý nhanh Hệ thống đã được triển khai xây dựng thành các ứng dụng đặc thù trên iOS và Android phục vụ công tác nghiệp vụ của ngành kiểm lâm Trong các nghiên cứu tiếp theo, chúng tôi tiếp tục tăng cường dữ liệu và hoàn thiện ứng dụng để có thể triển khai rộng cho các đơn vị kiểm lâm phạm vi toàn quốc LỜI CẢM ƠN Bài báo này được tài trợ bởi đề tài khoa học công nghệ cấp tỉnh “Xây dựng phần mềm nhận dạng nhanh một số loài động, thực vật nguy cấp, quý hiếm phục vụ công tác quản lý, bảo vệ rừng và bảo tồn đa dạng sinh học trên địa bàn tỉnh Thanh Hóa”, 2020 – 2022 24 Số 05 (11/2022): 15 – 24 TÀI LIỆU THAM KHẢO DeVries, T , & Taylor, G W (2017) Improved Regularization of Convolutional Neural Networks with Cutout (arXiv:1708 04552) arXiv Goodfellow, I , Bengio, Y , & Courville, A (2016) Deep Learning (Illustrated edition) The MIT Press Guo, C , Pleiss, G , Sun, Y , & Weinberger, K Q (2017) On Calibration of Modern Neural Networks Proceedings of the 34th International Conference on Machine Learning , 1321–1330 Howard, A , Sandler, M , Chen, B , Wang, W , Chen, L -C , Tan, M , Chu, G , Vasudevan, V , Zhu, Y , Pang, R , Adam, H , & Le, Q (2019) Searching for MobileNetV3 , 1314–1324 https://doi org- /10 1109/ICCV 2019 00140 Howard, A , Zhu, M , Chen, B , Kalenichenko, D , Wang, W , Weyand, T , Andreetto, M , & Adam, H (2017) MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications (arXiv:1704 04861) arXiv Hu, J , Shen, L , & Sun, G (2018) Squeeze- and-Excitation Networks 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition , 7132–7141 https://doi - org/10 1109/CVPR 2018 00745 Miao, Z , Gaynor, K M , Wang, J , Liu, Z , Muellerklein, O , Norouzzadeh, M S , McInturff, A , Bowie, R C K , Nathan, R , Yu, S X , & Getz, W M (2019) Insights and approaches using deep learning to classify wildlife Scientific Reports , 9 (1), Art 1 https://doi org- /10 1038/s41598-019-44565-w Müller, R , Kornblith, S , & Hinton, G E (2019) When does label smoothing help? Advances in Neural Information Processing Systems , 32 Pereyra, G , Tucker, G , Chorowski, J , Kaiser, L , & Hinton, G (2022) Regularizing Neural Networks by Penalizing Confident Output Distributions Russakovsky, O , Deng, J , Su, H , Krause, J , Satheesh, S , Ma, S , Huang, Z , Karpathy, A , Khosla, A , Bernstein, M , Berg, A C , & Fei-Fei, L (2015) ImageNet Large Scale Visual Recognition Challenge International Journal of Computer Vision , 115 (3), 211–252 https://doi org/10 1007- /s11263-015-0816-y Sandler, M , Howard, A , Zhu, M , Zhmoginov, A , & Chen, L -C (2018) MobileNetV2: Inverted Residuals and Linear Bottlenecks , 4510–4520 https://doi - org/10 1109/CVPR 2018 00474 Sifre, L , & Mallat, S (2014) Rigid-Motion Scattering for Texture Classification [PhD Thesis, arXiv] http://arxiv org/- abs/1403 1687 Szegedy, C , Vanhoucke, V , Ioffe, S , Shlens, J , & Wojna, Z (2016) Rethinking the Inception Architecture for Computer Vision , 2818–2826 https://doi - org/10 1109/CVPR 2016 308 Tan, M , Chen, B , Pang, R , Vasudevan, V , Sandler, M , Howard, A , & Le, Q V (2019) MnasNet: Platform-Aware Neural Architecture Search for Mobile 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) , 2815–2823 https://doi org/10 1109/CVP- R 2019 00293 Willi, M , Pitman, R T , Cardoso, A W , Locke, C , Swanson, A , Boyer, A , Veldthuis, M , & Fortson, L (2019) Identifying animal species in camera trap images using deep learning and citizen science Methods in Ecology and Evolution , 10 (1), 80–91 https://doi org/- 10 1111/2041-210X 13099 Yun, S , Han, D , Chun, S , Oh, S J , Yoo, Y , & Choe, J (2019) CutMix: Regularization Strategy to Train Strong Classifiers With Localizable Features , 6022–6031 https://doi org/10 1109/ICCV 2019 00612 Zhang, H , Cisse, M , Dauphin, Y N , & Lopez-Paz, D (2018) Mixup: Beyond Empirical Risk Minimization International Conference on Learning Representations 2018, Vancouver Convention Center, Vancouver, BC, Canada

ỨNG DỤNG TRÍ TUỆ NHÂN TẠO THÚC ĐẨY CHUYỂN ĐỔI SỐ TRONG LĨNH VỰC KIỂM LÂM Phạm Thế Anh1*, Trịnh Thị Anh Loan1, Nguyễn Tuấn Anh2 Trường Đại học Hồng Đức, tỉnh Thanh Hóa Chi cục Kiểm lâm Thanh Hóa, tỉnh Thanh Hóa * Email: phamtheanh@hdu.edu.vn Ngày nhận bài: 05/9/2022 Ngày nhận sửa sau phản biện: 10/11/2022 Ngày chấp nhận đăng: 14/11/2022 TÓM TẮT Chuyển đổi số tác động mạnh mẽ đến lĩnh vực đóng vai trị quan trọng thúc đẩy phát triển nhanh bền vững kinh tế – xã hội Nhằm đẩy mạnh chuyển đổi số lĩnh vực kiểm lâm, báo nghiên cứu ứng dụng công nghệ trí tuệ nhân tạo thiết bị di động (mobile app) để giải hiệu toán nhận dạng lồi động thực vật q phục vụ cơng tác nghiệp vụ ngành kiểm lâm Bài báo sử dụng mơ hình mạng nơron nhân chập MobileNetV3 thơng qua kỹ thuật học chuyển tiếp (transfer learning) để tối ưu thời gian xử lý nâng cao độ xác nhận dạng Ngồi ra, báo tìm hiểu, nghiên cứu kỹ thuật tăng cường liệu (data augmentation) đại làm trơn nhãn (label smoothing) để nâng cao hiệu mơ hình đưa vào sử dụng thực tế Kết nhận dạng cho thấy hệ thống hoạt động hiệu thiết bị di động (Android iOS), đồng thời cho độ xác nhận dạng cao Từ khóa: cutout, deep learning, mixup, MobileNetV3 AN APPLICATION OF ARTIFICIAL INTELLIGENCE FOR BOOSTING DIGITAL TRANSFORMATION IN THE FIELD OF FOREST MANAGEMENT ABSTRACT Digital transformation has been strongly affecting many factors of different fields and is a crucial tool to enable the fast and sustainable development of economy and the modern society This paper focuses on studying and applying artificial intelligence, specifically its sub-domain in deep learning, to create a case study of digital transformation in the area of forest management with a particular emphasis on solving the problem of animal and plant recognition Specifically, the paper proposes using the MobileNetV3 as the backbone network because of its advantages in efficiency and accuracy Following that, optimized learning techniques such as soft labeling, data augmentation, and transfer learning were used to improve generality and performance Experimental results showed that the model performs well in terms of both recognition accuracy and inference time in comparison with other methods Finally, we have developed an application on mobile platforms (iOS and Android) and the deployment test showed promising performance Keywords: cutout, deep learning, mixup, MobileNetV3 Số 05 (11/2022): 15 – 24 15 ĐẶT VẤN ĐỀ Trong năm gần đây, giới chứng kiến phát triển mạnh mẽ công nghệ thông tin (CNTT), tập trung chủ yếu vào công nghệ lõi cách mạng công nghiệp lần thứ tư (CMCN 4.0) như: trí tuệ nhân tạo (artificial intelligence hay AI), mạng Internet vạn vật (IoT), chuỗi khối (block chain), thực tế ảo (VR), v.v Đặc biệt, trí tuệ nhân tạo (AI) lên xu phát triển tất yếu xã hội đại, định đến thành công hay thất bại doanh nghiệp, yếu tố quan trọng để định hướng phát triển doanh nghiệp việc cung cấp dịch vụ, sản phẩm chất lượng cao cho khách hàng Trên phương diện vĩ mơ, AI đóng góp nhiều vào thúc đẩy tăng trưởng kinh tế – xã hội, giúp giải nhiều toán nan giải nhiều lĩnh vực chủ chốt quan trọng quân sự, y tế, nông nghiệp, kiểm lâm, giáo dục, v.v Những tác động ảnh hưởng AI phát triển kinh tế – xã hội diễn quy mơ tồn cầu, khắp quốc gia giới Tuy nhiên, thành công AI phụ thuộc nhiều vào điều kiện cụ thể lĩnh vực ứng dụng, điều kiện kinh tế vùng miền, phát triển sở hạ tầng, hỗ trợ doanh nghiệp viễn thông công nghệ, đặc biệt định hướng chiến lược phát triển nhà lãnh đạo Trong viết này, tác giả nghiên cứu ứng dụng công nghệ AI để giải tốn đặc thù ngành kiểm lâm xây dựng ứng dụng hỗ trợ nhận dạng lồi động thực vật q hiếm, nguy cấp nhằm đóng góp vào q trình bảo vệ bảo tồn thiên nhiên góp phần thúc đẩy chuyển đổi số lĩnh vực Việt Nam quốc gia có nhiều lồi động thực vật q nguy cấp sách đỏ cần bảo vệ Tuy nhiên, nay, số loài động thực vật quý trước ghi nhận địa bàn phạm vi nước tuyệt chủng địa phương tình trạng khai thác trái phép, săn bắn, bẫy bắt mức, sinh cảnh sống làm suy giảm số lượng loài, cá thể địa bàn địa phương (Thanh Hóa, Ninh Bình, Nghệ An) Trong năm 16 Số 05 (11/2022): 15 – 24 gần đây, quan tâm Chính phủ ngành liên quan có nhiều chương trình, dự án bảo vệ, bảo tồn phát triển loài động, thực vật triển khai địa bàn tỉnh Thanh Hóa, đặc biệt khu rừng đặc dụng, khu vực có sinh cảnh sống chủ yếu lồi động, thực vật nguy cấp, quý hiếm, có lồi ưu tiên bảo vệ Do đó, việc xây dựng ứng dụng phần mềm nhận dạng nhanh loài động, thực vật rừng nguy cấp, quý, có ý nghĩa quan trọng lĩnh vực kiểm lâm nhằm bảo vệ loài động thực vật quý Trên sở phân tích, đánh giá phần mềm tra cứu nhận dạng động thực vật quý (Miao cs., 2019; Willi cs., 2019), chúng tơi nhận thấy phần mềm kể có nhược điểm đơn điệu hiệu (chỉ hỗ trợ theo nhóm đối tượng động vật, thực vật, yêu cầu kiến thức chuyên môn, v.v.) Những nhược điểm gây trở ngại lớn cho nhà khoa học, sinh thái học, quan chức đặc biệt người dân tham gia vào trình theo dõi động, thực vật hoang dã mơi trường mở mà khơng địi hỏi nhiều kiến thức chuyên ngành Ứng dụng thành tựu gần cách mạng công nghiệp 4.0 (đặc biệt cơng nghệ trí tuệ nhân tạo, thị giác máy), báo xây dựng hệ thống tra cứu, nhận diện số loài động, thực vật quý hiếm, cần bảo tồn đảm bảo độ xác cao thời gian nhận dạng, hoạt động hiệu thiết bị di động không cần kết nối internet Ngồi ra, hệ thống sử dụng công cụ tin cậy hiệu để hỗ trợ đội ngũ cán kiểm lâm thực nghiệp vụ bảo vệ rừng động, thực vật q Các đóng góp báo gồm: (i) xây dựng hệ thống mạng nơron học sâu dựa vào mạng MobileNetV3 cách áp dụng kỹ thuật học chuyển tiếp; (ii) áp dụng kỹ thuật tối ưu tăng cường liệu làm trơn nhãn để cải thiện hiệu huấn luyện mơ hình; (iii) xây dựng ứng dụng mơi trường di động tích hợp mơ hình nhận dạng huấn luyện nhằm hỗ trợ người dùng tra cứu, nhận dạng nhanh loài động, thực vật quý Số đặc biệt: Chuyển đổi số phục vụ phát triển kinh tế – xã hội PHƯƠNG PHÁP NGHIÊN CỨU Bài báo sử dụng hai phương pháp nghiên cứu là: phương pháp phân tích tổng hợp lý thuyết phương pháp nghiên cứu thực nghiệm Cụ thể, áp dụng triển khai quy trình nghiên cứu sau: – Tìm hiểu tổng quan cơng nghệ, phương pháp xây dựng mạng nơron học sâu có phân tích ưu nhược điểm giải pháp tồn – Đề xuất giải pháp, cải tiến thiết kế thuật giải – Cài đặt đánh giá/so sánh hiệu giải pháp đề xuất với giải pháp khác – Sử dụng sở liệu chuẩn (được cung cấp cộng đồng nhà khoa học chuyên ngành) phương pháp/quy trình đánh giá chuẩn để phân tích so sánh tính hiệu giải pháp đề xuất Để giải toán đặt trên, cần thiết phải kết hợp phương pháp nghiên cứu lý thuyết nghiên cứu thực nghiệm Phương pháp nghiên cứu lý thuyết vận dụng để hình thành ý tưởng chính, hồn thiện ý tưởng, xây dựng mẫu/quy trình nghiên cứu hay mơ hình khái niệm, thiết kế kiến trúc mạng tích chập học sâu, phân tích đánh giá ưu nhược điểm thành phần mạng phương diện độ phức tạp tính tốn tính dự đốn mạng Phương pháp nghiên cứu thực nghiệm sau áp dụng để xây dựng thử nghiệm (experiments), lựa chọn tập liệu phục vụ đánh giá kiểm thử (benchmark datasets), lựa chọn giao thức (evaluation protocol) tiêu chuẩn (metrics, criteria) để đánh giá thử nghiệm Các kết thử nghiệm nhiều tình mâu thuẫn với mơ hình khái niệm Số 05 (11/2022): 15 – 24 thuật giải đề xuất, xây dựng Trong trường hợp đó, chúng tơi tiến hành xem xét, đánh giá lại thuật toán, phát điểm chưa hồn thiện, phát triển tinh chỉnh thuật tốn cần thiết Trong lĩnh vực thị giác máy máy học, phương pháp thử nghiệm vận dụng nhiều để đánh giá ảnh hưởng tác động tham số liên quan thuật toán đề xuất Một hệ thống thị giác máy bền vững phải lệ thuộc vào thay đổi tham số hệ thống, có khả tổng quát hóa cao, bền vững với loại nhiễu, thay đổi đa dạng liệu 2.1 Tổng quan tình hình nghiên cứu Sự phát triển mạng nơron nhân chập CNN (convolutional neural network) ứng dụng để giải nhiều tốn khó lĩnh vực thị giác máy tính nhận dạng khn mặt, dị tìm đối tượng, xử lý tiếng nói, v.v Tuy nhiên, mạng CNN thường có nhược điểm độ phức tạp tính tốn Một giải pháp tiềm sử dụng mạng xấp xỉ mạng CNN hay gọi mạng nhân chập khả tách (separable convolution) Ý tưởng sử dụng phép chập phân tách lần giới thiệu (Sifre & Mallat, 2014) sau ứng dụng (Howard cs., 2017, 2019; Sandler cs., 2018) để phát phân loại đối tượng Trong báo này, phép tốn tích chập thơng thường phân tích thành hai phép tích chập đơn giản hơn: tích chập theo chiều sâu (depthwise convolutions) sau tích chập điểm (pointwise convolutions) Phép chập theo chiều sâu chia liệu (tensor) đầu vào có dạng D×D×M thành M thành phần (mỗi thành phần có kích thước D×D×1) Mỗi thành phần này, sau nhân chập với lọc có kích nhỏ (thường 3×3×1), tạo M đồ đặc trưng (feature maps) có kích thước D×D×1 17 Bảng So sánh nhân chập truyền thống nhân chập phân tách Lớp tích chập chuẩn Input: DDM  Output: DDN Thuật toán: áp dụng lọc tích chập tín hiệu đầu vào để tạo tín hiệu có kích thước đầu Cụ thể, lọc tích chập có kích thước: 33MN (giả sử stride = spatial filter size: 33) Độ phức tạp tính tốn: DDM N33 Độ xác: cao (do khơng có làm trịn) Input: DDM  Output: DDN Thuật tốn: Thực vịng tích chập sau: i) Depthwise convolution – Chia tín hiệu đầu vào thành M feature maps có kích thước: DD1 – Sử dụng M lọc có kích thước: 331 (channel 1)để tạo M feature maps có kích thước DD1 – Ghép (concatenating) feature maps thành tensor có dạng: DDM ii) Pointwise convolution: – Áp dụng lọc tích chập có kích thước: 11MN lên đầu bước để tạo tín hiệu cuối cùng: DDN Độ phức tạp tính tốn: – Depthwise convolution: DDM33 – Pointwise convolution: DDMN Tổng: DDM(9+N)  giảm độ phức tạp từ – lần với kích thước mặt nạ lọc 33 Độ xác: thấp sử dụng dạng xấp xỉ phép tích chập chuẩn Số lượng tham số: DDMN33 Số lượng tham số: DDM(9+N) Overfitting: cao (do nhiều tham số) Overfitting: thấp (do tham số hơn) Do phép nhân chập theo chiều sâu hoạt động riêng biệt kênh đầu vào cần kết hợp đầu để khai thác tốt mối tương quan trực quan đặc trưng Phép tích chập điểm thực cơng việc cách trước tiên ghép feature maps thành tensor có dạng D×D×M, sau áp dụng phép nhân chập với lọc có kích thước 1×1×M×N, tạo đầu cuối D×D×N (tức N kênh đầu ra) Về mặt lý thuyết, phép tích chập phân tách giảm độ phức tạp tính tốn từ đến lần so với lọc thông thường sử dụng kích thước lọc 3×3 độ xác bị giảm tỉ lệ nhỏ Bảng so sánh hiệu lớp nhân chập khả tách lớp nhân chập chuẩn Tăng cường liệu (data augmentation) kỹ thuật tối ưu hiệu huấn luyện mạng CNN trường hợp liệu huấn luyện không đủ mặt số lượng không đa dạng nội dung, ngữ cảnh điều kiện mơi trường thu nhận ảnh bị giới hạn Khi đó, 18 Tích chập khả tách Số 05 (11/2022): 15 – 24 mơ hình mạng CNN sau huấn luyện có xu hướng gặp phải vấn đề khả mở rộng hay tổng quát hóa (generlization) gặp phải vấn đề học nhớ (overfitting) Kết mô hình CNN cho kết tốt tập liệu huấn luyện thường hoạt động không hiệu ngữ cảnh thực tế Các kỹ thuật tăng cường liệu truyền thống bao gồm: biến đổi ngẫu nhiên giá trị điểm ảnh, thay đổi độ bảo hòa, độ sáng, độ tương phản; biến đổi ngẫu nhiên hình học ảnh xoay, dịch chuyển, cắt ảnh Trong thời gian gần đây, nhiều kỹ thuật tăng cường liệu đại đề xuất chứng tỏ hiệu vượt trội huấn luyện mơ hình CNN, bao gồm: CutOut (DeVries & Taylor, 2017), MixUp (Zhang cs., 2018), CutMix (Yun cs., 2019) CutOut (DeVries & Taylor, 2017) kỹ thuật tăng cường liệu cách xóa bỏ phần nội dung ảnh mặt nạ hình vng theo cách ngẫu nhiên Cụ thể, kích thước vị trí vùng bị xóa Số đặc biệt: Chuyển đổi số phục vụ phát triển kinh tế – xã hội xác định cách ngẫu nhiên Toàn nội dung bên mặt nạ xóa gán màu đen Mục tiêu CutOut nhằm tạo dạng liệu để huấn luyện mơ hình mạng trở nên bền vững với ngữ cảnh đối tượng bị che phần thực tế Kỹ thuật MixUp đề xuất (Zhang cs., 2018) dùng để trộn liệu nhãn hai ảnh với theo công thức sau: ᵔ̃ = ᷈ᵔᵅ + (1 − ᷈)ᵔᵆ ᵕ̃ = ᷈ᵕᵅ + (1 − ᷈)ᵕᵆ Trong đó: l có giá trị có phạm vi [0, 1] lấy mẫu từ phân phối Beta, ᵔᵅ ᵔᵆ ảnh đầu vào, ᵕᵅ ᵕᵆ nhãn mã hóa theo dạng chuỗi one-hot Các mạng nhân chập thường yếu việc học mẫu có nhãn khơng xác (khơng đầy đủ) Do vậy, kỹ thuật nhằm trộn nhãn mẫu lại để giúp hệ thống học bền vững với mẫu khó (hard samples) CutMix (Yun cs., 2019) dùng để giải vấn đề thông tin hiệu chiến lược DropOut (loại bỏ phần tham số để tránh tượng overfitting) Thay loại bỏ điểm ảnh gán chúng giá trị màu đen (đôi giá trị nhiễu hàm Gaussian), CutMix thay vùng bị xóa vùng ảnh từ từ hình ảnh khác Đồng thời, nhãn liệu tương ứng biến đổi theo hàm tổ hợp tuyến tính với trọng số dựa số lượng điểm ảnh bị thay 2.2 Lựa chọn mơ hình mạng nhân chập học sâu Các mơ hình mạng nơron nhân chập có khả học tự động đặc trưng đối tượng để thực nhiệm vụ phân lớp dị tìm đối tượng với hiệu tương đương vượt người số ngữ cảnh Tuy nhiên, mơ hình thường u cầu lượng lớn liệu để huấn luyện học Trong nhiều ngữ cảnh, thu thập lượng liệu cần thiết để huấn luyện mơ hình đối mặt với vấn đề Underfitting (học chưa đủ), dẫn đến hiệu mạng hạn chế Một giải pháp tuyệt vời cho vấn đề học chuyển tiếp (transfer learning) Về bản, kỹ thuật liên quan đến việc sử dụng mạng CNN huấn luyện (Pre-trained model) để giải tốn khác có liên quan Chúng tơi sử dụng kiến trúc mạng MobileNetV3 (Howard cs., 2019) làm kiến trúc mạng để huấn luyện mơ hình nhận dạng lồi động thực vật q tính ưu việt mơ hình tốc độ xử lý độ xác MobileNetV3 phiên cải tiến hai mơ hình MobileNetV2 MobileNetV1 với số lượng tham số giảm gần 50% Điểm cải tiến MobileNetV3 so với MobileNetV2 việc sử dụng bổ sung cấu trúc Squeeze-and-Excite (Hu cs., 2018) khối MobileNetV2 để học nhiều đặc trưng ngữ cảnh (Hình 1) Ngồi ra, mạng MobileNetV3 xây dựng cách áp dụng kỹ thuật tìm kiếm mạng NAS (Tan cs., 2019) để tối ưu kiến trúc mạng tổng thể sở tối ưu hóa khối mạng thành phần Hình Kiến trúc khối MobileNetV3 (Howard cs., 2019) Số 05 (11/2022): 15 – 24 19 2.3 Kỹ thuật tăng cường liệu Để giảm hậu vấn đề học nhớ tăng khả tổng quát hóa mơ hình, chúng tơi áp dụng phép tăng cường liệu sau: – Các phép biến đổi giá trị điểm ảnh: Để tạo đa dạng điều kiện sáng hay màu sắc ảnh, hàm biến đổi ngẫu nhiên tạo để thay đổi giá trị mầu ảnh đầu vào Giả sử ảnh đầu vào ảnh màu hệ RGB, thành phần mầu biến đổi ngẫu nhiên giá trị điểm ảnh Các phép biến đổi sử dụng bao gồm: biến đổi ngẫu nhiên độ tương phản, màu, độ bão hòa, độ sáng, thêm nhiễu (noise) – Biến đổi hình học ảnh: Các phép biến đổi hình học áp dụng ngẫu nhiên lên ảnh đầu vào nhằm tạo đối tượng có phong phú hình dáng mơ phép chiếu phối cảnh thực tế Các phép biến đổi phổ biến gồm xoay ảnh, dịch chuyển, cắt ảnh – Các phép biến đổi đại, gồm: CutMix (Yun cs., 2019), MixUp (Zhang cs., 2018) (Hình 2) Hình Kết ảnh sau áp dụng tăng cường liệu: CutMix (Yun cs., 2019), MixUp (Zhang cs., 2018) 2.4 Kỹ thuật làm trơn nhãn (Label Smoothing) Kỹ thuật làm trơn nhãn nghiên cứu ứng dụng gần mơ hình mạng nơron học sâu (Goodfellow cs., 2016; Guo cs., 2017; Müller cs., 2019; Pereyra cs., 2022; Szegedy cs., 2016) nhằm khắc phục vấn đề tự tin (overconfidence) nâng cao khả tổng qt hóa cho mơ hình sử dụng thực tế Giả sử vector nhãn đối tượng dạng biểu diễn one–hot (nghĩa có lớp đối tượng vector có phần tử số tương ứng với nhãn đối tượng có giá trị 1, vị trí cịn lại có giá trị 0) Để biến đổi thành ℎ biểu diễn nhãn mềm (label smoothing), áp dụng công thức biến đổi sau: ᵕᵏᵉᵋᵋᵐℎ = (1 − ᶾ) ∗ ᵕℎᵋᵐ + ᶾ/ᵾ Trong đó: ᶾ hệ số mờ thường chọn ᶾ = 0.1 Kỹ thuật làm trơn nhãn đặc 20 Số 05 (11/2022): 15 – 24 biệt hữu ích cho tốn phân lớp đối tượng mơ hình dự đoán sử dụng hàm Softmax để tạo chuỗi giá trị biểu diễn xác suất lớp đối tượng Chẳng hạn, ᵾ = 10 ᶾ = 0.1, vector biểu diễn đối tượng có nhãn vị trí thứ tạo sau: ᵕℎᵋᵐ = [0, 0, 0, 0, 1, 0, 0, 0, 0, ] ᵕᵏᵉᵋᵋᵐℎ = [0.01, 0.01, 0.01, 0.01, 0.91, 0.01, 0.01, 0.01, 0.01, 0.01, 0.01, 0.01] 2.5 Kỹ thuật học chuyển tiếp Để hạn chế vấn đề học nhớ (overfitting) khai thác hiệu mạng huấn luyện sẵn tập liệu có kích thước lớn, áp dụng kỹ thuật học chuyển tiếp (transfer learning) mạng MobileNetV3 Cụ thể, sử dụng mạng MobileNetV3 tiền huấn luyện tập liệu ImageNet (Russakovsky cs., 2015) (chứa khoảng 15 triệu ảnh thuộc 1000 lớp đối tượng khác nhau) Giả sử ảnh Số đặc biệt: Chuyển đổi số phục vụ phát triển kinh tế – xã hội đầu vào có kích thước: 2242243, quy trình áp dụng kỹ thuật học chuyển tiếp mạng MobileNetV3 thực sau: – Pha 1: Trích chọn đặc trưng tạo phân lớp (classfication head): + Khởi tạo mơ hình: model = MobileNetV3 (loại trừ tầng phân lớp đỉnh mạng) đóng băng (khóa tham số học) tầng mơ hình + Thêm tầng nhân chập CNN với tham số: filters = 2*NUM_CLASSES, kernel_size = 3, strides = Trong đó: NUM_CLASSES tổng số lớp đối tượng cần nhận dạng, filters số lọc, kernel_size kích thước lọc strides bước nhảy lọc + Thêm tầng nhân chập CNN với tham số: filters = NUM_CLASSES, kernel_size = 3, strides = + Thêm tầng Pooling để thu vector chứa NUM_CLASSES giá trị tương ứng với giá trị xác suất lớp đối tượng cách áp dụng hàm GlobalAveragePooling2D TensorFlow1 + Áp dụng kỹ thuật làm trơn nhãn (smooth labeling) để tăng tính tổng qt hóa mơ hình học hạn chế vấn đề mơ hình tự tin đưa giá trị xác suất biểu diễn lớp đối tượng dự đoán + Huấn luyện mơ hình (chính xác tầng thêm) tập liệu động thực vật quý với tham số: base_learning_rate = 0.001, epochs = 25 Trong pha trình bày trên, để chuyển tiếp mơ hình ban đầu dùng để nhận dạng 1000 đối tượng thành mơ hình nhận dạng số lớp đối tượng NUM_CLASSES (NUM_CLASSES = 56 báo này), chúng tơi loại bỏ hồn tồn tầng dự đốn mơ hình gốc (dùng để dự đốn 1000 nhãn) thay tầng gồm: tầng nhân chập tầng Pooling để phục vụ toán nhận dạng NUM_CLASSES lớp đối tượng https://www.tensorflow.org/api_docs/python/tf/ keras/layers/GlobalAveragePooling2D Số 05 (11/2022): 15 – 24 – Pha 2: Làm mịn (fine-tuning): Sau kết thúc pha 1, tiếp tục áp dụng pha để thực làm mịn mơ hình cách huấn luyện lại số tầng phía cuối mạng cách sử dụng tham số học (learning_rate) nhỏ để đảm bảo không biến đổi nhiều trọng số học từ mơ hình sở Các kết thực nghiệm gần đây2 việc áp dụng pha giúp cải thiện đáng kể độ xác hiệu mơ hình Trong phần thử nghiệm, chúng tơi đánh giá hiệu việc áp dụng bước làm mịn Các bước pha bao gồm sau: + Mở khóa tầng thứ ᵿ mơ hình mạng Trong thực nghiệm, chúng tơi chọn ᵿ = 200 dựa vào kết thực nghiệm sở xem xét tổng số tầng mạng sở khoảng 356 tầng + Huấn luyện mơ hình tập liệu động, thực vật quý với tham số: learning_rate = 0.0001, epochs = 25 KẾT QUẢ VÀ THẢO LUẬN 3.1 Xây dựng liệu huấn luyện Dữ liệu huấn luyện thu thập liệu ảnh 35 loài động vật 21 loài thực vật với tổng số ảnh gần 25000 (NUM_CLASSES = 56) Mục đích việc thu thập ảnh để huấn luyện mạng CNN phân lớp phục vụ nhận dạng danh tính lồi Do vậy, ảnh, thu thập ảnh chứa lồi với nhiều vị trí khác (như thân, đuôi, đầu với động vật gốc, rễ, vân lá, thân với thực vật) Ngoài ra, ảnh chụp góc độ khác nhau, điều kiện ánh sáng khác nhiều thời điểm năm để bao quát giai đoạn phát triển lồi (ví dụ, lồi lan chưa nở hoa sau nở hoa) Quá trình tiền xử lý liệu gồm bước sau: – Chuẩn hóa kích thước ảnh về: 2242243 https://keras.io/guides/transfer_learning/ 21 – Chuyển đổi định dạng ảnh chuẩn JPEG (đuôi: *.jpg) – Quá trình gán nhãn thực chuyên gia ngành kiểm lâm (Chi cục Kiểm lâm Thanh Hóa) Dữ liệu sau tiền xử lý chia thành ba tập: Training, Validation Testing với tỉ lệ 80%, 5% 15% 3.2 Kết huấn luyện Kết huấn luyện mơ hình (pha pha 2) hàm mục tiêu (Loss Functions) trình bày trực quan Hình Hình Kết hàm mục tiêu tập Training Validation Quan sát Hình 3, thấy giá trị hàm mục tiêu tập huấn luyện cao hẳn so với tập Validation Điều ngạc nghiên giải thích tác dụng hàm tăng cường liệu nâng cao CutMix MixUp Trong trình huấn luyện, ảnh tập Training áp dụng phép tăng cường liệu điều không tập Validation Do vậy, ảnh huấn luyện sau tăng cường có xu hướng trở thành mẫu khó (hard samples) cưỡng ép mơ hình phải học mẫu khó để trở nên thơng minh hơn, bền vững hoạt động thực tế Quan sát Hình 3, phát điểm bật hiệu áp dụng hai pha học chuyển tiếp rõ ràng Khi kết thúc pha 1, đồ thị hàm mục tiêu dừng lại điểm 1.2 (tập Validation) Sau áp dụng pha 2, đồ thị hàm mục tiêu tiếp tục giảm sâu chứng tỏ trình học diễn hiệu tối ưu 22 Số 05 (11/2022): 15 – 24 3.3 Kết thực nghiệm tập Testing Để đánh giá kết thực nghiệm tập Testing, áp dụng độ đo chuẩn độ xác (Accuracy) tính sau: Accuracy(i) = Tổng số ảnh nhận dạng lớp đối tượng (i) / Tổng số ảnh lớp đối tượng (i); Trong đó: ảnh coi nhận dạng chứa đối tượng X hệ thống trả kết dự đoán X với xác suất đủ lớn Đầu mơ hình nhận dạng nhãn dự đốn đối tượng xác suất dự đốn đối tượng Giá trị xác suất nằm đoạn [0, 1] Vì vậy, quy định hệ thống nhận dạng xác suất nhận dạng phải đủ lớn (hay lớn ngưỡng cho trước) Trong kết thử nghiệm sau, đặt ngưỡng nhận dạng 0.5 (hay 50%) Kết thực nghiệm hệ thống cho thấy độ xác trung bình nhận dạng 56 lồi động, thực vật 82% Nếu khơng sử dụng ngưỡng nhận dạng (ngưỡng nhận dạng = 0), độ xác trung bình 96.1% Bảng so sánh kết nhận dạng số hệ thống tiêu biểu cho toán nhận dạng động, thực vật quý không dùng ngưỡng nhận dạng Bảng So sánh độ xác số hệ thống khác Hệ thống Độ xác Ghi MobileNetV2 91.1% (Howard cs., 2017) InceptionV3 (Szegedy cs., 2016) 95.0% Hệ thống đề xuất 96.1% Áp dụng transfer learning tập liệu chung Chúng tơi triển khai mơ hình nhận dạng môi trường thiết bị di động (Android iOS) cách chuyển đổi mơ hình nhận dạng sử dụng công cụ Số đặc biệt: Chuyển đổi số phục vụ phát triển kinh tế – xã hội TensorFlowJS3 Mục đích thử nghiệm nhằm đánh giá thời gian xử lý thiết bị di động mơ hình Kết thực nghiệm máy Andoird (LG G8 Thin Q) iOS (iPhone XR) cho thấy để nhận dạng ảnh có kích thước thời gian trung bình khoảng 350 ms khoảng 50% thời gian sử dụng để thực phép chuẩn hóa kích thước ảnh 224×224 Như vậy, mơ hình cần khoảng 175 ms để hồn thành việc dự đoán nhãn ảnh Đây tốc độ xử lý hiệu quả, phù hợp với yêu cầu thời gian thực sử dụng thực tế Hình Giao diện số chức ứng dụng iOS KẾT LUẬN Trong báo này, xây dựng hệ thống nhận dạng động, thực vật quý ứng dụng mạng CNN học sâu kết hợp nhiều kỹ thuật học tối ưu bao gồm: học chuyển tiếp, làm trơn nhãn tăng cường liệu Hệ thống sử dụng kiến trúc mạng MobileNetV3 sử dụng mơ hình tiền huấn luyện (pre-trained) tập liệu ImageNet Chúng áp dụng kỹ thuật học tối ưu để tiếp tục cải tiến mô hình cho tốn nhận dạng động thực vật q Kết huấn luyện cho thấy hệ thống có tính tổng qt cao, có độ xác cao đặc biệt thời gian xử lý nhanh Hệ thống triển khai xây dựng thành ứng dụng đặc thù iOS Android phục vụ công tác nghiệp vụ ngành kiểm lâm Trong nghiên cứu tiếp theo, tiếp tục tăng cường liệu hồn thiện ứng dụng để triển khai rộng cho đơn vị kiểm lâm phạm vi toàn quốc LỜI CẢM ƠN Bài báo tài trợ đề tài khoa học công nghệ cấp tỉnh “Xây dựng phần mềm nhận dạng nhanh số loài động, thực vật nguy cấp, quý phục vụ công tác quản lý, bảo vệ rừng bảo tồn đa dạng sinh học địa bàn tỉnh Thanh Hóa”, 2020 – 2022 https://www.tensorflow.org/js Số 05 (11/2022): 15 – 24 23 TÀI LIỆU THAM KHẢO DeVries, T., & Taylor, G W (2017) Improved Regularization of Convolutional Neural Networks with Cutout (arXiv:1708.04552) arXiv Goodfellow, I., Bengio, Y., & Courville, A (2016) Deep Learning (Illustrated edition) The MIT Press Guo, C., Pleiss, G., Sun, Y., & Weinberger, K Q (2017) On Calibration of Modern Neural Networks Proceedings of the 34th International Conference on Machine Learning, 1321–1330 Howard, A., Sandler, M., Chen, B., Wang, W., Chen, L.-C., Tan, M., Chu, G., Vasudevan, V., Zhu, Y., Pang, R., Adam, H., & Le, Q (2019) Searching for MobileNetV3, 1314–1324 https://doi.org/10.1109/ICCV.2019.00140 Howard, A., Zhu, M., Chen, B., Kalenichenko, D., Wang, W., Weyand, T., Andreetto, M., & Adam, H (2017) MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications (arXiv:1704.04861) arXiv Hu, J., Shen, L., & Sun, G (2018) Squeezeand-Excitation Networks 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, 7132–7141 https://doi.org/10.1109/CVPR.2018.00745 Miao, Z., Gaynor, K M., Wang, J., Liu, Z., Muellerklein, O., Norouzzadeh, M S., McInturff, A., Bowie, R C K., Nathan, R., Yu, S X., & Getz, W M (2019) Insights and approaches using deep learning to classify wildlife Scientific Reports, 9(1), Art https://doi.org/10.1038/s41598-019-44565-w Müller, R., Kornblith, S., & Hinton, G E (2019) When does label smoothing help? Advances in Neural Information Processing Systems, 32 Pereyra, G., Tucker, G., Chorowski, J., Kaiser, L., & Hinton, G (2022) Regularizing Neural Networks by Penalizing Confident Output Distributions 24 Số 05 (11/2022): 15 – 24 Russakovsky, O., Deng, J., Su, H., Krause, J., Satheesh, S., Ma, S., Huang, Z., Karpathy, A., Khosla, A., Bernstein, M., Berg, A C., & Fei-Fei, L (2015) ImageNet Large Scale Visual Recognition Challenge International Journal of Computer Vision, 115(3), 211–252 https://doi.org/10.1007/s11263-015-0816-y Sandler, M., Howard, A., Zhu, M., Zhmoginov, A., & Chen, L.-C (2018) MobileNetV2: Inverted Residuals and Linear Bottlenecks, 4510–4520 https://doi.org/10.1109/CVPR.2018.00474 Sifre, L., & Mallat, S (2014) Rigid-Motion Scattering for Texture Classification [PhD Thesis, arXiv] http://arxiv.org/abs/1403.1687 Szegedy, C., Vanhoucke, V., Ioffe, S., Shlens, J., & Wojna, Z (2016) Rethinking the Inception Architecture for Computer Vision, 2818–2826 https://doi.org/10.1109/CVPR.2016.308 Tan, M., Chen, B., Pang, R., Vasudevan, V., Sandler, M., Howard, A., & Le, Q V (2019) MnasNet: Platform-Aware Neural Architecture Search for Mobile 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2815–2823 https://doi.org/10.1109/CVPR.2019.00293 Willi, M., Pitman, R T., Cardoso, A W., Locke, C., Swanson, A., Boyer, A., Veldthuis, M., & Fortson, L (2019) Identifying animal species in camera trap images using deep learning and citizen science Methods in Ecology and Evolution, 10(1), 80–91 https://doi.org/10.1111/2041-210X.13099 Yun, S., Han, D., Chun, S., Oh, S J., Yoo, Y., & Choe, J (2019) CutMix: Regularization Strategy to Train Strong Classifiers With Localizable Features, 6022–6031 https://doi.org/10.1109/ICCV.2019.00612 Zhang, H., Cisse, M., Dauphin, Y N., & Lopez-Paz, D (2018) Mixup: Beyond Empirical Risk Minimization International Conference on Learning Representations 2018, Vancouver Convention Center, Vancouver, BC, Canada

Ngày đăng: 27/02/2024, 02:26

TỪ KHÓA LIÊN QUAN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

w