Mô hình pre-trained MobileNet

Một phần của tài liệu Chuẩn đoán một số bệnh phổi sử dụng xử lý ảnh và học sâu (Trang 55 - 57)

6. Điểm:

3.1.4.2.Mô hình pre-trained MobileNet

Các mô hình CNN vừa được giới thiệu, tuy có độ chính xác cao, nhưng chúng đều có một điểm hạn chế chung đó là không phù hợp với các ứng dụng trên mobile hay các hệ thống nhúng có khả năng tính toán thấp. Nếu muốn deploy các mô hình trên cho các ứng dụng real time, ta cần phải có cấu hình cực kì mạnh mẽ (GPU / TPU) còn đối với các hệ thống nhúng (Raspberry Pi, Nano pc, etc) hay các ứng dụng chạy trên smart phone, ta cần

51

có một mô hình "nhẹ" hơn. Dưới đây benchmark các mô hình trên cùng tập dữ liệu ImageNet, ta có thể thấy MobileNetV2 có độ chính xác không hề thua kém các mô hình khác như VGG16, VGG19 trong khi lượng parameters chỉ vỏn vẹn 3.5M (khoảng 1/40 số tham số của VGG16).

Yếu tố chính giúp MobileNet có được độ chính xác cao trong khi thời gian tính toán thấp nằm ở sự cải tiến Conv layer bình thường. Trong MobileNet có 2 Conv layer được sử dụng là: SeparableConv và DepthwiseConv. Thay vì thực hiện phép tích chập như thông thường, SeparableConv sẽ tiến hành phép tích chập depthwise spatial sau đó là phép tích chập pointwise. Còn DepthwiseConv sẽ chỉ thực hiện phép tích chập depthwise spatial (không tính pointwise convolution). Việc chia phép tích chập ra như vậy giúp giảm đáng kể khối lượng tinh toán và số lượng tham số của mạng. Với sự thay đổi này,

MobileNet có thể hoạt động một cách mượt mà ngay cả trên phần cứng cấu hình thấp.

52

Chúng ta thấy rằng mô hình có 30 lớp với các đặc điểm sau:

• Lớp 1: Convolution layer với stride bằng 2

• Lớp 2: Depthwise layer

• Lớp 3: Pointwise layer

• Lớp 4: Depthwise layer với stride bằng 2 (khác với bước 2, dw lớp 2 có stride size bằng 1)

• Lớp 5: Pointwise layer

• Lớp 30: Softmax, dùng để phân lớp.

Một phần của tài liệu Chuẩn đoán một số bệnh phổi sử dụng xử lý ảnh và học sâu (Trang 55 - 57)