1. Trang chủ
  2. » Luận Văn - Báo Cáo

Luận văn thạc sĩ Khoa học máy tính: Phát triển mô hình tích chập lượng tử động cho bài toán phân lớp ảnh

115 0 0
Tài liệu đã được kiểm tra trùng lặp

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Tiêu đề Phát triển mô hình tích chập lượng tử động cho bài toán phân lớp ảnh
Tác giả Vũ Tuấn Hải
Người hướng dẫn PGS. TS. Phạm Thế Bảo
Trường học Trường Đại học Công nghệ Thông tin, Đại học Quốc gia TP HCM
Chuyên ngành Khoa học máy tính
Thể loại Luận văn thạc sĩ
Năm xuất bản 2023
Thành phố TP Hồ Chí Minh
Định dạng
Số trang 115
Dung lượng 36,36 MB

Nội dung

Để khắc phục những điểm yếu trên, một số mô hình đã được đề xuất [34][50][51]: — Transformers: là mô hình xử lý các tác vụ về ngôn ngữ tự nhiên Natural Language Processing - NLP, tuy nhi

Trang 1

ĐẠI HỌC QUOC GIA TP HCM TRƯỜNG ĐẠI HỌC CÔNG NGHỆ THÔNG TIN

GK CR

VŨ TUẦN HAI

PHAT TRIEN MÔ HÌNH TÍCH CHAP LƯỢNG TỬ

ĐỘNG CHO BÀI TOÁN PHÂN LỚP ẢNH

“LUẬN VĂN THẠC SĨ

-NGÀNH KHOA HỌC MÁY TÍNH

MA SO: 8480101

TP HO CHÍ MINH - 2023

Trang 2

ĐẠI HỌC QUOC GIA TP HCM TRƯỜNG ĐẠI HỌC CÔNG NGHỆ THÔNG TIN

#›*œ8

his,

VŨ TUẦN HÃI

PHAT TRIEN MÔ HÌNH TÍCH CHAP LƯỢNG TỬ

ĐỘNG CHO BÀI TOÁN PHAN LỚP ANH

LUẬN VĂN THẠC SĨ

-NGÀNH KHOA HỌC MÁY TÍNH

MA SO: 8480101

NGUOI HUGNG DAN KHOA HOC

PGS TS PHAM THE BAO

TP HO CHÍ MINH - 2023

Trang 3

LỜI CAM ĐOAN

Tôi cam đoan những nội dung trong luận văn này là đo tôi thực hiện dưới sự hướng dẫn

trực tiếp của PGS.TS Phạm Thé Bảo

Moi tham khảo đều được trích dẫn rõ ràng tên công trình, tên tác giả, năm công bồ

Mọi sao chép không hợp lệ và vi phạm quy chế đào tạo tôi xin chịu hoàn toàn tráchnhiệm.

TP Hồ Chí Minh, tháng 5 năm 2023

Học viên

Vũ Tuan Hải

Trang 4

LỜI CẢM ƠN

Tôi xin gửi lời cảm ơn sâu sắc đến PGS.TS Phạm Thé Bảo, người đã hướng dẫn tôi trêncon đường nghiên cứu khoa học, rèn luyện kĩ năng viết và đọc hiéu báo cáo, cũng như

giúp đỡ tôi trong quá trình làm luận văn cao học.

Tôi xin được cảm ơn TS Lê Bin Hô, người đã cộng tác với tôi trong những nghiên cứu

về tính toán lượng tử

Tôi chân thành cảm ơn quý thay cô tại trường Dai học Công nghệ Thông tin và trường

Đại học Khoa học Tự nhiên, ĐHQG TP.HCM đã truyền dạy những kiến thức bổ íchtrong suốt hai năm vừa qua Cam ơn quý thầy cô phòng DTSDH đã hỗ trợ tôi trong việclàm các thủ tục, giấy tờ trong quá trình học

Cuối cùng, tôi xin được gửi lời cảm ơn tới gia đình là những người động viên và hỗ trợmọi lúc mọi nơi Mặc dù đã nỗ lực hết sức để hoàn thành luận văn, song luận văn vẫn

không thể tránh khỏi những thiếu sót Tôi rất mong nhận được những đóng góp quý báu

của quý thầy cô và các bạn

Xin chân thành cảm ơn./.

TP Hồ Chí Minh, tháng 5 năm 2023

Học viên

Vũ Tuan Hải

Trang 5

DANH MỤC HINH VE VA DO THI cssssssssssssssssssssssssssssssssssssssssssssssssssssssssssssssnessssesses 7

DANH MỤC PHƯƠNG TRINH eosssssssssssssssssssssssssssssssssssssssssssesssssssssssssssssnusssseseseeseseees 9

DANH MỤC TU'TIENG ANH VA VIET T.ẤT -ce-©cccse©ccseecccveeeecccxe 12

CHƯƠNG 1 TONG QUAN -(ccccccccccceeeeeesrirrttrttrrrrrrrrrrrree 13

1.1 Đặt vấn đề -cscscee xe 127111121111107111001011101011t121aennrxsernrrree 13

1.2 Mục tiêu và phạm vi nghiên CỨu -. -<-ss<=sessesesssseeessesssserssserssse 16 V2.1 MUC ti@U eo 16 1.2.2 Phạm Vi-wsccccssssssssssssssnnnssssesseeceeccecsnssssnnnnnnnnmsesseeeeeeceeceessnsnnnsnnnnnmssssseseeeeees 17 1.3 Đóng góp của luận văn.

1.4 Bố cục luận VAM scccsssssssssscsssssssssssccsssssssssscssssssssscscsssssnsssccssssssusssessssssnusesesssses 19

CHƯƠNG 2 CƠ SỚ LÝ THUYÉT -c+eeeccccceerrrrrrreeree 20

2.1 Bài toán phân lớp ảnnhh << << 439 9 3 3 3 10686145161 20

2.2 Convolutional neural network -sssesssssesxseestsetsrssrsrtsrsrssrsersre 23 2.3 Quantum Computing .-5-5- 5° <5 5s s2 2 4s EsESE3SeEeEEsEsEsesesesessrsese 24 2.3.1 Qui tt t2 221221 HH 24

Trang 6

2.3.3 ĐO HH HH HH HH TH HH HH HH HH 25

2.4 Quantum Neural ÏN€fWOTÌk 5 5 5 <5 4 9 9 0 00800086 0 27 Phu 27 2.4.2 Circuit leArning 5 nến HH HH Tri 28 2.4.3 Barren pÏa(€2US ¿+ + + 2S 121 12 2 1212111 1.1 11211101 0 Hư 31 2.5 Quanvolutional Neural NefWOrFK 5< << 5< sscsksessesssesesrseresersrsrse 32

3.2 Hyper - paraI€(€F 5-5< 5s c<sseterseteteerttersttrsetsraersrnrsrnsrarnsrarnsrsersee 46 3.2.1 Paddiripp The ts Mel —CC— SG ke Kon Eerekee 46 3.2.2 DeppHHh ch Hàn HH HH HH ri 46

3.3 Mach IÓ <5 5< sưng h1 0100400004 0190101801 190001800 8044 473.3.1 Cấu hình đề xuất co tt 47

3.3.2 Chi phí mach ¿+ + + 1k HH1 THH HH HH Hi 51

3.4 Tập dit liỆU «5< < HH rnreerersre 54 3.5 ` 56 3.6 Tài nguyên

CHƯƠNG 4 THUC NGHIỆM - ce+-cS+5cssccteerereerrreerrrrerrrree 58 4.1 So sánh giữa các mô hình

Trang 7

5.2 Hướng phat tiem - << «<< 9 9 009 0 4 1 100904 4.4 861 67

TAI LIEU THAM 83.7/000NNnnẺ8Ẻ®8®ẻ® 68

PHU LUC cressessssssssssssssssssssssssssssssssssssssessssssssssssssssssssssssssssssesssssssssssssssssasussssssssssesssssssssss 74

Phụ lục 1 Danh sách các cổng sử dung trong luận văn -. -s 74

Phu lục 2 General parameter - Shift ritle <5 << << ssEssssEeesseseeesee 76 Phụ lục 3 Fubini-Study tensor metric e-eeeececeeceseerestetseteteetsttersrtsrsrtsrsersre 79

Phụ lục 4 Công bố khoa học

Trang 8

DANH MỤC BẢNG

Bang 2-1 So sánh đặc trưng giữa các Encoder với 2nlà kích thước ảnh 38

Bảng 3-1 So sánh các đặc trưng giữa QNN [12][18] và Dynamic QNN (đề xuất) 44

Bảng 3-2 Chi phí ước tinh cho các mạch có ID từ -1 đến 19, Wchain, Walternating

và Wall — to — all, bao gồm số lượng parameter, số lượng công 2 — qubit và circuit

depth theo số lượng qubit n và sỐ lớp IL -¿ +¿©++++222++++22E++retvrvrrrrrrseee 51

Bảng 4-1 So sánh độ chính xác cao nhất giữa các mô hình trên ba tap dir liệu MNIST,

F - MNIST, CIFAR - 10 và số lượng parameter trên khối đầu tiên (Convolutional hoặc

Quanvolutional), với kích thước filter 2 X 2 và 4 X 4 5: + scsxsrrrrersrrrre 58

Bảng 4-2 So sánh độ chính xác giữa các cấu trúc trên ba tập dữ liệu với kích thước filter

4x 4, depth là 16,n = 4 và L = 1 61

Bang 4-3 Độ chính xác trên MNIST (trái, ® và @), F - MNIST (giữa, A va A) và

CIFAR - 10 (phải, I và MB) với các kích thước filter khác nhau từ 2 đến 5 và số qubit

tương ứng Depth có giá trị 4 -‹ : tt St tt HH re 64Bảng 4-4 Cầu hình đề xuất cho các thành phan trong Quanvolutional filter 65

Bảng PL 0-1 Danh sách tên công, kí hiệu, dạng ma trận (1 hoặc 2 - qubit) và công dunghìUsâ ố 74

Trang 9

DANH MỤC HÌNH VẼ VÀ ĐÒ THỊ

Hình 2-1 Trong supervised learning, các mẫu có nhãn (® và ®) và mục tiêu là tìm nhãncho mẫu mới (() - 22 2£+SE2EE2EE92E1921171127112711271121121121121111171E 11.11 21

Hình 2-2 Mô hình phân loại ƒ với hai bước huấn luyện và kiểm thử 2

Hình 2-3 Khối cầu Bloch -+cc222222tttttEEttttrrrrriiriirrrririiiirrree 24

Hình 2-4 Mô tả tong quát hệ quantum - classical được sử dụng trong thuật toán QML

Hình 2-5 Mô tả chỉ tiêt của PQC ¿Street 28

Hình 2-6 Patch 4 x 4 được cắt ra từ ảnh với Øxy là pha của qubit biéu thị giá trị cường

độ của pixel tại vị trí x, y dưới dạng nhị phân -. ¿- 5 5+ +s++++x+xrxsrerezxrxsxrrs 33

Hình 2-7 Một mạch lượng tử bao gồm công CU3a, Ø,y, công RYO, công CNOT và cổng

X để khởi tạo trạng thái 3 - qubit bất kỳ 36

Hình 2-8 (a) Thuật toán VQA viễn tải trạng thái mục tiêu |tý) vào U Mạch này sau đó

được đo và gửi kết quả đến máy tính cổ điên để cập nhật parameter cho đến khi costfunction hội tụ (b) Một số cấu trúc của U bao gồm star và polygon graph 37Hình 2-9 Cấu trúc chính của UØ, thành phần quan trọng trong PQC a) Mô hình đượccấu trúc hoá thành từng lớp con, mỗi lớp được ký hiệu là U(j)@(j) b) Mỗi lớp U(/)Ø0)

bao gồm các lớp con xếp liên tiếp Uk(),Vk()k = OL c) Một ví dụ về sơ dé chỉ tiếtcủa UkỢ) và Vk(j), bao gồm cổng CRY RY@0,00, RY60,10, RY (80,20) và cổng CZ

¬ 39

Hình 3-1 a) Sơ đồ Dynamic QNN được đề xuất dựa trên các biến thé của QNN trong

công trình của Hur và cộng sự [12] và LeNet b) Backbone LeNet - 5 [31] 42

Hình 3-2 Ludng thông tin đi qua các mô hình a) H1, b) H2 và c) H3 43

Hình 3-3 Các cấu hình đề xuất, nút thé hiện giá trị pixel và cạnh thể hiện mối quan hệ

(đặc trưng) giữa các DIXeÌ -. - - 5+2 E112 2212101 111121211101 0 g1 010 1n rgrưy 47

Trang 10

Hình 3-4 Bốn cấu trúc được xem xét: (a) GS (b) NN (c) RG và (d) AA Ba cấu trúc rútgọn e) Wchain, f) Walternating, g) Wall — to — qÏÏ -¿-5-«e<ec+cece-++ 49

Hình 3-5 Mạch có ID từ 1 - 19, các tổ hợp khác nhau từ các cấu trúc NN, RG va AA

Hình 3-6 Giá trị trung bình và độ lệch chuẩn của số lượng item mỗi lớp trong các tập dữ

liệu MNIST (trái), F - MNIST (giữa) và CIFAR - 10 (phải) tập dữ liệu.

Hình 3-7 Một số điểm dữ liệu trong tập MNIST kèm theo nhãn tương ứng 55Hình 3-8 Một số điểm dữ liệu trong tập F - MNIST kèm theo nhãn tương ứng 55

Hình 3-9 Một số điểm dữ liệu trong tập CIFAR - 10 kèm theo nhãn tương ứng 55

Hình 4-1 Không gian descriptor cho các mạch có n = 4 và L = 1 Mạch được đánh daubởi ID trong Hình (3-4) Cường độ màu thể hiện số lượng parameter, trình bày chỉ tiết

tại Bảng (3-2) HH 0H H10 010 10 H0 1g rờ 60

Hình 4-2 Độ chính xác tối đa trên tập dữ liệu MNIST (®) và F - MNIST (A) với cácmạch khác nhau, được sắp xếp từ cao đến thấp Mạch có ID từ 1 đến 19 Truc x trêncùng và dưới cùng lần lượt là kết quả trên tập MNIST và F - MNIST, n = 4 và L = 1

Hình 4-3 Độ chính xác trên MNIST (trái, ® và ®), F - MNIST (giữa, A va A) và

CIFAR - 10 (phải, Mf và MI) với các filter depth là 1 — 10, 20, 30, 40, 50, 100 63

Hình PL.0-1 Mạch được dùng cho ví dụ tính Fubini-Study tensor metric 79

Trang 11

527 A 30

5 na 30

(2-18) cessessssnsseesennsseeesennsceesuansceessnsceesnansseesuunseeesinnnseesnnsseesiunseeeseunaseeesunaseeeeunseee 30 5 33 600 34

60h 34

0 35

Trang 13

05077 ỀẼỀ 6 80

(PL 0-16) đẤ ⁄22 À Le 80

Trang 14

DANH MỤC TỪ TIENG ANH VA VIET TAT

Từ tiếng anh / Từ viết tắt Diễn giải

Hyper — parameter Siéu tham so

Qubit Quantum bit — Bit lượng tử

Overfitting Quá khớp, tình trạng mô hình hoạt động rất tốt trên tập

huấn luyện, nhưng không tốt trên tập kiểm chứng, hoặc

tập kiểm thử.

Superposition Trạng thái chồng chất lượng tử, được biểu diễn thông

qua phương trình, ví dụ: |p) = s0) +I1)).

Entanglement Trạng thái rối lượng tử Ví dụ: trạng thái |GHZ) =

1 " mm

(100) + |11)), trạng thái |W) = % (|001) + |010) +

|100)).

NISQ Noisy Intermediate - Scale Quantum.Trang thai hién tai

của tính toán lượng tử, đặc trưng bởi các bộ xử lý lượng

tử chỉ chứa 50 — 100 gubit, chưa đủ khả năng chịu lỗi và

độ lớn dé đạt quantum supremacy

Circuit depth Độ sâu của mach lượng tử.

Vanishing (or Exploding)

gradient

Triệt tiêu (hoặc Bung nổ) đạo hàm

Trang 15

CHUONG 1 TONG QUAN

— (1) CNN đời hỏi số lượng parameter và dữ liệu huấn luyện lớn, lên đến hàng triệu

parameter và hàng triệu mẫu CNN bị overfitting hoặc đạt độ chính xác thấp nếu tập

dữ liệu quá nhỏ Do đó, CNN không hiệu quả ở một số bài toán có dữ liệu giới hạn

— (2) CNN có chỉ phí tính toán cao và độ phức tạp tính toán tăng nhanh, đặc biệt khi

mô hình sâu và kích thước ảnh lớn Điều này gây hạn chế trên thiết bị có khả năng

tính toán kém va ứng dụng cần phản hôi nhanh

— (3) Thiếu tính tổng quát CNN chi dự đoán tốt trong miền dữ liệu được cung cấp

trong quá trình huấn luyện Nếu muốn dự đoán trong miền dữ liệu khác, CNN cầnđược huấn luyện lại

Để khắc phục những điểm yếu trên, một số mô hình đã được đề xuất [34][50][51]:

— Transformers: là mô hình xử lý các tác vụ về ngôn ngữ tự nhiên (Natural Language

Processing - NLP), tuy nhiên Transformer vẫn có thé được sử dụng trong xử lý ảnh.Cách thức hoạt động của Transformer là chuyển ảnh sang định dạng một chuỗi các

patch, sau đó đưa vào Transformer Network như một câu văn Công trình của

Dosovitskiy và cộng sự [34] đề xuất mô hình ViT (Vision Transformer) được tinh

Trang 16

chỉnh riêng cho tác vụ phân loại ảnh - sử dụng cơ chế self - attention dé trích xuất mối

quan hệ giữa các patch trong anh ViT đã đạt được kết quả SOTA trên nhiều bài toánbenchmark, chứng minh rang Transformers có thé thay thé được CNN Tuy nhiên,chi phí tính toán cao hơn so voi CNN là điểm yếu của mô hình nay

— Capsule Networks [50]: là một mô hình đạt được các kết quả về độ chính xác cao hơn

CNN Khác so với CNN, Capsule Networks mô hình hoá mối quan hệ có thứ bậc giữa

các thành phan trong ảnh Điều này cho phép mô hình xử ly tốt các biến thé về tu thế

và hình thức của cùng một đối tượng so với CNN vì coi tat cả các phần của đối tượngquan trọng như nhau Tuy nhiên, Capsule Networks cũng có hạn chế về chỉ phí tính

toán cao và kích thước dữ liệu huấn luyện Hơn nữa, đây là một mô hình mới trong

Deep Learning, vẫn cần nhiều nghiên cứu để hiểu rõ về điểm mạnh và điểm yếu của

mô hình này.

— Graph Convolutional Networks (GCN) [51]: GCN đặc biệt phù hợp với các tác vụ xử

lý dữ liệu đồ thị như phân tích mạng xã hội, dự đoán cấu trúc protein và hệ thống

khuyến nghị GCN sử dụng tích chập trên đồ thị dé trích xuất đặc trưng trên nút, hoặc

mối liên hệ giữa các nút và cạnh Mặc dù GCN có những lợi thế nhất định, chẳng hạnnhư trích xuất được các mẫu và tính tổng quát cao hơn nhưng hạn chế về độ phức tạptính toán, mat mát thông tin trong quá trình chuyên ảnh sang đồ thị và nhạy đối với

quá trình khởi tạo đồ thị

Dễ thấy rằng, các hướng cải tiến trong Machine Learning đều gặp van đề cân bằng giữahai yếu tố: độ chính xác và độ phức tạp tính toán, mô hình có độ chính xác càng cao thìcàng yêu cau tính toán nhiều và ngược lại Gần đây, một hướng nghiên cứu mới kết hợpgiữa Machine Learning và Quantum Computing là Quantum Machine Learning [6], đãgiải quyết được một phan van đề kể trên bằng cách kết hợp ưu điểm của hai bên Trongkhi mô hình Machine Learning có lợi thế đạt được độ chính xác TẤt cao trong các tác vụ,

mô hình Quantum Computing mang lại tốc độ tính toán tăng theo cấp số nhân dựa trên

hiện tượng superposition va entanglement.

Trang 17

Hiện tại, đã có nhiều công trình chứng minh sức mạnh của mô hình Quantum Machine

Learning [5], bao gồm: Quantum Neural Network - QuNN được thiết kế tốt vượt trộihon Classical Neural Network - NN về kích thước, hiệu quả và tốc độ huấn luyện;Quantum Generative Adversarial Network - QuGAN [7] dat được hiệu suất tương tự và

giảm được 98,5% số lượng parameter khi so sánh với Classical Generative Adversarial

Network (GAN) Một số mô hình Quantum Machine Learning được đề xuất cho các tác

vụ cụ thể, chẳng hạn Quantum Graph Recurrent Neural Network - QGRNN, Quantum

Graph Neural Network - QGNN [8] biểu diễn dữ liệu lượng tử và thực thi trên các hệ

thống lượng tử phân tán, Quantum Long - Short Term Memory - QLSTM [9] được sửdụng đề xử lý dữ liệu lượng tử tuần tự Đối với tác vụ phân loại, một số mô hình được

dé xuất bao gồm Quantum Neural Network - QuNN [10], Quantum Convolutional

Neural Network - QCNN [9][11], Quanvolutional Neural Network - QNN [17],

Mặc dù, việc gia tăng tốc độ xử lý và mở rộng tir Quantum Computing có tiềm năng vô

cùng lớn và có khả năng cải thiện hiệu suất của các mô hình Machine Learning [5], tính

toán lượng tử không thé thay thé hoàn toàn tính toán cô điền [13] Về xu hướng chung,tính toán lượng tử sẽ là một thành phần mạnh thực thi các tác vụ khó trong khi tính toán

cổ điển thực hiện các tác vụ còn lại [14][15] Một lý do quan trọng, phần cứng lượng tửhiện tại - Noisy Intermediate - Scale Quantum - NISQ không phố biến vì có số lượngqubit hạn chế cũng như tỷ lệ lỗi cao [16] Mặt khác, nếu sử dụng mô phỏng trên máytính cô điển, chúng ta không thê đạt được tốc độ xử lý như chạy trên máy tính lượng tử,

việc giả lập các thuật toán lượng tử trên máy tính cô điển thậm chỉ còn chậm hơn nhiều

so với chính các thuật toán cổ điển Do đó, việc tận dụng lợi thé từ tính toán lượng tử lẫn

tính toán cổ điền là điều cần thiết ở hiện tại, các thuật toán hybrid hiện đang được phát

triên và cải thiện.

Trang 18

1.2 Mục tiêu và phạm vỉ nghiên cứu

(ND2) Khảo sát mô hình theo sốlượng, kích thước và cấu trúc

Quanvolutional filter Đánh giácác yếu tố độ chính xác, số lượngparameter, tài nguyên (thời gian —

bộ nhớ) giữa CNN va QNN trong cùng môi trường và tập dữ liệu.

(PP2) Thực nghiệm mô

hình QNN bằng Python,

Tensorflow va Qiskit trên các tập dữ liệu: MNIST, F - MNIST và CIFAR - 10.

(ND3) Trả lời các câu hỏi trong bai báo của Henderson và cộng sự

[17] để làm rõ các tính chất của

QNN (1) “Are there particular structured Quanvolutional filters

that seem to always provide an

advantage over others?” (2) “How data-dependent is the ideal ’set”

of Quanvolutional filters?” (3)

“How much do encoding and

influence decoding approaches

overall performance?” (4) “What

(PP3) Tra lời câu hỏi (1):

tìm tập các cấu trúcQuanvolutional tốt (đánh

giá về số lượng parameter,

độ chính xac, ) Trả lời

câu hỏi (2), (4) bằng kết quả

của (ND2).

Trang 19

are the minimal Quanvolutional

filter gate depths that lead to some kind of advantage?”

(MT2) Đề xuất | (ND4) Đề xuất, thử nghiệm và | (PP4) Sử dụng các hyper

-mô hình | đánh giá -mô hình Dynamic QNN | parameter tốt từ (MT1)

lựa chon Encoder phụ thuộc vào tập dữ liệu, các ràng buộc khác của tác vụ và độ phức

tạp cua Encoder Do đó, trong phạm vi luận văn, các câu hỏi còn lại bao gồm: (1), 2) và

(4) sẽ được giải quyết thông qua các thử nghiệm khác nhau

Luận văn dé xuất Dynamic QNN, một mô hình cải tiến dựa trên QNN và khảo sát cáctính chất của nó bằng bộ ba tập dữ liệu MNIST, F - MNIST và CIFAR - 10 Luận văn

sẽ kiểm tra xem các biến thé của mô hình Dynamic QNN hoạt động khác nhau như thếnào dựa trên cấu trúc, kích thước và depth khác nhau của Quanvolutional filter Cuối

cùng từ những số liệu trên, luận văn đề xuất cầu hình cho Dynamic QNN

Trang 20

1.3 Đóng góp của luận văn

Các đóng góp trong luận văn bao gồm:

— Đề xuất mô hình Dynamic QNN từ mô hình QNN

— Đánh giá tác động của các hyper - parameter trên Dynamic QNN.

— Thử nghiệm các cấu hình khác nhau và lựa chọn cấu hình hiệu quả cho Dynamic

QNN trên một số tập dữ liệu

Một phan nội dung luận văn, thuộc Phần (2.5.1.5), Phần (2.5.2.2) và Phần (3.3) đã được

đăng tại tạp chí Scientific Report (Scopus Q1), toàn văn bài báo được đính kèm tai Phụ

lục (4) Các nội dung còn lại đang được đánh giá tại tạp chí Quantum Machine Intelligence (Scopus Q2) và hội nghị EAI ICTCC 2023 (Scopus).

Trang 21

1.4 Bô cục luận văn

Luận văn bao gồm 5 chương:

Chương 1: TONG QUAN

Trang 22

CHƯƠNG 2 CƠ SỞ LÝ THUYET

Cơ sở lý thuyết được xác định theo năm khía cạnh Đầu tiên là bài toán phân lớp truyền

thống (Phần (2.1)) Thứ hai là mô hình CNN cổ điền (Phần (2.2)), Tiếp đó là cơ sở tính

toán lượng tử (Phần (2.3)) và mô hình QuNN (Phần (2.4)) Cuối cùng là các thành phầncủa mô hình QNN cơ sở (Phần (2.5)

2.1 Bài toán phân lớp ảnh

Xét miền đầu vào X, miền đầu ra Y, và phân phối xác suất p(x) voix € X Giả sử, tồntại ánh xạ f*:X — Y từ đầu vào tới đầu ra và chúng ta được cung cấp một tập hữu hạn

gồm {ảnh được lay từ p(x), nhãn tương ứng}, theo (2-1):

D ={Œ\,y\), , Ou Iu )} với (x,y) EX OY, (2-1)

Chúng ta đồng thời định nghĩa ham Loss L: Y ® Y — R cho biết quá trình dự đoán bởi

f* tốt hay kém, dựa trên việc so sánh nhãn dự đoán với nhãn có sẵn Mục tiêu là tìm mô

Trang 23

<D-0-O—_O-—00- © oO

? ay

Hình 2-1 Trong supervised learning, các mau có nhãn (@ và ®) và mục tiêu là tìm

nhãn cho mâu mới (®).

Cực tiểu hoá L(.,.) trên p(x) là một cách để ƒ hoạt động tốt với tat cả dữ liệu có sẵn

Phân phối xác suất p(x) - như minh hoạ ở Hình (2-1) và hàm ƒ* chưa được biết Ngay

cả khi chúng ta mô hình hóa hai đại lượng này, Phương trình (2-2) rất khó tính trừ một

số trường hợp đặc biệt Nói cách khác, ngay cả một quá trình hình thức hóa rất cơ bảncủa bài toán phân lớp cũng chuyền thành một bài toán khó giải

Một phương pháp giải quyét tiêu chuẩn là thông qua bài toán trung gian (proxy problem),chúng ta hy vọng kết quả của bài toán trung gian sẽ tốt cho bài toán gốc Bài toán trunggian được biết đến là quá trình cực tiểu L(., ) theo từng giai đoạn bằng cách sử dụng tập

đữ liệu hữu hạn D (2-4):

ÍŠmpricat = argminep (Zeno L(f (x), y)) (2-4)

Phan lớn lý thuyết hoc cé gắng chứng minh rằng phương pháp trên sẽ khái quát hóa van

đề ban đầu hoặc có thể tìm thây nghiệm mong muốn Mô hình học qua dir liệu như

(2-4) chính là mô hình Machine Learning - ML, mô hình ML kết hợp với thuật toán lượng

tử tạo thành mô hình Quantum Machine Learning - QML Hiệu suất của mô hình thựcthi trên dữ liệu thường được đo trên một tập kiểm thử gồm các mẫu chưa được sử dụng

để huấn luyện Phương pháp này tuy đơn giản nhưng khó đạt kết quả cao vì phụ thuộc

vào chỉ tiết triển khai, ví dụ, với hyper - parameter khác nhau, kết quả sẽ khác nhau

Tom lại, nhiệm vụ của ML nói chung và bài toán phân lớp ảnh nói riêng là tối ưu hóa,

và mục đích cuối cùng là khái quát hóa

Trang 24

Hình 2-2 Mô hình phân loại f với hai bước huấn luyện và kiểm thử.

Mô hình phân loại được đề xuất mô tả ở Hình (2-2) với hai loại parameter, quantum

parameter @ và classical parameter w Giai đoạn co bản bao gồm là huấn luyện và kiểmthử Ở giai đoạn huấn luyện, mô hình nhận vào anh x, tính toán và tra về nhãn y' sau đó

so sánh với nhãn có sẵn y và tính toán giá tri L(y',y) Giá trị L(y',y) được sử dụng dé

tính toán đạo hàm và cập nhật (Ø, w), quá trình này được lặp lại đến epoch thứ n hoặc

khi L(.,.) đạt cực tiểu, khi đó ta đạt được (@*,w*) Ở giai đoạn kiểm thử, mô hình

ƒ(Ø*,w*) nhận vào danh sách ảnh và trả về danh sách nhãn tương ứng, toàn bộ kết quả

sau đó được so sánh để cho ra một độ đo, ví dụ độ chính xác Lưu ý rằng, các cặp {anh,

nhãn tương ứng} - (x,y) ở hai giai đoạn huấn luyện và kiểm thử là hai tập không giao

nhau.

Trang 25

2.2 Convolutional neural network

CNN là mô hình phổ biến cho nhiều ứng dụng thị giác máy tính [20-22][35] va là mộtchuỗi các phép biến đổi để chuyền từ ảnh sang kiểu dữ liệu nhất định, tùy theo tác vụ

mô hình đang thực hiện Các phép biến đổi này trích xuất đặc trưng trong ảnh và môhình sử dụng những đặc trưng này cho mục đích phân loại Mỗi lớp tích chập trong CNN

được tạo thành từ n filter tích chập Mỗi filter trong một lớp di chuyên trên các patchkhác nhau trong ảnh để tạo ra tensor chứa thông tin về các mẫu cục bộ khác nhau Mô

hình CNN cô điển bao gồm ba thành phan: lớp Convolutional, lớp Pooling và lớp Fully

Connected.

— Lớp Convolutional: bao gồm nhóm các filter có đầu vào là ảnh, có nhiệm vụ trích

xuất các đặc trưng trên ảnh Số lượng và kích thước filter phụ thuộc vào thời gian

và mục đích huấn luyện

— Lớp Pooling: thường được sử dụng giữa các lớp Convolutional Lớp Pooling tăng

tốc độ tính toán của toàn bộ mô hình bằng cách giảm kích thước tensor, nhưng

vẫn giữ lại những đặc trưng quan trong.

— Lớp Fully Connected: sau khi ảnh di qua lớp Convolutional và Pooling, lớp Fully

Connected có nhiệm vụ chuyên đôi tensor thành vector đầu ra, cho phép mô hình

xác định nhãn của ảnh đâu vào.

Khi lớp Pooling va Fully Connected tính toán hiệu quả trên máy tính cô điển, dé thấy

rằng tài nguyên tính toán cho Convolutional sẽ tăng nhanh theo kích thước đầu vào

Trang 26

2.3 Quantum Computing

Tính toán lượng tử (Quantum Computing - QC) là một xu hướng nghiên cứu mới sửdụng các hiện tượng vật lý lượng tử bao gồm: superposition và entanglement dé thiết kếcác thuật toán mới nhằm giải quyết các bài toán khó như: phân tích số nguyên tố (thuậttoán Shor), tìm kiếm nhanh trong cơ sở dir liệu (thuật toán Grover), mô phỏng trong vatlý/hoá học (thuật toán Variational Quantum Eigensolver - VQE), tính toán nhanh matrận nghịch đảo (thuật toán Harrow - Hassidim - Lloyd - HHL) Để thực thi các thuật

toán lượng tử, chúng ta thiết kế các mạch lượng tử bao gồm các công lượng tử

với DN Gal? = 1, 10) = [5] 12) = [J] và [Bo buon) = Bo) ® lb,) ® 8 [bn-1)

là dạng biểu diễn nhị phân cua i {a,} là biên độ trang thái Lưu ý rằng N = 2”

Trang 27

Ngoài cách biểu diễn theo toạ độ, trạng thái có thể biểu diễn ở dạng toạ độ cực thông

qua các pha Ø và ở trên khối cầu Bloch có bán kính đơn vị, như minh hoạ Hình (2-3)

Vi dụ, trạng thái 1 - gubit viết dưới dạng (2-6):

Ip) = cos (2) I0) + e sin (2) |1), (2-6)

với 0 < ở < 2z và 0 < 8 <=.

Trong giới hạn, luận văn chỉ nghiên cứu với các trạng thái thuần tuý (điểm trên mặt cầu)

và không nghiên cứu các trạng thái kết hợp (điểm bên trong hoặc bên ngoài mặt cầu)

Tập các công sử dung trong luận văn được trình bay chỉ tiết trong Phụ lục (1)

2.3.3 Do

Chúng ta tiến hành phép do đề biến đổi trạng thái từ lượng tử sang cô điền dé thu được

biên độ trạng thái |Ú), bằng hai phương pháp đo thống kê và đo giải tích

Theo thống kê, trạng thái |) = Ð; @;|é) bị suy biến thành trạng thái cơ bản |i) sau khi

đo Chúng ta thực thi phép đo N lần và thống kê sé lần nhận được các trạng thái cơ bản

theo như Công thức (2-9):

p=} (2-9)

Trang 28

với |i) = |0), |1), |2) hoặc |N), Ví dụ: |GHZ) = 510) +510) suy bién thanh |0)

hoặc |1), chúng ta do |GHZ) 1000 lần, 501 lần nhận được |0), 499 lần nhận được |1),

501 499

thu được p(0) = Tooo và PO) = Tạng:

Theo phương pháp giải tích, xác suất nhận được trang thái cổ điển |x) khi đo |j} tuântheo (2-10):

Trang 29

2.4 Quantum Neural Network

2.4.1 Giới thiệu

Quantum computer

Classical computer

Hình 2-4 Mô ta tổng quát hệ quantum - classical được sử dung trong thuật toán QML

Quantum Neural Network (QUNN), hay Parameterized Quantum Circuit (PQC) [40] là

phương pháp triển khai các lớp các thuật toán hybrid PQC có khả năng tạo ra outputnhư mong muốn với chỉ phí thấp hơn so với các thuật toán lượng tử chỉ sử dụng cổng

hằng (fixed gate) nhờ circuit depth thấp Cách tiếp cận trong PQC là công thức hóa bài

toán dưới dạng các bài toán biến phan (variational problem) với parameter có thê thayđổi được, chúng ta thay đổi các parameter này dé tìm nghiệm gần đúng Nói cách khác,chúng ta tốn chi phí ban đầu dé tìm kiếm parameter phù hợp cho mạch có depth thấp

hơn PQC triển khai trên cả hai phan, cô điển và lượng tử, như mô tả ở Hình (2-4) Trong

hệ, máy tính lượng tử chuẩn bị các trạng thái (quantum state preparation) và thực hiệnphép do, máy tính cô điển sử dụng các kết quả đo dé hậu xử lý, và cập nhật parametercho PQC Cách triển khai một phần thuật toán trên máy tính cổ điển giúp tài nguyên

lượng tử giảm đáng kể, đặc biệt về số lượng qubit, circuit depth và thời gian thực thi

Nhu có đề cập về thuật toán hybrid, phần lượng tử chỉ xử lý tác vụ khó của bài toán

PQC đã giải quyết một số bài toán khó trong tối ưu tô hợp, mô phỏng vật lý và hoá học,

bao gồm: thuật toán Variational Quantum Eigensolver (VQE) tim trang thái cơ bản của

điện tử, Quantum Approximate Optimization (QAOA) tìm nghiệm gần đúng của mô hình

Ising cỗ điển, hoặc giải bài toán MaxCut

Trang 30

Parameterized quantum circuit

Hình 2-5 Mô tả chỉ tiết của PQC

Hình (2-5) cho thấy các thành phần của PỌC, có nhiều đặc điểm tương đồng với môhình supervised learning Đầu tiên, input từ tập huấn luyện được biến đổi bằng quá trình

tiền xử lý (hàm Vectorization, ham Normalization, ) Sau đó, dit liệu được ánh xạ sangkhông gian Hilbert bằng Encoder Ug và mạch U(8) thực hiện hoạt động cốt lõi của mô

hình bằng cách trả về trạng thái U(Ø) Ủy (x)|0)9Œ*+), Tiếp theo, Decoder D ước lượng

tập giá trị kỳ vọng {0M)„¿} bằng hữu hạn các phép đo Cuối cùng, hàm hậu xử lý ƒ ánh

xạ kết quả đo thành đầu ra phù hợp với tác vụ Tất cả các thành phần bao gồm hàm tiền

xử lý, hàm hậu xử lý, Encoder Ug, U(8) đều có thé có hoặc không có parameter

2.4.2 Circuit learning

Giống như mô hình ML, PQC sử dụng dữ liệu dé cập nhật parameter cho tác vụ Tác

vụ được biểu diễn dưới dạng cực tiểu hoá hàm L với Ø Đề cập nhật Ø, có hai nhómphương pháp lần lượt là phương pháp bậc 0 (gradient - free) và phương pháp bậc |

(gradient - based).

Ở phương pháp bậc 0, bao gồm nhóm các thuật toán cổ điển như Nelder — Mead,

COBYLA, SPSA, có chi phí tính toán thấp, tuy nhiên tốc độ hội tụ không cao và khó

đạt được điểm cực tiêu hơn so với các phương pháp bậc 1, như được chứng minh về thực

nghiệm trong bài báo của Stokes va cộng sự [46].

Trang 31

Ở phương pháp bậc 1, chúng ta tốn thêm chi phí tính toán gradient V@L, bằng tài nguyên

cô điển hoặc lượng tử, tuy nhiên đạt được hiệu quả cao hơn so với các phương pháp bậc

0 Một trong những thuật toán thuộc phương pháp bậc 1 là Stochastic Gradient Descent

(SGD), ý tưởng là Ø được cập nhật theo hướng giảm dan giá trị Loss như (2-12):

ot — 9! — œVạL(8®), (2-12)

với a € R > 0 là tốc độ học (cố định) dùng dé điều chỉnh độ lớn của VL với VL(Ø°) =

[ØsuL(0) 0ạ,L(0) ôg„1(9]" là gradient vector tại thời điểm t Đạo hàm

riêng 8ạ,L(°) được tính bằng kỹ thuật general parameter - shift rule (PSR) - mô tả chitiết ở Phụ lục (2) hoặc công thức sai phân hữu hạn (2-13):

Ngoài ra, một optimizer hiệu quả trong các mô hình ML là Adaptive Moment Estimation

— Adam [49], được mô tả ở Công thức (2-14):

mtVote

1-Bt Ta va các hyper - parameters B, = 0.8 hoặc 0.9, Bz = 1 và e + 0.T2

Cuối cùng, luận văn đề xuất optimizer Quantum Natural Gradient - QNG, hoạt động

theo (2-15):

Trang 32

ott — of — agtV, L(8), (2-15)

với g* là giả nghịch dao của Fubini - Study metric tensor g Giả sử nhóm Ø thành L

layer: 0 = 84) © 8) @ @ Ø2 với mỗi layer 8) = (0°, 68°, vẻ Oey | De MO = M} và hai toán tử Unita bat kì thoả mãn điều kiện [đe G6] = ij, metric tensor g có

dang (2-16):

g? 0

g= % (2-16)

0 g) voi phan tử go trong đại lượng gø® được tính theo Phương trình (2-17):

Chỉ tiết về phương pháp tính được trình bày kỹ hơn trong Phụ lục (3)

Mỗi optimizer đều có ưu và nhược điểm riêng: (1) SGD đơn giản nhưng tốc độ hội tụthấp, chúng ta phải chon learning rate phù hợp dé đạt được kết quả tốt nhất, (2) Adamcho phép tự động điều chỉnh tốc độ học và hội tụ nhanh nhưng bị nhiễu gần điểm cựctiểu và (3) QNG tốt hơn các optimizer khác nhưng cũng đòi hỏi nhiều chỉ phí tính toánhơn đo cần truy vấn lượng tử Mặc dù SGD và Adam không phụ thuộc vào trạng tháilượng tử và hoạt động với mọi loại dữ liệu, QNG tối ưu hóa các parameter nhờ việc biến

đổi landscape trong không gian tối ưu và do đó được kỳ vọng sẽ mang lại khả năng tối

ưu tốt hơn và nhanh hơn

Trang 33

2.4.3 Barren plateaus

"Trong quá trình nghiên cứu về khả năng học của PQC, McClean và cộng sự [44] đã chỉ

ra rằng, hiện tượng vanishing gradient sẽ xảy ra trong trường hợp số qubit tăng dần,

được gọi với tên gọi khác là barren plafeaus Tuy nhiên, có một chút khác biệt so với

vanishing (hoặc exploding) gradient trong Neural Network cổ điển Thứ nhất là về tỷ lệ,thứ hai là về độ phức tạp trong việc tính toán giá trị kỳ vọng Gradient của NeuralNetwork cô điển giảm dan theo cấp số nhân số lượng lớp, trong khi PQC giảm dan theo

cấp số nhân số lượng qubit Trong trường hợp cổ điển, gradient của một nút phụ thuộc

vào tông của tất cả các đường dẫn kết nói tới nút đó với đầu ra, số lượng đường dẫn tăngtheo cấp số nhân số lượng lớp Trong trường hợp lượng tử, số đường đi là luỹ thừa sốqubit va không bị ảnh hưởng bởi số lớp, hay circuit depth Gradient bị bão hòa theo cấp

số nhân số lượng qubit vì tong các xác suất khi đo luôn bằng I

Việc ước tính gradient đối với Neural Network cô dién bị giới hạn bởi độ chính xác khi

tính toán và tỷ lệ với Ø(log(1/£)) Ngay cả khi giá trị gradient nhỏ, miễn là đủ nhất

quán giữa các batch, phương pháp nay cuối cùng có thể thành công Đối với trường hợp

lượng tử, chi phí ước tinh gradient là O (2) Đối với bắt ky số phép do nao thấp hơn

+k „1 5 — : wa Ấy R x

nhiều so với Tone (J[2|| là chuan của gradient), việc tôi ưu dựa trên gradient sẽ tương

đương bước đi ngẫu nhiên (random walk), bước đi ngẫu nhiên có xác suất nhỏ theo cấp

số nhân giúp quá trình học thoát khỏi thoát barren plateaus

Trong quá khứ, vanishing gradient đã khiến việc nghiên cứu về ML bị chậm lại Tuy

nhiên, nhiều kỹ thuật đã được đề xuất như drop out, skip connection, batch

-normalization, lượng dữ liệu và sức mạnh tinh toán cũng tăng lên đáng kể Một cách tiếpcận đề tránh barren plafeaus là sử dụng các phỏng đoán ban đầu có cấu trúc, một cáchkhác là phương pháp cô điển pre — train segment by segment, hoặc sử dụng các mô hình

có số lượng kết nối giảm dần như QCNN

Trang 34

2.5 Quanvolutional Neural Network

Nhằm ứng dụng tính toán lượng tử trong bài toán xử lý ảnh, mô hình QuanvolutionalNeural Network - QNN được đề xuất bởi Henderson và cộng sự [17] Mô hình có haikhối: khối quantum và khôi classical, mỗi khối có chức năng và nhiệm vụ riêng:

-_ Khối quantum (hay Quanvolutional filter) có nhiệm vụ trích xuất thông tin từ ảnh và

biéu diễn đầu ra dưới dạng vector dé khối classical xử lý, tương tự như chức năng

của Convolutional filter Quanvolutional filter được thực thi trên mạch lượng tử, va

có day đủ các thành phần như PQC, bao gồm: Encoder Ug, mach U(8) và Decoder

D Quanvolutional filter trích xuất các đặc trưng từ dữ liệu đầu vào bằng cách biếnđổi từng patch trên ảnh sang trạng thái thông qua Ug, và chuyển đổi các trạng tháithành kết quả đo thông qua U(@) và D

- Khối classical là một mô hình Neural Network, có nhiệm vụ xử lý thông tin được

trích xuất, chuyển hoá thành đầu ra như yêu cầu Khối classical được thực thi trên

máy tính cô điền

Điểm khác biệt so với các mô hình thuần cổ điển như CNN hoặc thuần lượng tử nhưQCNN là QNN chỉ thay thé phần trích xuất đặc trưng thay vì thực hiện mọi tính toánhoàn toàn ở một phía cổ điển hoặc lượng tử Các mạch lượng tử tạo nên Quanvolutionalfilter giúp Quanvolutional filter có đầu vào và đầu ra tương tự như Convolutional filter.Nhiều ưu điểm của mô hình QNN được đề ra: (1) QNN có khả năng xử lý dữ liệu lượng

tử, áp dụng trong các bài toán liên quan đến lĩnh vực vật lý, hoá học, (2) QNN có độphức tap tính toán chi tăng theo logarit kích thước đầu vào dựa trên hiện tượng

superposition, từ đó giảm thời gian xử lý đáng kể, (3) Henderson và cộng sự [17] đưa

ra giả thuyết rằng các đặc trưng do các mạch lượng tử tạo ra tăng độ chính xác của mô

hình ML nói chung, và cho tác vụ phân loại nói riêng.

Trang 35

Hình 2-6 Patch 4 x 4 được cắt ra từ ánh với Ox là pha của qubit biểu thị giá trị

cường độ của pixel tại vị trí (x,y) dưới dạng nhị phân.

Ug có nhiệm vụ mã hóa patch x € IR vào không gian Hilbert (2-19):

lúx) = Ug (Vec(x))|0)®", (2-19)

với Vec kí hiệu cho hàm Vectorization.

Trong phạm vi bài toán phân loại ảnh, chúng ta chia ảnh thành các patch k x k bằngnhau và xử lý trên từng patch Encoder chuyển đổi patch sang trang thái lượng tử bằngcách làm phăng dưới dang vector 1 - D và điều chỉnh các parameter bên trong Encoder

để thay đổi biên độ từ trạng thái mặc định |0)®” sang trạng thái mong muốn Mattern

và cộng sự [18] đã đề xuất ba Encoder xử lý ảnh cơ bản được trình bày trong Phần(2.5.1.1) — Phần (2.5.1.3)

Trang 36

2.5.1.1 Threshold Encoding

Encoder thứ nhất là Threshold Encoding - TE sử dụng một qubit dé mã hóa tương ứngmột pixel, giá trị của qubit là |0) hoặc |1) Qubit j*" có giá trị là |1) nếu IT - giá trị pixelthứ j lớn hơn ngưỡng 7 và ngược lại Phương pháp này đơn giản và chỉ trả về ảnh nhịphân, như mô tả ở Phương trình (2-20):

2.5.1.2 Flexible Representation of Quantum Images

Flexible Representation of Quantum Images - FRQI được đề xuất bởi Phục và cộng sự

[45] mã hóa hình ảnh hiệu qua hơn TE bang cách sử dung ít qubit hơn FRQI biến đổi

từ trạng thái |0}®* sang trạng thái |/) bằng việc mã hóa giá trị pixel thông qua chuỗi các

công CRy có các pha {6,} € [0,5], theo như Công thức (2-21):

22"~1

ID =F DY; (cos(0)|0) + sin(9)|1))l/), (2-21)

j=0

với j là dang biểu diễn nhị phân cho giá tri pixel FRQI yêu cầu ảnh ở dạng vuông có

kích thước 2" x 2" So với TE, FRQI chỉ yêu cầu 2n + 1 qubit thay vì 2?" Tuy nhiên,

số lượng cổng cần thiết là luỹ thừa hai so với số lượng pixel, 2",

2.5.1.3 Novel enhanced quantum image representation of digital images

Novel enhanced quantum image representation of digital images - NEQR [42] là mộtcải tiến của thuật toán FRQI Ở đây, trang thái cơ sở được sử dung dé lưu trữ dữ liệu

thay vì biên độ NEQR cũng hoạt động trên ảnh 2” x 2” Với XY biểu thị vị trí pixel,

Trang 37

Chy biểu thị bit thứ í của giá trị cường độ trên thang màu xám 8 bit tại vị trí (X,Y), theo

mô tả tại Phương trình (2-22) Nếu muốn biểu diễn các thang đo khác, như 24 bit, chúng

ta thay đổi cận trên của i

Theo nghiên cứu của Zhang va cộng sự [42], ảnh [/) sử dụng 2n cổng Hadamard và tôi

đa 8 x22" cổng 2n qubit — CNOT Do đó, độ phức tạp của thuật toán phụ thuộc vào cáchtriển khai công 2n qubit - CNOT

2.5.1.4 Quantum embedding

Một số nghiên cứu mới về quantum embedding cho ra một số Encoder mới, bao gồm:

Amplitude Encoding - AE [23][24] và Quantum RAM - QRAM [25[26] với độ phức tap

là O(n) qubit va 0 (22) về circuit depth, Divide — and - Conquer Encoder - DCE [27]với độ phức tap O(N) về số lượng qubit va O(log, N) về circuit depth

Nếu r là số điểm dữ liệu trong tập dữ liệu D được tải lên mach trong một lần, AE vàDCE sẽ hoạt động với r = 1, trong khi QRAM hoạt động với 1 < t < |D|, phù hợp với

việc huấn luyện mô hình có batch size lớn Tuy nhiên, triển khai phần cứng cho QRAM

hiện tai khá phức tạp, chúng ta cũng sẽ bỏ qua DCE, vì số lượng gubit tăng tuyến tínhtheo kích thước dữ liệu đầu vào, không hiệu quả cho bài toán thuộc lớp QML

Rõ ràng, chúng ta có thể biểu diễn dữ liệu cổ điển bằng AE hiệu quả vì số lượngparameter tăng theo số qubit với số qubit là logarit so với kích thước dữ liệu đầu vào

AE chuẩn hoá dữ liệu về vector có độ dài 1, tuy nhiên vẫn duy trì tỷ lệ cường độ giữacác pixel thông qua biên độ Nói ngắn gọn, dữ liệu đầu vào x = [xạ,x¿, ,xy]! đượcbiến đổi dựa vào Phương trình (2-23):

Upe(x):x € RY > bx) = EM ali), (2-23)

Trang 38

trong đó |i) là cơ sở tính toán it” Nếu log, N £ R, zero padding 0 được sử dụng saocho (2-24):

x = [x, 0], log;(N + |0|) ER, (2-24)

Tuy sử dung ít qubit, AE lại có thời gian tính toán lớn do circuit depth tăng theo cấp sốnhân, điều này gây khó khăn cho toàn bộ quá trình tính toán, như minh hoạ ở Hình (2-7) Circuit depth là [5, 26, 130, 594, 2546] ứng với [2, 3, 4, 5, 6] qubit.

a a

q2

Hình 2-7 Một mạch lượng tử bao gom cổng CU;(œ,B,y), cổng Ry(8), cổng CNOT và

cổng X để khởi tạo trạng thái 3 - qubit bat kỳ.

2.5.1.5 Quantum Compilation

Để khắc phục ton tại trong AE, luận văn dé xuất sử dụng thuật toán Universal

Compilation — based variational quantum — UC - VQA [53-56] với chức năng biên dịch

một trạng thái từ toán tử này sang một toán tử khác và áp dụng nó để tạo ra một Encoder

hiệu quả với chi phí O(n) về số lượng qubit và O(poly(n)) về circuit depth UC — VQAyêu cầu thời gian tìm kiếm parameter từ ban đầu, tuy nhiên sẽ có lợi nếu ta ở trong tìnhhuống sử dụng trạng thái nhiều lần

Trang 39

star ansatz polygon ansatz

Hình 2-8 (a) Thuật toán VỌA viễn tải trạng thái mục tiêu |Ù) vào U Mạch này sau đó

được đo và gửi kết quả đến máy tính cô điển dé cập nhật parameter cho đến khi cost

function hội tụ (b) Một số cấu trúc của U bao gom star va polygon graph.

UC — VQA là một thuật toán hybrid, bao gồm hai phần quantum va classical, như mô tả

ở Hình (2-8) Phan quantum bao gồm hai mạch U(Ø) và V+(6’) tác động tuần tự lên

trang thái khởi tạo |Jo) hình thành trạng thái cuối cùng |W) (2-25):

br) = V*(O")U(O) Io) (2-25)Xác suất chuyển đổi được từ trạng thái ban đầu sang trạng thái mục tiêu thoả (2-26):

2 lễ

P(Po > Wr) = |(0o|U;)|Í = lo|V1(090(6)0.)|? (2-26)

Nhiệm vụ của chúng ta là tối đa hoá xác suất này Pmax(Wo — We), khi đó |J(8)) =

U()lạ) được biên dịch về |p (Ø')) = VA) |W) Nói cách khác, chúng ta sử dụngkernel % thoả (2-27):

?(, Ø') = |(@(8')|(8))|? = p(0ạ > Wy) (2-27)

Kéo theo (2-28):

Pmax(Wo > Wr) = argmax X(8, 6') (2-28)

Trang 40

Nếu p(Wo > We) đạt cực đại, đồng nghĩa rằng: |J(Ø)) = |ó(Ø')).

Bước đầu tiên, chúng ta biến đổi trạng thái khởi tạo sang trạng thái biến phân (2-29):

|v(@)) = U(6)|0), (2-29)

Sau đó, trạng thái mục tiêu dat được bằng (2-30):

|z) = V|0), (2-30)

với V là target unitary (đã biết có depth thập hơn so với mạch sinh ra từ phương pháp

AE Dé xem xét khoảng cách giữa hai trạng thái, độ đo Fubini— Study được dé xuất như

(2-31):

d(v(6),t) = vJ1~ Kz|v(@))? = vJ1 — pạ(8), (2-31)

với pạ(6) = |(0|V†U(Ø)|0)|? là xác suất nhận được trang thái |0} khi do bằng toán tử

chiếu Py = |0){0| Trạng thái biến phân trở thành trạng thái mục tiêu nếu độ đo trên tiến

về 0, |ø(Ø”)) = |r) Nếu Fubini — Study được sử dụng như cost value, C(@) =d(v(@),7), khi đó, quá trình cực tiểu hoá C(@) là mục tiêu (2-32):

Ngày đăng: 08/11/2024, 17:18

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN