Để khắc phục những điểm yếu trên, một số mô hình đã được đề xuất [34][50][51]: — Transformers: là mô hình xử lý các tác vụ về ngôn ngữ tự nhiên Natural Language Processing - NLP, tuy nhi
Trang 1ĐẠI HỌC QUOC GIA TP HCM TRƯỜNG ĐẠI HỌC CÔNG NGHỆ THÔNG TIN
GK CR
VŨ TUẦN HAI
PHAT TRIEN MÔ HÌNH TÍCH CHAP LƯỢNG TỬ
ĐỘNG CHO BÀI TOÁN PHÂN LỚP ẢNH
“LUẬN VĂN THẠC SĨ
-NGÀNH KHOA HỌC MÁY TÍNH
MA SO: 8480101
TP HO CHÍ MINH - 2023
Trang 2ĐẠI HỌC QUOC GIA TP HCM TRƯỜNG ĐẠI HỌC CÔNG NGHỆ THÔNG TIN
#›*œ8
his,
VŨ TUẦN HÃI
PHAT TRIEN MÔ HÌNH TÍCH CHAP LƯỢNG TỬ
ĐỘNG CHO BÀI TOÁN PHAN LỚP ANH
LUẬN VĂN THẠC SĨ
-NGÀNH KHOA HỌC MÁY TÍNH
MA SO: 8480101
NGUOI HUGNG DAN KHOA HOC
PGS TS PHAM THE BAO
TP HO CHÍ MINH - 2023
Trang 3LỜI CAM ĐOAN
Tôi cam đoan những nội dung trong luận văn này là đo tôi thực hiện dưới sự hướng dẫn
trực tiếp của PGS.TS Phạm Thé Bảo
Moi tham khảo đều được trích dẫn rõ ràng tên công trình, tên tác giả, năm công bồ
Mọi sao chép không hợp lệ và vi phạm quy chế đào tạo tôi xin chịu hoàn toàn tráchnhiệm.
TP Hồ Chí Minh, tháng 5 năm 2023
Học viên
Vũ Tuan Hải
Trang 4LỜI CẢM ƠN
Tôi xin gửi lời cảm ơn sâu sắc đến PGS.TS Phạm Thé Bảo, người đã hướng dẫn tôi trêncon đường nghiên cứu khoa học, rèn luyện kĩ năng viết và đọc hiéu báo cáo, cũng như
giúp đỡ tôi trong quá trình làm luận văn cao học.
Tôi xin được cảm ơn TS Lê Bin Hô, người đã cộng tác với tôi trong những nghiên cứu
về tính toán lượng tử
Tôi chân thành cảm ơn quý thay cô tại trường Dai học Công nghệ Thông tin và trường
Đại học Khoa học Tự nhiên, ĐHQG TP.HCM đã truyền dạy những kiến thức bổ íchtrong suốt hai năm vừa qua Cam ơn quý thầy cô phòng DTSDH đã hỗ trợ tôi trong việclàm các thủ tục, giấy tờ trong quá trình học
Cuối cùng, tôi xin được gửi lời cảm ơn tới gia đình là những người động viên và hỗ trợmọi lúc mọi nơi Mặc dù đã nỗ lực hết sức để hoàn thành luận văn, song luận văn vẫn
không thể tránh khỏi những thiếu sót Tôi rất mong nhận được những đóng góp quý báu
của quý thầy cô và các bạn
Xin chân thành cảm ơn./.
TP Hồ Chí Minh, tháng 5 năm 2023
Học viên
Vũ Tuan Hải
Trang 5DANH MỤC HINH VE VA DO THI cssssssssssssssssssssssssssssssssssssssssssssssssssssssssssssssnessssesses 7
DANH MỤC PHƯƠNG TRINH eosssssssssssssssssssssssssssssssssssssssssssesssssssssssssssssnusssseseseeseseees 9
DANH MỤC TU'TIENG ANH VA VIET T.ẤT -ce-©cccse©ccseecccveeeecccxe 12
CHƯƠNG 1 TONG QUAN -(ccccccccccceeeeeesrirrttrttrrrrrrrrrrrree 13
1.1 Đặt vấn đề -cscscee xe 127111121111107111001011101011t121aennrxsernrrree 13
1.2 Mục tiêu và phạm vi nghiên CỨu -. -<-ss<=sessesesssseeessesssserssserssse 16 V2.1 MUC ti@U eo 16 1.2.2 Phạm Vi-wsccccssssssssssssssnnnssssesseeceeccecsnssssnnnnnnnnmsesseeeeeeceeceessnsnnnsnnnnnmssssseseeeeees 17 1.3 Đóng góp của luận văn.
1.4 Bố cục luận VAM scccsssssssssscsssssssssssccsssssssssscssssssssscscsssssnsssccssssssusssessssssnusesesssses 19
CHƯƠNG 2 CƠ SỚ LÝ THUYÉT -c+eeeccccceerrrrrrreeree 20
2.1 Bài toán phân lớp ảnnhh << << 439 9 3 3 3 10686145161 20
2.2 Convolutional neural network -sssesssssesxseestsetsrssrsrtsrsrssrsersre 23 2.3 Quantum Computing .-5-5- 5° <5 5s s2 2 4s EsESE3SeEeEEsEsEsesesesessrsese 24 2.3.1 Qui tt t2 221221 HH 24
Trang 62.3.3 ĐO HH HH HH HH TH HH HH HH HH 25
2.4 Quantum Neural ÏN€fWOTÌk 5 5 5 <5 4 9 9 0 00800086 0 27 Phu 27 2.4.2 Circuit leArning 5 nến HH HH Tri 28 2.4.3 Barren pÏa(€2US ¿+ + + 2S 121 12 2 1212111 1.1 11211101 0 Hư 31 2.5 Quanvolutional Neural NefWOrFK 5< << 5< sscsksessesssesesrseresersrsrse 32
3.2 Hyper - paraI€(€F 5-5< 5s c<sseterseteteerttersttrsetsraersrnrsrnsrarnsrarnsrsersee 46 3.2.1 Paddiripp The ts Mel —CC— SG ke Kon Eerekee 46 3.2.2 DeppHHh ch Hàn HH HH HH ri 46
3.3 Mach IÓ <5 5< sưng h1 0100400004 0190101801 190001800 8044 473.3.1 Cấu hình đề xuất co tt 47
3.3.2 Chi phí mach ¿+ + + 1k HH1 THH HH HH Hi 51
3.4 Tập dit liỆU «5< < HH rnreerersre 54 3.5 ` 56 3.6 Tài nguyên
CHƯƠNG 4 THUC NGHIỆM - ce+-cS+5cssccteerereerrreerrrrerrrree 58 4.1 So sánh giữa các mô hình
Trang 75.2 Hướng phat tiem - << «<< 9 9 009 0 4 1 100904 4.4 861 67
TAI LIEU THAM 83.7/000NNnnẺ8Ẻ®8®ẻ® 68
PHU LUC cressessssssssssssssssssssssssssssssssssssssessssssssssssssssssssssssssssssesssssssssssssssssasussssssssssesssssssssss 74
Phụ lục 1 Danh sách các cổng sử dung trong luận văn -. -s 74
Phu lục 2 General parameter - Shift ritle <5 << << ssEssssEeesseseeesee 76 Phụ lục 3 Fubini-Study tensor metric e-eeeececeeceseerestetseteteetsttersrtsrsrtsrsersre 79
Phụ lục 4 Công bố khoa học
Trang 8DANH MỤC BẢNG
Bang 2-1 So sánh đặc trưng giữa các Encoder với 2nlà kích thước ảnh 38
Bảng 3-1 So sánh các đặc trưng giữa QNN [12][18] và Dynamic QNN (đề xuất) 44
Bảng 3-2 Chi phí ước tinh cho các mạch có ID từ -1 đến 19, Wchain, Walternating
và Wall — to — all, bao gồm số lượng parameter, số lượng công 2 — qubit và circuit
depth theo số lượng qubit n và sỐ lớp IL -¿ +¿©++++222++++22E++retvrvrrrrrrseee 51
Bảng 4-1 So sánh độ chính xác cao nhất giữa các mô hình trên ba tap dir liệu MNIST,
F - MNIST, CIFAR - 10 và số lượng parameter trên khối đầu tiên (Convolutional hoặc
Quanvolutional), với kích thước filter 2 X 2 và 4 X 4 5: + scsxsrrrrersrrrre 58
Bảng 4-2 So sánh độ chính xác giữa các cấu trúc trên ba tập dữ liệu với kích thước filter
4x 4, depth là 16,n = 4 và L = 1 61
Bang 4-3 Độ chính xác trên MNIST (trái, ® và @), F - MNIST (giữa, A va A) và
CIFAR - 10 (phải, I và MB) với các kích thước filter khác nhau từ 2 đến 5 và số qubit
tương ứng Depth có giá trị 4 -‹ : tt St tt HH re 64Bảng 4-4 Cầu hình đề xuất cho các thành phan trong Quanvolutional filter 65
Bảng PL 0-1 Danh sách tên công, kí hiệu, dạng ma trận (1 hoặc 2 - qubit) và công dunghìUsâ ố 74
Trang 9DANH MỤC HÌNH VẼ VÀ ĐÒ THỊ
Hình 2-1 Trong supervised learning, các mẫu có nhãn (® và ®) và mục tiêu là tìm nhãncho mẫu mới (() - 22 2£+SE2EE2EE92E1921171127112711271121121121121111171E 11.11 21
Hình 2-2 Mô hình phân loại ƒ với hai bước huấn luyện và kiểm thử 2
Hình 2-3 Khối cầu Bloch -+cc222222tttttEEttttrrrrriiriirrrririiiirrree 24
Hình 2-4 Mô tả tong quát hệ quantum - classical được sử dụng trong thuật toán QML
Hình 2-5 Mô tả chỉ tiêt của PQC ¿Street 28
Hình 2-6 Patch 4 x 4 được cắt ra từ ảnh với Øxy là pha của qubit biéu thị giá trị cường
độ của pixel tại vị trí x, y dưới dạng nhị phân -. ¿- 5 5+ +s++++x+xrxsrerezxrxsxrrs 33
Hình 2-7 Một mạch lượng tử bao gồm công CU3a, Ø,y, công RYO, công CNOT và cổng
X để khởi tạo trạng thái 3 - qubit bất kỳ 36
Hình 2-8 (a) Thuật toán VQA viễn tải trạng thái mục tiêu |tý) vào U Mạch này sau đó
được đo và gửi kết quả đến máy tính cổ điên để cập nhật parameter cho đến khi costfunction hội tụ (b) Một số cấu trúc của U bao gồm star và polygon graph 37Hình 2-9 Cấu trúc chính của UØ, thành phần quan trọng trong PQC a) Mô hình đượccấu trúc hoá thành từng lớp con, mỗi lớp được ký hiệu là U(j)@(j) b) Mỗi lớp U(/)Ø0)
bao gồm các lớp con xếp liên tiếp Uk(),Vk()k = OL c) Một ví dụ về sơ dé chỉ tiếtcủa UkỢ) và Vk(j), bao gồm cổng CRY RY@0,00, RY60,10, RY (80,20) và cổng CZ
¬ 39
Hình 3-1 a) Sơ đồ Dynamic QNN được đề xuất dựa trên các biến thé của QNN trong
công trình của Hur và cộng sự [12] và LeNet b) Backbone LeNet - 5 [31] 42
Hình 3-2 Ludng thông tin đi qua các mô hình a) H1, b) H2 và c) H3 43
Hình 3-3 Các cấu hình đề xuất, nút thé hiện giá trị pixel và cạnh thể hiện mối quan hệ
(đặc trưng) giữa các DIXeÌ -. - - 5+2 E112 2212101 111121211101 0 g1 010 1n rgrưy 47
Trang 10Hình 3-4 Bốn cấu trúc được xem xét: (a) GS (b) NN (c) RG và (d) AA Ba cấu trúc rútgọn e) Wchain, f) Walternating, g) Wall — to — qÏÏ -¿-5-«e<ec+cece-++ 49
Hình 3-5 Mạch có ID từ 1 - 19, các tổ hợp khác nhau từ các cấu trúc NN, RG va AA
Hình 3-6 Giá trị trung bình và độ lệch chuẩn của số lượng item mỗi lớp trong các tập dữ
liệu MNIST (trái), F - MNIST (giữa) và CIFAR - 10 (phải) tập dữ liệu.
Hình 3-7 Một số điểm dữ liệu trong tập MNIST kèm theo nhãn tương ứng 55Hình 3-8 Một số điểm dữ liệu trong tập F - MNIST kèm theo nhãn tương ứng 55
Hình 3-9 Một số điểm dữ liệu trong tập CIFAR - 10 kèm theo nhãn tương ứng 55
Hình 4-1 Không gian descriptor cho các mạch có n = 4 và L = 1 Mạch được đánh daubởi ID trong Hình (3-4) Cường độ màu thể hiện số lượng parameter, trình bày chỉ tiết
tại Bảng (3-2) HH 0H H10 010 10 H0 1g rờ 60
Hình 4-2 Độ chính xác tối đa trên tập dữ liệu MNIST (®) và F - MNIST (A) với cácmạch khác nhau, được sắp xếp từ cao đến thấp Mạch có ID từ 1 đến 19 Truc x trêncùng và dưới cùng lần lượt là kết quả trên tập MNIST và F - MNIST, n = 4 và L = 1
Hình 4-3 Độ chính xác trên MNIST (trái, ® và ®), F - MNIST (giữa, A va A) và
CIFAR - 10 (phải, Mf và MI) với các filter depth là 1 — 10, 20, 30, 40, 50, 100 63
Hình PL.0-1 Mạch được dùng cho ví dụ tính Fubini-Study tensor metric 79
Trang 11527 A 30
5 na 30
(2-18) cessessssnsseesennsseeesennsceesuansceessnsceesnansseesuunseeesinnnseesnnsseesiunseeeseunaseeesunaseeeeunseee 30 5 33 600 34
60h 34
0 35
Trang 1305077 ỀẼỀ 6 80
(PL 0-16) đẤ ⁄22 À Le 80
Trang 14DANH MỤC TỪ TIENG ANH VA VIET TAT
Từ tiếng anh / Từ viết tắt Diễn giải
Hyper — parameter Siéu tham so
Qubit Quantum bit — Bit lượng tử
Overfitting Quá khớp, tình trạng mô hình hoạt động rất tốt trên tập
huấn luyện, nhưng không tốt trên tập kiểm chứng, hoặc
tập kiểm thử.
Superposition Trạng thái chồng chất lượng tử, được biểu diễn thông
qua phương trình, ví dụ: |p) = s0) +I1)).
Entanglement Trạng thái rối lượng tử Ví dụ: trạng thái |GHZ) =
1 " mm
(100) + |11)), trạng thái |W) = % (|001) + |010) +
|100)).
NISQ Noisy Intermediate - Scale Quantum.Trang thai hién tai
của tính toán lượng tử, đặc trưng bởi các bộ xử lý lượng
tử chỉ chứa 50 — 100 gubit, chưa đủ khả năng chịu lỗi và
độ lớn dé đạt quantum supremacy
Circuit depth Độ sâu của mach lượng tử.
Vanishing (or Exploding)
gradient
Triệt tiêu (hoặc Bung nổ) đạo hàm
Trang 15CHUONG 1 TONG QUAN
— (1) CNN đời hỏi số lượng parameter và dữ liệu huấn luyện lớn, lên đến hàng triệu
parameter và hàng triệu mẫu CNN bị overfitting hoặc đạt độ chính xác thấp nếu tập
dữ liệu quá nhỏ Do đó, CNN không hiệu quả ở một số bài toán có dữ liệu giới hạn
— (2) CNN có chỉ phí tính toán cao và độ phức tạp tính toán tăng nhanh, đặc biệt khi
mô hình sâu và kích thước ảnh lớn Điều này gây hạn chế trên thiết bị có khả năng
tính toán kém va ứng dụng cần phản hôi nhanh
— (3) Thiếu tính tổng quát CNN chi dự đoán tốt trong miền dữ liệu được cung cấp
trong quá trình huấn luyện Nếu muốn dự đoán trong miền dữ liệu khác, CNN cầnđược huấn luyện lại
Để khắc phục những điểm yếu trên, một số mô hình đã được đề xuất [34][50][51]:
— Transformers: là mô hình xử lý các tác vụ về ngôn ngữ tự nhiên (Natural Language
Processing - NLP), tuy nhiên Transformer vẫn có thé được sử dụng trong xử lý ảnh.Cách thức hoạt động của Transformer là chuyển ảnh sang định dạng một chuỗi các
patch, sau đó đưa vào Transformer Network như một câu văn Công trình của
Dosovitskiy và cộng sự [34] đề xuất mô hình ViT (Vision Transformer) được tinh
Trang 16chỉnh riêng cho tác vụ phân loại ảnh - sử dụng cơ chế self - attention dé trích xuất mối
quan hệ giữa các patch trong anh ViT đã đạt được kết quả SOTA trên nhiều bài toánbenchmark, chứng minh rang Transformers có thé thay thé được CNN Tuy nhiên,chi phí tính toán cao hơn so voi CNN là điểm yếu của mô hình nay
— Capsule Networks [50]: là một mô hình đạt được các kết quả về độ chính xác cao hơn
CNN Khác so với CNN, Capsule Networks mô hình hoá mối quan hệ có thứ bậc giữa
các thành phan trong ảnh Điều này cho phép mô hình xử ly tốt các biến thé về tu thế
và hình thức của cùng một đối tượng so với CNN vì coi tat cả các phần của đối tượngquan trọng như nhau Tuy nhiên, Capsule Networks cũng có hạn chế về chỉ phí tính
toán cao và kích thước dữ liệu huấn luyện Hơn nữa, đây là một mô hình mới trong
Deep Learning, vẫn cần nhiều nghiên cứu để hiểu rõ về điểm mạnh và điểm yếu của
mô hình này.
— Graph Convolutional Networks (GCN) [51]: GCN đặc biệt phù hợp với các tác vụ xử
lý dữ liệu đồ thị như phân tích mạng xã hội, dự đoán cấu trúc protein và hệ thống
khuyến nghị GCN sử dụng tích chập trên đồ thị dé trích xuất đặc trưng trên nút, hoặc
mối liên hệ giữa các nút và cạnh Mặc dù GCN có những lợi thế nhất định, chẳng hạnnhư trích xuất được các mẫu và tính tổng quát cao hơn nhưng hạn chế về độ phức tạptính toán, mat mát thông tin trong quá trình chuyên ảnh sang đồ thị và nhạy đối với
quá trình khởi tạo đồ thị
Dễ thấy rằng, các hướng cải tiến trong Machine Learning đều gặp van đề cân bằng giữahai yếu tố: độ chính xác và độ phức tạp tính toán, mô hình có độ chính xác càng cao thìcàng yêu cau tính toán nhiều và ngược lại Gần đây, một hướng nghiên cứu mới kết hợpgiữa Machine Learning và Quantum Computing là Quantum Machine Learning [6], đãgiải quyết được một phan van đề kể trên bằng cách kết hợp ưu điểm của hai bên Trongkhi mô hình Machine Learning có lợi thế đạt được độ chính xác TẤt cao trong các tác vụ,
mô hình Quantum Computing mang lại tốc độ tính toán tăng theo cấp số nhân dựa trên
hiện tượng superposition va entanglement.
Trang 17Hiện tại, đã có nhiều công trình chứng minh sức mạnh của mô hình Quantum Machine
Learning [5], bao gồm: Quantum Neural Network - QuNN được thiết kế tốt vượt trộihon Classical Neural Network - NN về kích thước, hiệu quả và tốc độ huấn luyện;Quantum Generative Adversarial Network - QuGAN [7] dat được hiệu suất tương tự và
giảm được 98,5% số lượng parameter khi so sánh với Classical Generative Adversarial
Network (GAN) Một số mô hình Quantum Machine Learning được đề xuất cho các tác
vụ cụ thể, chẳng hạn Quantum Graph Recurrent Neural Network - QGRNN, Quantum
Graph Neural Network - QGNN [8] biểu diễn dữ liệu lượng tử và thực thi trên các hệ
thống lượng tử phân tán, Quantum Long - Short Term Memory - QLSTM [9] được sửdụng đề xử lý dữ liệu lượng tử tuần tự Đối với tác vụ phân loại, một số mô hình được
dé xuất bao gồm Quantum Neural Network - QuNN [10], Quantum Convolutional
Neural Network - QCNN [9][11], Quanvolutional Neural Network - QNN [17],
Mặc dù, việc gia tăng tốc độ xử lý và mở rộng tir Quantum Computing có tiềm năng vô
cùng lớn và có khả năng cải thiện hiệu suất của các mô hình Machine Learning [5], tính
toán lượng tử không thé thay thé hoàn toàn tính toán cô điền [13] Về xu hướng chung,tính toán lượng tử sẽ là một thành phần mạnh thực thi các tác vụ khó trong khi tính toán
cổ điển thực hiện các tác vụ còn lại [14][15] Một lý do quan trọng, phần cứng lượng tửhiện tại - Noisy Intermediate - Scale Quantum - NISQ không phố biến vì có số lượngqubit hạn chế cũng như tỷ lệ lỗi cao [16] Mặt khác, nếu sử dụng mô phỏng trên máytính cô điển, chúng ta không thê đạt được tốc độ xử lý như chạy trên máy tính lượng tử,
việc giả lập các thuật toán lượng tử trên máy tính cô điển thậm chỉ còn chậm hơn nhiều
so với chính các thuật toán cổ điển Do đó, việc tận dụng lợi thé từ tính toán lượng tử lẫn
tính toán cổ điền là điều cần thiết ở hiện tại, các thuật toán hybrid hiện đang được phát
triên và cải thiện.
Trang 181.2 Mục tiêu và phạm vỉ nghiên cứu
(ND2) Khảo sát mô hình theo sốlượng, kích thước và cấu trúc
Quanvolutional filter Đánh giácác yếu tố độ chính xác, số lượngparameter, tài nguyên (thời gian —
bộ nhớ) giữa CNN va QNN trong cùng môi trường và tập dữ liệu.
(PP2) Thực nghiệm mô
hình QNN bằng Python,
Tensorflow va Qiskit trên các tập dữ liệu: MNIST, F - MNIST và CIFAR - 10.
(ND3) Trả lời các câu hỏi trong bai báo của Henderson và cộng sự
[17] để làm rõ các tính chất của
QNN (1) “Are there particular structured Quanvolutional filters
that seem to always provide an
advantage over others?” (2) “How data-dependent is the ideal ’set”
of Quanvolutional filters?” (3)
“How much do encoding and
influence decoding approaches
overall performance?” (4) “What
(PP3) Tra lời câu hỏi (1):
tìm tập các cấu trúcQuanvolutional tốt (đánh
giá về số lượng parameter,
độ chính xac, ) Trả lời
câu hỏi (2), (4) bằng kết quả
của (ND2).
Trang 19are the minimal Quanvolutional
filter gate depths that lead to some kind of advantage?”
(MT2) Đề xuất | (ND4) Đề xuất, thử nghiệm và | (PP4) Sử dụng các hyper
-mô hình | đánh giá -mô hình Dynamic QNN | parameter tốt từ (MT1)
lựa chon Encoder phụ thuộc vào tập dữ liệu, các ràng buộc khác của tác vụ và độ phức
tạp cua Encoder Do đó, trong phạm vi luận văn, các câu hỏi còn lại bao gồm: (1), 2) và
(4) sẽ được giải quyết thông qua các thử nghiệm khác nhau
Luận văn dé xuất Dynamic QNN, một mô hình cải tiến dựa trên QNN và khảo sát cáctính chất của nó bằng bộ ba tập dữ liệu MNIST, F - MNIST và CIFAR - 10 Luận văn
sẽ kiểm tra xem các biến thé của mô hình Dynamic QNN hoạt động khác nhau như thếnào dựa trên cấu trúc, kích thước và depth khác nhau của Quanvolutional filter Cuối
cùng từ những số liệu trên, luận văn đề xuất cầu hình cho Dynamic QNN
Trang 201.3 Đóng góp của luận văn
Các đóng góp trong luận văn bao gồm:
— Đề xuất mô hình Dynamic QNN từ mô hình QNN
— Đánh giá tác động của các hyper - parameter trên Dynamic QNN.
— Thử nghiệm các cấu hình khác nhau và lựa chọn cấu hình hiệu quả cho Dynamic
QNN trên một số tập dữ liệu
Một phan nội dung luận văn, thuộc Phần (2.5.1.5), Phần (2.5.2.2) và Phần (3.3) đã được
đăng tại tạp chí Scientific Report (Scopus Q1), toàn văn bài báo được đính kèm tai Phụ
lục (4) Các nội dung còn lại đang được đánh giá tại tạp chí Quantum Machine Intelligence (Scopus Q2) và hội nghị EAI ICTCC 2023 (Scopus).
Trang 211.4 Bô cục luận văn
Luận văn bao gồm 5 chương:
Chương 1: TONG QUAN
Trang 22CHƯƠNG 2 CƠ SỞ LÝ THUYET
Cơ sở lý thuyết được xác định theo năm khía cạnh Đầu tiên là bài toán phân lớp truyền
thống (Phần (2.1)) Thứ hai là mô hình CNN cổ điền (Phần (2.2)), Tiếp đó là cơ sở tính
toán lượng tử (Phần (2.3)) và mô hình QuNN (Phần (2.4)) Cuối cùng là các thành phầncủa mô hình QNN cơ sở (Phần (2.5)
2.1 Bài toán phân lớp ảnh
Xét miền đầu vào X, miền đầu ra Y, và phân phối xác suất p(x) voix € X Giả sử, tồntại ánh xạ f*:X — Y từ đầu vào tới đầu ra và chúng ta được cung cấp một tập hữu hạn
gồm {ảnh được lay từ p(x), nhãn tương ứng}, theo (2-1):
D ={Œ\,y\), , Ou Iu )} với (x,y) EX OY, (2-1)
Chúng ta đồng thời định nghĩa ham Loss L: Y ® Y — R cho biết quá trình dự đoán bởi
f* tốt hay kém, dựa trên việc so sánh nhãn dự đoán với nhãn có sẵn Mục tiêu là tìm mô
Trang 23<D-0-O—_O-—00- © oO
? ay
Hình 2-1 Trong supervised learning, các mau có nhãn (@ và ®) và mục tiêu là tìm
nhãn cho mâu mới (®).
Cực tiểu hoá L(.,.) trên p(x) là một cách để ƒ hoạt động tốt với tat cả dữ liệu có sẵn
Phân phối xác suất p(x) - như minh hoạ ở Hình (2-1) và hàm ƒ* chưa được biết Ngay
cả khi chúng ta mô hình hóa hai đại lượng này, Phương trình (2-2) rất khó tính trừ một
số trường hợp đặc biệt Nói cách khác, ngay cả một quá trình hình thức hóa rất cơ bảncủa bài toán phân lớp cũng chuyền thành một bài toán khó giải
Một phương pháp giải quyét tiêu chuẩn là thông qua bài toán trung gian (proxy problem),chúng ta hy vọng kết quả của bài toán trung gian sẽ tốt cho bài toán gốc Bài toán trunggian được biết đến là quá trình cực tiểu L(., ) theo từng giai đoạn bằng cách sử dụng tập
đữ liệu hữu hạn D (2-4):
ÍŠmpricat = argminep (Zeno L(f (x), y)) (2-4)
Phan lớn lý thuyết hoc cé gắng chứng minh rằng phương pháp trên sẽ khái quát hóa van
đề ban đầu hoặc có thể tìm thây nghiệm mong muốn Mô hình học qua dir liệu như
(2-4) chính là mô hình Machine Learning - ML, mô hình ML kết hợp với thuật toán lượng
tử tạo thành mô hình Quantum Machine Learning - QML Hiệu suất của mô hình thựcthi trên dữ liệu thường được đo trên một tập kiểm thử gồm các mẫu chưa được sử dụng
để huấn luyện Phương pháp này tuy đơn giản nhưng khó đạt kết quả cao vì phụ thuộc
vào chỉ tiết triển khai, ví dụ, với hyper - parameter khác nhau, kết quả sẽ khác nhau
Tom lại, nhiệm vụ của ML nói chung và bài toán phân lớp ảnh nói riêng là tối ưu hóa,
và mục đích cuối cùng là khái quát hóa
Trang 24Hình 2-2 Mô hình phân loại f với hai bước huấn luyện và kiểm thử.
Mô hình phân loại được đề xuất mô tả ở Hình (2-2) với hai loại parameter, quantum
parameter @ và classical parameter w Giai đoạn co bản bao gồm là huấn luyện và kiểmthử Ở giai đoạn huấn luyện, mô hình nhận vào anh x, tính toán và tra về nhãn y' sau đó
so sánh với nhãn có sẵn y và tính toán giá tri L(y',y) Giá trị L(y',y) được sử dụng dé
tính toán đạo hàm và cập nhật (Ø, w), quá trình này được lặp lại đến epoch thứ n hoặc
khi L(.,.) đạt cực tiểu, khi đó ta đạt được (@*,w*) Ở giai đoạn kiểm thử, mô hình
ƒ(Ø*,w*) nhận vào danh sách ảnh và trả về danh sách nhãn tương ứng, toàn bộ kết quả
sau đó được so sánh để cho ra một độ đo, ví dụ độ chính xác Lưu ý rằng, các cặp {anh,
nhãn tương ứng} - (x,y) ở hai giai đoạn huấn luyện và kiểm thử là hai tập không giao
nhau.
Trang 252.2 Convolutional neural network
CNN là mô hình phổ biến cho nhiều ứng dụng thị giác máy tính [20-22][35] va là mộtchuỗi các phép biến đổi để chuyền từ ảnh sang kiểu dữ liệu nhất định, tùy theo tác vụ
mô hình đang thực hiện Các phép biến đổi này trích xuất đặc trưng trong ảnh và môhình sử dụng những đặc trưng này cho mục đích phân loại Mỗi lớp tích chập trong CNN
được tạo thành từ n filter tích chập Mỗi filter trong một lớp di chuyên trên các patchkhác nhau trong ảnh để tạo ra tensor chứa thông tin về các mẫu cục bộ khác nhau Mô
hình CNN cô điển bao gồm ba thành phan: lớp Convolutional, lớp Pooling và lớp Fully
Connected.
— Lớp Convolutional: bao gồm nhóm các filter có đầu vào là ảnh, có nhiệm vụ trích
xuất các đặc trưng trên ảnh Số lượng và kích thước filter phụ thuộc vào thời gian
và mục đích huấn luyện
— Lớp Pooling: thường được sử dụng giữa các lớp Convolutional Lớp Pooling tăng
tốc độ tính toán của toàn bộ mô hình bằng cách giảm kích thước tensor, nhưng
vẫn giữ lại những đặc trưng quan trong.
— Lớp Fully Connected: sau khi ảnh di qua lớp Convolutional và Pooling, lớp Fully
Connected có nhiệm vụ chuyên đôi tensor thành vector đầu ra, cho phép mô hình
xác định nhãn của ảnh đâu vào.
Khi lớp Pooling va Fully Connected tính toán hiệu quả trên máy tính cô điển, dé thấy
rằng tài nguyên tính toán cho Convolutional sẽ tăng nhanh theo kích thước đầu vào
Trang 262.3 Quantum Computing
Tính toán lượng tử (Quantum Computing - QC) là một xu hướng nghiên cứu mới sửdụng các hiện tượng vật lý lượng tử bao gồm: superposition và entanglement dé thiết kếcác thuật toán mới nhằm giải quyết các bài toán khó như: phân tích số nguyên tố (thuậttoán Shor), tìm kiếm nhanh trong cơ sở dir liệu (thuật toán Grover), mô phỏng trong vatlý/hoá học (thuật toán Variational Quantum Eigensolver - VQE), tính toán nhanh matrận nghịch đảo (thuật toán Harrow - Hassidim - Lloyd - HHL) Để thực thi các thuật
toán lượng tử, chúng ta thiết kế các mạch lượng tử bao gồm các công lượng tử
với DN Gal? = 1, 10) = [5] 12) = [J] và [Bo buon) = Bo) ® lb,) ® 8 [bn-1)
là dạng biểu diễn nhị phân cua i {a,} là biên độ trang thái Lưu ý rằng N = 2”
Trang 27Ngoài cách biểu diễn theo toạ độ, trạng thái có thể biểu diễn ở dạng toạ độ cực thông
qua các pha Ø và ở trên khối cầu Bloch có bán kính đơn vị, như minh hoạ Hình (2-3)
Vi dụ, trạng thái 1 - gubit viết dưới dạng (2-6):
Ip) = cos (2) I0) + e sin (2) |1), (2-6)
với 0 < ở < 2z và 0 < 8 <=.
Trong giới hạn, luận văn chỉ nghiên cứu với các trạng thái thuần tuý (điểm trên mặt cầu)
và không nghiên cứu các trạng thái kết hợp (điểm bên trong hoặc bên ngoài mặt cầu)
Tập các công sử dung trong luận văn được trình bay chỉ tiết trong Phụ lục (1)
2.3.3 Do
Chúng ta tiến hành phép do đề biến đổi trạng thái từ lượng tử sang cô điền dé thu được
biên độ trạng thái |Ú), bằng hai phương pháp đo thống kê và đo giải tích
Theo thống kê, trạng thái |) = Ð; @;|é) bị suy biến thành trạng thái cơ bản |i) sau khi
đo Chúng ta thực thi phép đo N lần và thống kê sé lần nhận được các trạng thái cơ bản
theo như Công thức (2-9):
p=} (2-9)
Trang 28với |i) = |0), |1), |2) hoặc |N), Ví dụ: |GHZ) = 510) +510) suy bién thanh |0)
hoặc |1), chúng ta do |GHZ) 1000 lần, 501 lần nhận được |0), 499 lần nhận được |1),
501 499
thu được p(0) = Tooo và PO) = Tạng:
Theo phương pháp giải tích, xác suất nhận được trang thái cổ điển |x) khi đo |j} tuântheo (2-10):
Trang 292.4 Quantum Neural Network
2.4.1 Giới thiệu
Quantum computer
Classical computer
Hình 2-4 Mô ta tổng quát hệ quantum - classical được sử dung trong thuật toán QML
Quantum Neural Network (QUNN), hay Parameterized Quantum Circuit (PQC) [40] là
phương pháp triển khai các lớp các thuật toán hybrid PQC có khả năng tạo ra outputnhư mong muốn với chỉ phí thấp hơn so với các thuật toán lượng tử chỉ sử dụng cổng
hằng (fixed gate) nhờ circuit depth thấp Cách tiếp cận trong PQC là công thức hóa bài
toán dưới dạng các bài toán biến phan (variational problem) với parameter có thê thayđổi được, chúng ta thay đổi các parameter này dé tìm nghiệm gần đúng Nói cách khác,chúng ta tốn chi phí ban đầu dé tìm kiếm parameter phù hợp cho mạch có depth thấp
hơn PQC triển khai trên cả hai phan, cô điển và lượng tử, như mô tả ở Hình (2-4) Trong
hệ, máy tính lượng tử chuẩn bị các trạng thái (quantum state preparation) và thực hiệnphép do, máy tính cô điển sử dụng các kết quả đo dé hậu xử lý, và cập nhật parametercho PQC Cách triển khai một phần thuật toán trên máy tính cổ điển giúp tài nguyên
lượng tử giảm đáng kể, đặc biệt về số lượng qubit, circuit depth và thời gian thực thi
Nhu có đề cập về thuật toán hybrid, phần lượng tử chỉ xử lý tác vụ khó của bài toán
PQC đã giải quyết một số bài toán khó trong tối ưu tô hợp, mô phỏng vật lý và hoá học,
bao gồm: thuật toán Variational Quantum Eigensolver (VQE) tim trang thái cơ bản của
điện tử, Quantum Approximate Optimization (QAOA) tìm nghiệm gần đúng của mô hình
Ising cỗ điển, hoặc giải bài toán MaxCut
Trang 30Parameterized quantum circuit
Hình 2-5 Mô tả chỉ tiết của PQC
Hình (2-5) cho thấy các thành phần của PỌC, có nhiều đặc điểm tương đồng với môhình supervised learning Đầu tiên, input từ tập huấn luyện được biến đổi bằng quá trình
tiền xử lý (hàm Vectorization, ham Normalization, ) Sau đó, dit liệu được ánh xạ sangkhông gian Hilbert bằng Encoder Ug và mạch U(8) thực hiện hoạt động cốt lõi của mô
hình bằng cách trả về trạng thái U(Ø) Ủy (x)|0)9Œ*+), Tiếp theo, Decoder D ước lượng
tập giá trị kỳ vọng {0M)„¿} bằng hữu hạn các phép đo Cuối cùng, hàm hậu xử lý ƒ ánh
xạ kết quả đo thành đầu ra phù hợp với tác vụ Tất cả các thành phần bao gồm hàm tiền
xử lý, hàm hậu xử lý, Encoder Ug, U(8) đều có thé có hoặc không có parameter
2.4.2 Circuit learning
Giống như mô hình ML, PQC sử dụng dữ liệu dé cập nhật parameter cho tác vụ Tác
vụ được biểu diễn dưới dạng cực tiểu hoá hàm L với Ø Đề cập nhật Ø, có hai nhómphương pháp lần lượt là phương pháp bậc 0 (gradient - free) và phương pháp bậc |
(gradient - based).
Ở phương pháp bậc 0, bao gồm nhóm các thuật toán cổ điển như Nelder — Mead,
COBYLA, SPSA, có chi phí tính toán thấp, tuy nhiên tốc độ hội tụ không cao và khó
đạt được điểm cực tiêu hơn so với các phương pháp bậc 1, như được chứng minh về thực
nghiệm trong bài báo của Stokes va cộng sự [46].
Trang 31Ở phương pháp bậc 1, chúng ta tốn thêm chi phí tính toán gradient V@L, bằng tài nguyên
cô điển hoặc lượng tử, tuy nhiên đạt được hiệu quả cao hơn so với các phương pháp bậc
0 Một trong những thuật toán thuộc phương pháp bậc 1 là Stochastic Gradient Descent
(SGD), ý tưởng là Ø được cập nhật theo hướng giảm dan giá trị Loss như (2-12):
ot — 9! — œVạL(8®), (2-12)
với a € R > 0 là tốc độ học (cố định) dùng dé điều chỉnh độ lớn của VL với VL(Ø°) =
[ØsuL(0) 0ạ,L(0) ôg„1(9]" là gradient vector tại thời điểm t Đạo hàm
riêng 8ạ,L(°) được tính bằng kỹ thuật general parameter - shift rule (PSR) - mô tả chitiết ở Phụ lục (2) hoặc công thức sai phân hữu hạn (2-13):
Ngoài ra, một optimizer hiệu quả trong các mô hình ML là Adaptive Moment Estimation
— Adam [49], được mô tả ở Công thức (2-14):
mtVote
1-Bt Ta va các hyper - parameters B, = 0.8 hoặc 0.9, Bz = 1 và e + 0.T2
Cuối cùng, luận văn đề xuất optimizer Quantum Natural Gradient - QNG, hoạt động
theo (2-15):
Trang 32ott — of — agtV, L(8), (2-15)
với g* là giả nghịch dao của Fubini - Study metric tensor g Giả sử nhóm Ø thành L
layer: 0 = 84) © 8) @ @ Ø2 với mỗi layer 8) = (0°, 68°, vẻ Oey | De MO = M} và hai toán tử Unita bat kì thoả mãn điều kiện [đe G6] = ij, metric tensor g có
dang (2-16):
g? 0
g= % (2-16)
0 g) voi phan tử go trong đại lượng gø® được tính theo Phương trình (2-17):
Chỉ tiết về phương pháp tính được trình bày kỹ hơn trong Phụ lục (3)
Mỗi optimizer đều có ưu và nhược điểm riêng: (1) SGD đơn giản nhưng tốc độ hội tụthấp, chúng ta phải chon learning rate phù hợp dé đạt được kết quả tốt nhất, (2) Adamcho phép tự động điều chỉnh tốc độ học và hội tụ nhanh nhưng bị nhiễu gần điểm cựctiểu và (3) QNG tốt hơn các optimizer khác nhưng cũng đòi hỏi nhiều chỉ phí tính toánhơn đo cần truy vấn lượng tử Mặc dù SGD và Adam không phụ thuộc vào trạng tháilượng tử và hoạt động với mọi loại dữ liệu, QNG tối ưu hóa các parameter nhờ việc biến
đổi landscape trong không gian tối ưu và do đó được kỳ vọng sẽ mang lại khả năng tối
ưu tốt hơn và nhanh hơn
Trang 332.4.3 Barren plateaus
"Trong quá trình nghiên cứu về khả năng học của PQC, McClean và cộng sự [44] đã chỉ
ra rằng, hiện tượng vanishing gradient sẽ xảy ra trong trường hợp số qubit tăng dần,
được gọi với tên gọi khác là barren plafeaus Tuy nhiên, có một chút khác biệt so với
vanishing (hoặc exploding) gradient trong Neural Network cổ điển Thứ nhất là về tỷ lệ,thứ hai là về độ phức tạp trong việc tính toán giá trị kỳ vọng Gradient của NeuralNetwork cô điển giảm dan theo cấp số nhân số lượng lớp, trong khi PQC giảm dan theo
cấp số nhân số lượng qubit Trong trường hợp cổ điển, gradient của một nút phụ thuộc
vào tông của tất cả các đường dẫn kết nói tới nút đó với đầu ra, số lượng đường dẫn tăngtheo cấp số nhân số lượng lớp Trong trường hợp lượng tử, số đường đi là luỹ thừa sốqubit va không bị ảnh hưởng bởi số lớp, hay circuit depth Gradient bị bão hòa theo cấp
số nhân số lượng qubit vì tong các xác suất khi đo luôn bằng I
Việc ước tính gradient đối với Neural Network cô dién bị giới hạn bởi độ chính xác khi
tính toán và tỷ lệ với Ø(log(1/£)) Ngay cả khi giá trị gradient nhỏ, miễn là đủ nhất
quán giữa các batch, phương pháp nay cuối cùng có thể thành công Đối với trường hợp
lượng tử, chi phí ước tinh gradient là O (2) Đối với bắt ky số phép do nao thấp hơn
+k „1 5 — : wa Ấy R x
nhiều so với Tone (J[2|| là chuan của gradient), việc tôi ưu dựa trên gradient sẽ tương
đương bước đi ngẫu nhiên (random walk), bước đi ngẫu nhiên có xác suất nhỏ theo cấp
số nhân giúp quá trình học thoát khỏi thoát barren plateaus
Trong quá khứ, vanishing gradient đã khiến việc nghiên cứu về ML bị chậm lại Tuy
nhiên, nhiều kỹ thuật đã được đề xuất như drop out, skip connection, batch
-normalization, lượng dữ liệu và sức mạnh tinh toán cũng tăng lên đáng kể Một cách tiếpcận đề tránh barren plafeaus là sử dụng các phỏng đoán ban đầu có cấu trúc, một cáchkhác là phương pháp cô điển pre — train segment by segment, hoặc sử dụng các mô hình
có số lượng kết nối giảm dần như QCNN
Trang 342.5 Quanvolutional Neural Network
Nhằm ứng dụng tính toán lượng tử trong bài toán xử lý ảnh, mô hình QuanvolutionalNeural Network - QNN được đề xuất bởi Henderson và cộng sự [17] Mô hình có haikhối: khối quantum và khôi classical, mỗi khối có chức năng và nhiệm vụ riêng:
-_ Khối quantum (hay Quanvolutional filter) có nhiệm vụ trích xuất thông tin từ ảnh và
biéu diễn đầu ra dưới dạng vector dé khối classical xử lý, tương tự như chức năng
của Convolutional filter Quanvolutional filter được thực thi trên mạch lượng tử, va
có day đủ các thành phần như PQC, bao gồm: Encoder Ug, mach U(8) và Decoder
D Quanvolutional filter trích xuất các đặc trưng từ dữ liệu đầu vào bằng cách biếnđổi từng patch trên ảnh sang trạng thái thông qua Ug, và chuyển đổi các trạng tháithành kết quả đo thông qua U(@) và D
- Khối classical là một mô hình Neural Network, có nhiệm vụ xử lý thông tin được
trích xuất, chuyển hoá thành đầu ra như yêu cầu Khối classical được thực thi trên
máy tính cô điền
Điểm khác biệt so với các mô hình thuần cổ điển như CNN hoặc thuần lượng tử nhưQCNN là QNN chỉ thay thé phần trích xuất đặc trưng thay vì thực hiện mọi tính toánhoàn toàn ở một phía cổ điển hoặc lượng tử Các mạch lượng tử tạo nên Quanvolutionalfilter giúp Quanvolutional filter có đầu vào và đầu ra tương tự như Convolutional filter.Nhiều ưu điểm của mô hình QNN được đề ra: (1) QNN có khả năng xử lý dữ liệu lượng
tử, áp dụng trong các bài toán liên quan đến lĩnh vực vật lý, hoá học, (2) QNN có độphức tap tính toán chi tăng theo logarit kích thước đầu vào dựa trên hiện tượng
superposition, từ đó giảm thời gian xử lý đáng kể, (3) Henderson và cộng sự [17] đưa
ra giả thuyết rằng các đặc trưng do các mạch lượng tử tạo ra tăng độ chính xác của mô
hình ML nói chung, và cho tác vụ phân loại nói riêng.
Trang 35Hình 2-6 Patch 4 x 4 được cắt ra từ ánh với Ox là pha của qubit biểu thị giá trị
cường độ của pixel tại vị trí (x,y) dưới dạng nhị phân.
Ug có nhiệm vụ mã hóa patch x € IR vào không gian Hilbert (2-19):
lúx) = Ug (Vec(x))|0)®", (2-19)
với Vec kí hiệu cho hàm Vectorization.
Trong phạm vi bài toán phân loại ảnh, chúng ta chia ảnh thành các patch k x k bằngnhau và xử lý trên từng patch Encoder chuyển đổi patch sang trang thái lượng tử bằngcách làm phăng dưới dang vector 1 - D và điều chỉnh các parameter bên trong Encoder
để thay đổi biên độ từ trạng thái mặc định |0)®” sang trạng thái mong muốn Mattern
và cộng sự [18] đã đề xuất ba Encoder xử lý ảnh cơ bản được trình bày trong Phần(2.5.1.1) — Phần (2.5.1.3)
Trang 362.5.1.1 Threshold Encoding
Encoder thứ nhất là Threshold Encoding - TE sử dụng một qubit dé mã hóa tương ứngmột pixel, giá trị của qubit là |0) hoặc |1) Qubit j*" có giá trị là |1) nếu IT - giá trị pixelthứ j lớn hơn ngưỡng 7 và ngược lại Phương pháp này đơn giản và chỉ trả về ảnh nhịphân, như mô tả ở Phương trình (2-20):
2.5.1.2 Flexible Representation of Quantum Images
Flexible Representation of Quantum Images - FRQI được đề xuất bởi Phục và cộng sự
[45] mã hóa hình ảnh hiệu qua hơn TE bang cách sử dung ít qubit hơn FRQI biến đổi
từ trạng thái |0}®* sang trạng thái |/) bằng việc mã hóa giá trị pixel thông qua chuỗi các
công CRy có các pha {6,} € [0,5], theo như Công thức (2-21):
22"~1
ID =F DY; (cos(0)|0) + sin(9)|1))l/), (2-21)
j=0
với j là dang biểu diễn nhị phân cho giá tri pixel FRQI yêu cầu ảnh ở dạng vuông có
kích thước 2" x 2" So với TE, FRQI chỉ yêu cầu 2n + 1 qubit thay vì 2?" Tuy nhiên,
số lượng cổng cần thiết là luỹ thừa hai so với số lượng pixel, 2",
2.5.1.3 Novel enhanced quantum image representation of digital images
Novel enhanced quantum image representation of digital images - NEQR [42] là mộtcải tiến của thuật toán FRQI Ở đây, trang thái cơ sở được sử dung dé lưu trữ dữ liệu
thay vì biên độ NEQR cũng hoạt động trên ảnh 2” x 2” Với XY biểu thị vị trí pixel,
Trang 37Chy biểu thị bit thứ í của giá trị cường độ trên thang màu xám 8 bit tại vị trí (X,Y), theo
mô tả tại Phương trình (2-22) Nếu muốn biểu diễn các thang đo khác, như 24 bit, chúng
ta thay đổi cận trên của i
Theo nghiên cứu của Zhang va cộng sự [42], ảnh [/) sử dụng 2n cổng Hadamard và tôi
đa 8 x22" cổng 2n qubit — CNOT Do đó, độ phức tạp của thuật toán phụ thuộc vào cáchtriển khai công 2n qubit - CNOT
2.5.1.4 Quantum embedding
Một số nghiên cứu mới về quantum embedding cho ra một số Encoder mới, bao gồm:
Amplitude Encoding - AE [23][24] và Quantum RAM - QRAM [25[26] với độ phức tap
là O(n) qubit va 0 (22) về circuit depth, Divide — and - Conquer Encoder - DCE [27]với độ phức tap O(N) về số lượng qubit va O(log, N) về circuit depth
Nếu r là số điểm dữ liệu trong tập dữ liệu D được tải lên mach trong một lần, AE vàDCE sẽ hoạt động với r = 1, trong khi QRAM hoạt động với 1 < t < |D|, phù hợp với
việc huấn luyện mô hình có batch size lớn Tuy nhiên, triển khai phần cứng cho QRAM
hiện tai khá phức tạp, chúng ta cũng sẽ bỏ qua DCE, vì số lượng gubit tăng tuyến tínhtheo kích thước dữ liệu đầu vào, không hiệu quả cho bài toán thuộc lớp QML
Rõ ràng, chúng ta có thể biểu diễn dữ liệu cổ điển bằng AE hiệu quả vì số lượngparameter tăng theo số qubit với số qubit là logarit so với kích thước dữ liệu đầu vào
AE chuẩn hoá dữ liệu về vector có độ dài 1, tuy nhiên vẫn duy trì tỷ lệ cường độ giữacác pixel thông qua biên độ Nói ngắn gọn, dữ liệu đầu vào x = [xạ,x¿, ,xy]! đượcbiến đổi dựa vào Phương trình (2-23):
Upe(x):x € RY > bx) = EM ali), (2-23)
Trang 38trong đó |i) là cơ sở tính toán it” Nếu log, N £ R, zero padding 0 được sử dụng saocho (2-24):
x = [x, 0], log;(N + |0|) ER, (2-24)
Tuy sử dung ít qubit, AE lại có thời gian tính toán lớn do circuit depth tăng theo cấp sốnhân, điều này gây khó khăn cho toàn bộ quá trình tính toán, như minh hoạ ở Hình (2-7) Circuit depth là [5, 26, 130, 594, 2546] ứng với [2, 3, 4, 5, 6] qubit.
a a
q2
Hình 2-7 Một mạch lượng tử bao gom cổng CU;(œ,B,y), cổng Ry(8), cổng CNOT và
cổng X để khởi tạo trạng thái 3 - qubit bat kỳ.
2.5.1.5 Quantum Compilation
Để khắc phục ton tại trong AE, luận văn dé xuất sử dụng thuật toán Universal
Compilation — based variational quantum — UC - VQA [53-56] với chức năng biên dịch
một trạng thái từ toán tử này sang một toán tử khác và áp dụng nó để tạo ra một Encoder
hiệu quả với chi phí O(n) về số lượng qubit và O(poly(n)) về circuit depth UC — VQAyêu cầu thời gian tìm kiếm parameter từ ban đầu, tuy nhiên sẽ có lợi nếu ta ở trong tìnhhuống sử dụng trạng thái nhiều lần
Trang 39star ansatz polygon ansatz
Hình 2-8 (a) Thuật toán VỌA viễn tải trạng thái mục tiêu |Ù) vào U Mạch này sau đó
được đo và gửi kết quả đến máy tính cô điển dé cập nhật parameter cho đến khi cost
function hội tụ (b) Một số cấu trúc của U bao gom star va polygon graph.
UC — VQA là một thuật toán hybrid, bao gồm hai phần quantum va classical, như mô tả
ở Hình (2-8) Phan quantum bao gồm hai mạch U(Ø) và V+(6’) tác động tuần tự lên
trang thái khởi tạo |Jo) hình thành trạng thái cuối cùng |W) (2-25):
br) = V*(O")U(O) Io) (2-25)Xác suất chuyển đổi được từ trạng thái ban đầu sang trạng thái mục tiêu thoả (2-26):
2 lễ
P(Po > Wr) = |(0o|U;)|Í = lo|V1(090(6)0.)|? (2-26)
Nhiệm vụ của chúng ta là tối đa hoá xác suất này Pmax(Wo — We), khi đó |J(8)) =
U()lạ) được biên dịch về |p (Ø')) = VA) |W) Nói cách khác, chúng ta sử dụngkernel % thoả (2-27):
?(, Ø') = |(@(8')|(8))|? = p(0ạ > Wy) (2-27)
Kéo theo (2-28):
Pmax(Wo > Wr) = argmax X(8, 6') (2-28)
Trang 40Nếu p(Wo > We) đạt cực đại, đồng nghĩa rằng: |J(Ø)) = |ó(Ø')).
Bước đầu tiên, chúng ta biến đổi trạng thái khởi tạo sang trạng thái biến phân (2-29):
|v(@)) = U(6)|0), (2-29)
Sau đó, trạng thái mục tiêu dat được bằng (2-30):
|z) = V|0), (2-30)
với V là target unitary (đã biết có depth thập hơn so với mạch sinh ra từ phương pháp
AE Dé xem xét khoảng cách giữa hai trạng thái, độ đo Fubini— Study được dé xuất như
(2-31):
d(v(6),t) = vJ1~ Kz|v(@))? = vJ1 — pạ(8), (2-31)
với pạ(6) = |(0|V†U(Ø)|0)|? là xác suất nhận được trang thái |0} khi do bằng toán tử
chiếu Py = |0){0| Trạng thái biến phân trở thành trạng thái mục tiêu nếu độ đo trên tiến
về 0, |ø(Ø”)) = |r) Nếu Fubini — Study được sử dụng như cost value, C(@) =d(v(@),7), khi đó, quá trình cực tiểu hoá C(@) là mục tiêu (2-32):