1. Trang chủ
  2. » Công Nghệ Thông Tin

nhận dạng ảnh Pattern recognition

34 1,6K 16
Tài liệu đã được kiểm tra trùng lặp

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 34
Dung lượng 817,5 KB

Nội dung

Nhận dạng ảnh Pattern recognition

Chơng Bảy: nhận dạng ảnh nhận dạng ảnh Pattern recognition Nh hình 1.1-a chơng Một, nhận dạng ảnh giai đoạn cuối hệ thống xử lý ảnh Nhận dạng ảnh dựa tảng lý thuyết nhận dạng (pattern recognition) nói chung đà đợc đề cập nhiều sách nhận dạng đây, ta không nhắc lại mà trình bày mang tính chất giới thiệu số khái niệm phơng pháp thờng đợc sử dụng kỹ thuật nhận dạng Và cuối đề cập đến trờng hợp cụ thể nhận dạng nhận dạng chữ viết, vấn đề đà đợc quan tâm nhiều Trong lý thuyết nhận dạng nói chung nhận dạng ảnh nói riêng có cách tiếp cận khác nhau: - Nhận dạng dựa vào phân hoạch không gian - Nhận dạng cấu trúc - Nhận dạng dựa vào kỹ thuật mạng nơ ron Hai cách tiếp cận đầu kỹ thuật kinh điển Các đối tợng ảnh quan sát thu nhận đợc phải trải qua giai đoạn tiền xử lý nhằm tăng cờng chất lợng, làm chi tiết (chơng 4), trích chọn biểu diễn đặc trng (chơng chơng 6), cuối qua giai đoạn nhận dạng Cách tiếp cận thứ ba hoàn toàn khác Nó dựa vào chế đoán nhận, lu trũ phân biệt đối tợng mô theo hoạt động hệ thần kinh ngời Do chế đặc biệt, đối tợng thu nhận thị giác ngời không cần qua giai đoạn cải thiện mà chuyển sang giai đoạn tổng hợp, đối sánh với mẫu đà lu trữ để nhận dạng Đây c¸ch tiÕp cËn cã nhiỊu høa hĐn C¸c c¸ch tiÕp cận trình bày chi tiết phần dới 7.1 tổng quan nhận dạng Nhận dạng trình phân loại đối tợng đợc biểu diễn theo mô hình gán cho chúng vào lớp (gán cho đối tợng tên gọi) dựa theo quy luật mẫu chuẩn Quá trình nhận dạng dựa vào mẫu học biết trớc gọi nhận dạng có thày hay học có thày (supervised learning); trờng hợp ngợc lại gọi học thày (non supervised learning) Chúng ta lần lợt giới thiệu khái niệm 7.1.1 Không gian biểu diễn đối tợng, không gian diễn dịch Không gian biểu diễn đối tợng Các đối tợng quan sát hay thu thập đợc, thờng đợc biểu diễn tập đặc trng hay đặc tính Nh trờng hợp xử lý ảnh, ảnh sau đợc tăng cờng để nâng cao chất lợng, phân vùng trích chọn đặc tính nh đà trình bày chơng từ chơng Bốn đến chơng Sáu, đợc biểu diễn đặc trng nh biên, miền đồng nhất, v ,v Ngời ta thờng phân đặc trng theo loại nh: đặc trng tô pô, đặc trng hình học đặc trng chức Việc biểu diễn ảnh theo đặc trng nµo lµ phơ thc vµo øng dơng tiÕp theo ta đa cách hình thức việc biểu diễn đối tợng Giả sử đối tợng X (ảnh, chữ viết, dấu vân tay, v ,v) đợc biểu diễn n thành phần (n đặc trng): X = {x1, x2, , xn}; xi biểu diễn đặc tính Không gian biểu diễn đối tợng thờng gọi tắt không gian đối tợng X đợc định nghĩa: X = {X1, X2, , Xm} Nhập môn xử lý ảnh số - ĐHBK Hà nội 164 Chơng Bảy: nhận dạng ảnh Xi biểu diễn đối tợng Không gian vô hạn Để tiện xem xét xét tập X hữu hạn Không gian diễn dịch Không gian diễn dịch tập tên gọi đối tợng Kết thúc trình nhận dạng ta xác định đợc tên gọi cho đối tợng tập không gian đối tợng hay nói đà nhận dạng đợc đối tợng Một cách hình thức gọi tập tên đối tợng: = {w1, w2, ,wk} víi wi, i = 1, 2, , k tên đối tợng Quá trình nhận dạng đối tợng f ánh xạ f: X -> với f tập quy luật để định phần tử X ứng với phần tử Nếu tập quy luật tập tên đối tợng biết trớc nh nhận dạng chữ viết (có 26 lớp từ A đến Z), ngời ta gọi nhận dạng có thày Trờng hợp thứ hai nhận dạng thày Đơng nhiên trờng hợp việc nhận dạng có khó khăn 7.1.2 Mô hình chất trình nhận dạng 7.1.2.1 Mô hình Việc chọn lựa trình nhận dạng có liên quan mật thiết đến kiểu mô tả mà ngời ta sử dụng để đặc tả đối tợng Trong nhận dạng, ngời ta phân chia làm họ lớn: - Họ mô tả theo tham số - Họ mô tả theo cấu trúc Cách mô tả đợc lựa chọn xác định mô hình đối tợng Nh vậy, có loại mô hình: mô hình theo tham số mô hình cấu trúc ã Mô hình tham số sử dụng véctơ để đặc tả đối tợng Mỗi phần tử véctơ mô tả đặc tính đối tợng Thí dụ nh đặc trng chức năng, ngời ta sử dụng hàm sở trực giao để biểu diễn Và nh ảnh đợc biểu diễn chuỗi hàm trực giao Giả sử C đờng bao ảnh C(i,j) điểm thứ i đờng bao, i = 1, 2, , N (đờng bao gồm N điểm) Giả sử tiếp : x0 = N y0 = N N ∑ xi i =1 N yi i =1 toạ độ tâm ®iĨm Nh vËy, moment trung t©m bËc p, q cđa ®êng bao lµ: µpq = N N ∑ (xi-x0)p(yi-y0)q (7.1) i =1 Véctơ tham số trờng hợp moment àij với i=1, 2, ,p j=1, 2, ,q Còn số đặc trng hình häc, ngêi ta hay sư dơng chu tun , ®êng bao, diƯn tÝch vµ tØ lƯ T = 4πS/p2, víi S lµ diƯn tÝch, p lµ chu tun ViƯc lùa chọn phơng pháp biểu diễn làm đơn giản cách xây dựng Tuy nhiên, việc lựa chọn đặc trng lµ hoµn toµn phơ thc vµo øng dơng ThÝ dơ , nhận dạng chữ (sẽ trình bày sau), tham số dấu hiệu: - số điểm chạc ba, chạc t, - số điểm chu trình, - số điểm ngoặt, - số điểm kết thúc, Nhập môn xử lý ảnh số - ĐHBK Hà nội 165 Chơng Bảy: nhận dạng ảnh ã chẳng hạn với chữ t ã ã có điểm kết thúc, điểm chạc t, ã ã Mô hình cấu trúc: Cách tiếp cận mô hình dựa vào việc mô tả đối tợng nhờ số khái niệm biểu thị đối tợng sở ngôn ngữ tự nhiên Để mô tả đối tợng, ngời ta dùng số dạng nguyên thuỷ nh đoạn thẳng, cung, v, ,v Chẳng hạn hình chữ nhật đợc định nghĩa gồm đoạn thẳng vuông góc với đôi Trong mô hình nµy ngêi ta sư dơng mét bé kÝ hiƯu kÕt thóc Vt, mét bé kÝ hiƯu kh«ng kÕt thóc gäi Vn Ngoài có dùng tập luật sản xuất để mô tả cách xây dựng đối tợng phù hợp dựa đối tợng đơn giản đối tợng nguyên thuỷ (tập Vt) Trong cách tiếp cận này, ta chấp nhận khẳng đinh là: cấu trúc dạng kết việc áp dụng luật sản xuất theo theo nguyên tắc xác định dạng gốc bắt đầu Một cách hình thức, ta coi mô hình tơng đơng văn phạm G = (Vt, Vn, P, S) víi: - Vt lµ bé ký hiƯu kÕt thóc, - Vn ký hiệu không kết thúc, - P luật sản xuất, - S dạng (ký hiệu bắt đầu) Thí dụ, đối tợng nhà gồm mái tờng, mái tam giác gồm cạnh đoạn thẳng, tờng hình chữ nhật gồm cạnh vuông góc với đôi đợc mô tả thông qua cấu trúc mô tả dựa vào văn phạm sinh nh hình 7.1 dới (1) Nhà (2) (3) (6) Mái Tờng (4) Đọạn Đoạn Đoạn Đoạn Đoạn Đoạn Đoạn (5) Hình 7.1 Mô hình cấu trúc đối tợng nhà 7.1.2.2 Bản chất trình nhận dạng Quá trình nhận dạng gồm giai đoạn chính: - Lựa chọn mô hình biểu diễn đối tợng - Lựa chọn luật định (phơng pháp nhận dạng) suy diễn trình học - Học nhận dạng Khi mô hình biểu diễn đối tợng đà đợc xác định, định lợng (mô hình tham số) hay định tính (mô hình cấu trúc), trình nhận dạng chuyển sang giai đoạn học Học giai đoạn quan trọng Thao tác học nhằm cải thiện, điều chỉnh việc phân hoạch tập đối tợng thành lớp Việc nhận dạng tìm quy luật thuật toán để gán đối tợng vào lớp hay nói cách khác gán cho đối tợng tên Học có thày (supervised learning) Nhập môn xử lý ảnh số - ĐHBK Hà nội 166 Chơng Bảy: nhận dạng ảnh Kỹ thuật phân loại nhờ kiến thức biết trớc gọi học có thày Đặc điểm kỹ thuật ngời ta có th viện mẫu chuẩn Mẫu cần nhận dạng đợc đem sánh với mẫu chuẩn để xem thuộc loại Thí dụ nh ảnh viễn thám, ngời ta muốn phân biệt cánh đồng lúa, cánh rừng hay vùng đất hoang mà đà có miêu tả đối tợng Vấn đề chủ yếu thiết kế hệ thống để đối sánh đối tợng ảnh với mẫu chuẩn định gán cho chúng vào lớp Việc đối sánh nhờ vào thủ tục định dựa công cụ gọi hàm phân lớp hay hàm định Hàm đợc đề cập phần sau Học thày(unsupervised learning) Kỹ thuật học phải tự định lớp khác xác định tham số đặc trng cho lớp Học thày đơng nhiên khó khăn Một mặt, số lớp không đợc biết trớc, mặt khác đặc trng lớp trớc Kỹ thuật nhằm tiến hành cách gộp nhóm chọn lựa cách tốt Bắt đầu từ tập liệu, nhiều thủ tục xử lý khác nhằm phân lớp nâng cấp dần để đạt đợc phơng án phân loại Một số kỹ thuật tự học đợc trình bày phần 7.2.4 Nhìn chung, dù mô hình kỹ thuật nhận dạng sao, hệ thống nhận dạng tóm tắt theo sơ đồ sau: Trích chọn đặc tính Phân lớp biểu diễn đối tợng định Quá trình tiền xử lý trả lời Đánh giá Khối nhận dạng Hình 7.2 Sơ đồ tổng quát hệ nhận dạng 7.2 nhận dạng dựa phân hoạch không gian Trong kỹ thuật này, đối tợng nhận dạng đối tợng định lợng Mỗi đối tợng đợc biểu diễn véctơ nhiều chiều Trớc tiên, ta xem xét số khái niệm nh: phân hoạch không gian, hàm phân biệt sau vào số kỹ thuật cụ thể 7.2.1 Phân hoạch không gian Giả sử không gian đối tợng X đợc định nghĩa : X = {Xi, i=1, 2, ,m}, Xi véctơ Ngời ta nói p phân hoạch không gian X thành lớp Ci, Ci X nếu: Ci Cj = víi i ≠ j vµ ∪ Ci = X Nói chung, trờng hợp lý tởng: tập X tách đợc hoàn toàn Trong thực tế, thờng gặp không gian biểu diễn tách đợc phần Nh phân loại dựa vào việc xây dựng ánh xạ f: X -> p Công cụ xây dựng ánh xạ hàm phân biệt (Descriminant functions) 7.2.2 Hàm phân lớp hay hàm định Để phân đối tợng vào lớp, ta phải xác định số lớp ranh giới lớp Hàm phân lớp hay hàm phân biệt công cụ quan trọng Gọi {gi} lớp hàm phân lớp Lớp hàm đợc định nghĩa nh sau: ∀ i ≠ k, gk(X) > gi(X) th× ta quyÕt định X lớp k Nh để phân biệt k lớp, ta cần k-1 hàm phân biệt Hàm phân biệt g lớp thờng dùng hàm tuyến tính, có nghĩa là: Nhập môn xử lý ảnh số - ĐHBK Hà nội 167 Chơng Bảy: nhận dạng ảnh g(X) = W0 + W1X1 + W2 X2+ + Wk Xk đó: - Wi trọng số gán cho thành phần Xi - W0 trọng số để viết cho gọn Trong trờng hợp g tuyến tính, ngời ta nói việc phân lớp tuyến tính hay siêu phẳng (hyperplan) Các hàm phân biệt thờng đợc xây dựng dựa khái niệm khoảng cách hay dựa vào xác suất có điều kiện Lẽ tự nhiên, khoảng cách công cụ tốt để xác định xem đối tợng có "gần nhau" hay không Nếu khoảng cách nhỏ ngỡng ta coi đối tợng giống gộp chúng vào lớp Ngợc lại , khoảng cách lớn ngỡng , có nghĩa chúng khác ta tách thành lớp Trong số trờng hợp, ngời ta dựa vào xác suất có điều kiện để phân lớp cho đối tợng Lý thuyết xác suất có điều kiện đợc Bayes nghiên cứu kỹ áp dụng lý thuyết để phân biệt đối tợng Gọi : P(X/Ci) xác suất để có X biết có xuất lớp Ci P(Ci /X) xác suất có điều kiện để X thuộc lớp Ci với X đối tợng nhận dạng, Ci lớp đối tợng Quá trình học cho phép ta xác định P(X/Ci) nhờ công thức Bayes sác xuất có điều kiện áp dông P ( X / Ci ) P ( Ci ) P ( X / C i ) P ( Ci ) = ®iỊu kiƯn nhiỊu biÕn, chóng ta tính đợc P(Ci/X) theo công thức: P(Ci /X) = n P( X ) ∑ P (C / Xi ) P (Ci ) i =1 (7.2) NÕu P(Ci /X) > P(Ck /X) víi ∀i # k th× X ∋ Ci Tuỳ theo phơng pháp nhận dạng khác nhau, hàm phân biệt có dạng khác 7.2.3 Nhận dạng thống kê Nếu đối tợng nhận dạng tuân theo luật phân bố Gauss, mà hàm mật độ sác xuÊt cho bëi: (x-m)2 f(x) = exp () 2πσ2 22 ngời ta có dùng phơng pháp định dựa vào lý thuyết Bayes Lý thuyết Bayes thuộc loại lý thuyết thống kê nên phơng pháp nhận dạng dựa lý thuyết Bayes có tên phơng pháp thống kê Quy tắc Bayes - Cho không gian đối tợng X = {Xl, l=1, 2, , L}, víi Xl= {x1, x2, , xp} - Cho không gian diễn dịch = { C1, C2, , Cr}, r lµ sè líp Quy tắc Bayes phát biểu nh sau: : X -> Ω cho X ∈ Ck nÕu P(Ck /X) > P(Cl /X) ∀l k, l=1, 2, ,r Trêng hợp lý tởng nhận dạng đúng, có nghĩa sai số Thực tế , tồn sai số trình nhận dạng Vấn đề xây dựng quy tắc nhận dạng với sai số nhỏ Phơng pháp định với tối thiểu Ta xác định X ∈ Ck nhê x¸c suÊt P(Ck/X) VËy nÕu cã sai số, sai số đợc tính - P(Ck/X) Để đánh giá sai số trung bình, ngời ta xây dựng ma trận L(r,r) giả thiết có n lớp Ma trận L đợc định nghĩa nh sau: lk,j > nÕu k j Lk,j = (tån t¹i sai sè) lk,j l 12 − l 22 P (C ) l 11 − l 21 P (C 1) P( X / C 2) (7.7) Gi¶ sư thêm xác suất phân bố (P(C1) = P(C2), sai sè lµ nh ta cã: X ∈ C1 nÕu P(X/C1) > P(X/C2) (7.8) 7.2.4 Mét sè thuËt toán nhận dạng tiêu biểu tự học Thực tế có nhiều thuật toán nhận dạng học thày đây, xem xét thuật toán hay đợc sử dụng: Thuật toán nhận dạng dựa vào khoảng cách lớn nhất, thuật toán K- trung bình (K mean) thuật toán ISODATA Chúng ta lần lợt xem xét thuật toán chúng có bớc tiếp nối, cải tiến từ thuật toán qua thuật toán khác 7.2.4.1 Thuật toán dựa vào khoảng cách lớn a) Nguyên tắc Cho tập gồm m đối tợng Ta xác định khoảng cách đối tợng khoảng cách lớn ứng với phần tử xa tạo nên lớp Sự phân lớp đợc hình thành dựa vào việc xác định khoảng cách đối tợng lớp b) Thuật toán Bớc - Chọn hạt nhân ban đầu: giả sử X1 C1 gọi lớp g1 Gọi Z1 phần tử trung tâm g1 - Tính tất khoảng c¸ch Dj1 = D(Xj,Z1) víi j =1, 2, , m - Tìm Dk1= maxj Dj1 Xk phần tử xa nhóm g1 Nh Xk phần tử trung t©m cđa líp míi g2, kÝ hiƯu Z2 - TÝnh d1 = D12 = D(Z1,Z2) Bíc - TÝnh khoảng cách Dj1, Dj2 - Dj1 = D(Xj,Z1), Dj2 = D((Xj,Z2) Đặt Dk(2) = max j Dj Nguyên tắc chän - NÕu Dk(2) < θ d1 kÕt thóc thuËt toán Phân lớp xong - Nếu không, tạo nên nhóm thứ ba Gọi Xk phần tử trung tâm cđa g3, kÝ hiƯu Z3 - TÝnh d3 = (D12 + D13 + D23)/3 víi θ lµ ngìng cho tríc D13 = D(Z1,Z3), D23 = D(Z2,Z3) Nhập môn xử lý ảnh số - ĐHBK Hà nội 169 Chơng Bảy: nhận dạng ảnh Quá trình lặp lại nh phân xong Kết ta thu đợc lớp với đại diện Z1, Z2 , , Zm 7.2.4.2 Thuật toán K trung bình ( giả sử có K lớp) a) Nguyên tắc Khác với thuật toán trên, ta xét K phần tử không gian đối tợng, hay nói cách khác ta cố định K lớp Hàm để đánh giá hàm khoảng cách Euclide: k Jk = X gk D ( X , Zk ) = ∑ D ( Xj , Zk ) j =1 (7-9) Jk lµ hàm tiêu với lớp Ck Việc phân vùng cho k hạt nhân đợc tiến hành theo nguyên tắc khoảng cách cực tiểu đây, ta dùng phơng pháp đạo hàm để tính cực tiểu Xét Jk = víi Zk lµ biÕn Ta dƠ dµng cã (7.9) khi: ∂ Zk N ∑ ( Xi − Zk ) = ==> Zk = i =1 Nc Zj Nc j =1 (7.10) Công thức 7.10 giá trị trung bình lớp Ck điều lý giải tên phơng pháp b)Thuật toán ã Chọn Nc phần tử (giả thiết có Nc lớp) tập T Gọi phần tử trung tâm lớp ®ã lµ: X1, X2, , XNc vµ ký hiƯu lµ Z1, Z2, , ZNc ã Thực phân lớp X ∈ Ck nÕu D(X,Zk) = Min D(X,Zj)(1), j =1, , Nc (1) lần lặp thứ Tính tất Zk theo c«ng thøc 7.10 TiÕp tơc nh vËy cho ®Õn bíc q X ∈ Gk(q-1) nÕu D(X,Zk(q-1)) = l D(X,Zl(q-1)) NÕu Zk(q-1) = Zk(q) tht to¸n kÕt thóc, không ta tiếp tục thực phân lớp 7.2.4.3 Thuật toán ISODATA ISODATA viết tắt từ Iteractive Self Organizing Data Analysis Nó thuật toán mềm dẻo, không cần cố định lớp trớc Các bớc thuật toán đợc mô tả nh sau: - Lựa chọn phân hoạch ban đầu dựa tâm Thực nghiệm đà chứng minh kết nhận dạng không phụ thuộc vào phân lớp ban đầu [2] - Phân vùng cách điểm vào tâm gần dựa vàp khoảng cách Euclide - Tách đôi lớp ban đầu khoảng cách lớn ngỡng t1 - Xác định phân hoạch sở tâm vừa xác định lại tiếp tục xác định tâm - Tính tất khoảng cách đến tâm - Nhóm vùng với tâm theo ngỡng t2 Lặp thao tác tác thoả tiêu chuẩn phân hoạch 7.3 Nhận dạng theo cấu trúc 7.3.1 Biểu diễn định tính Ngoài cách biễn diễn theo định lợng nh đà mô tả trên, tồn nhiều kiểu đối tợng mang tính định tính Trong cách biểu diễn này, ngời ta quan tâm đến dạng mối quan hệ chúng Giả thiết đối tợng đợc biểu diễn dÃy ký tự Các đặc tính biểu diễn số ký tự Phơng pháp nhận dạng nhận dạng lô gíc, dựa hàm phân biệt hàm Bool Cách nhận dạng nhận dạng từ có độ dài Nhập môn xử lý ảnh số - ĐHBK Hà nội 170 Chơng Bảy: nhận dạng ảnh Giả sử hàm phân biệt cho ký hiệu ga(x), gb(x), , tơng ứng với ký hiệu a, b, Để dễ dàng hình dung, ta giả sử có từ "abc" đợc biểu diễn dÃy ký tự X = {x1, x2, x3, x4} Tính hàm tơng ứng với ký tự có: ga(x1) + gb(x2) + gc(x3) + gc(x4) Các phép cộng phép toán OR Trên sở tính giá trị cực đại hàm phân biệt, ta định X có thuộc lớp từ "abc" hay không Trong cách tiếp cận này, đối tợng tơng đơng với câu 7.3.2 Phơng pháp định dựa vào cấu trúc 7.3.2.1 Một số khái niệm Thủ tục phân loại nhận dạng gồm giai đoạn: Giai đoạn đầu giai đoạn xác định quy tắc xây dựng, tơng đơng với việc nghiên cứu văn phạm ngôn ngữ thống Giai đoạn đà có văn phạm xem xét tập dạng có đợc sinh từ dạng không? Nếu thuộc tập coi nh ta đà phân loại xong Tuy nhiên, văn phạm vấn đề lớn Trong nhËn d¹ng cÊu tróc, ta míi chØ sư dơng đợc phần nhỏ mà Nh đà nói, mô hình cấu trúc tơng đơng văn phạm G :G = {Vn, Vt, P, S} Cã rÊt nhiÒu kiểu văn phạm khác từ tắc, phi ngữ cảnh, Độc giả quan tâm xin xem tài liệu lý thuyết ngôn ngữ hình thức hay ô tô mát đây, xin giới thiệu ngôn ngữ đợc áp dụng nhận dạng cấu trúc: ngôn ngữ PLD (Picture Language Description) Ví dụ: Ngôn ngữ PLD Trong ngôn ngữ này, từ vựng vạch có hớng Có từ vựng bản: a: b: c: d: Các từ vựng quan hệ đợc định nghĩa nh sau: + :a+b -:a-b x: a x b *: a * b Văn phạm sinh mô tả ngôn ngữ đợc định nghĩa bởi: GA = {Vn, VT, P, S} víi Vn = {A, B, C, D, E} vµ VT = {a, b, c, d} S ký hiệu bắt đầu P tập luật sản xuất Ngôn ngữ thờng dùng nhận dạng mạch điện 7.3.2.2 Phơng pháp nhận dạng Các đối tợng cần nhận dạng theo phơng pháp đợc biểu diễn câu ngôn ngữ L(G) Khi thao tác phân lớp xem xét đối tợng có thuộc văn phạm L(G) không? Nói cách khác có đợc sinh luật văn phạmG không? Nh phân lớp theo cách tiếp cận cấu trúc đòi hỏ phải xác định: Nhập môn xử lý ảnh số - ĐHBK Hà nội 171 Chơng Bảy: nhận dạng ảnh - Tập Vt chung cho đối tợng - Các quy tắc sinh P để sản sinh câu chúng khác lớp - Quá trình học với câu biểu diễn đối tợng mẫu l nhằm xác định văn phạmG - Quá trình định: xác định đối tợng X đợc biĨu diƠn bëi mét c©u lx NÕu lx nhËn biÕt ngôn ngữ L(Gx) ta nói X Ck Nói cách khác, việc định phân lớp dựa vào phân tích cúG k biểu diễn lớp Ck pháp văn phạm Cũng nh phân tích cú pháp ngôn ngữ, có phân tích xuống, dới lên, viƯc nhËn d¹ng theo cÊu tróc cịng cã thĨ thùc theo cách tơng tự Việc nhận dạng dựa theo cÊu tróc lµ mét ý tëng vµ dÉu cịng cần đợc nghiên cứu thêm 7.4 mạng nơ ron nhân tạo Nhận dạng theo mạng nơ ron Trớc tiên, cần xem xét số khái niệm nÃo nh chế hoạt động mạng nơ ron sinh học Tiếp theo, để tiện theo dõi, đề cập đến ứng dụng mạng nơ ron nhận dạng chữ viết 7.4.1.Bộ nÃo nơ ron sinh học Các nhà nghiên cứu sinh học nÃo cho ta thấy nơ ron (tế bào thần kinh) đơn vị sở đảm nhiệm chức xử lý định hệ thần kinh, bao gồm nÃo, tuỷ sống dây thần kinh Mỗi nơ ron có phần thân với nhân bên (gọi soma), đầu thần kinh (gọi sợi trục axon) hệ thống dạng dây thần kinh vào (gọi dendrite) Các dây thần kinh vào tạo thành lới dày đặc xung quanh thân tế bào, chiếm diện tích khoảng 0,25 mm2, dây thần kinh tạo thành trục dài từ cm hàng mét Đờng kính nhân tế bào thờng 10-4m Trục dây thần kinh phân nhánh theo dạng để nối với dây thần kinh vào trực tiếp với nhân tế bào nơ ron khác thông qua khớp nối (gọi synapse) Thông thờng, nơ ron gồm vài chục hàng trăm ngàn khớp nối để nối với nơ ron khác Ngời ta ớc lợng lới dây thần kinh với khớp nối bao phủ diện tích khoảng 90% bề mặt nơ ron (hình 7-3) Các tín hiệu truyền dây thần kinh vào dây thần kinh nơ ron tín hiệu điện đợc thực thông qua trình phản ứng giải phóng chất hữu Các chất đợc phát từ khớp nối dẫn tới dây thần kinh vào làm tăng hay giảm điện nhân tế bào Khi điện đạt tới ngỡng ®ã, sÏ t¹o mét xung ®iƯn dÉn tíi trơc dây thần kinh Xung đợc truyền theo trục, tới nhánh rẽ chạm tới khớp nối với nơ ron khác giải phóng chất truyền điện Ngời ta chia làm hai loại khớp nối: khíp nèi kÝch thÝch (excitatory) hc khíp nèi øc chÕ (inhibitory) Phát quan trọng ngành nghiên cứu nÃo liên kết khớp thần kinh mềm dẻo, biến động chỉnh đổi theo thời gian tuỳ thuộc vào dạng kích thích Hơn nữa, nơ ron sản sinh liên kết với nơ ron khác đôi khi, lới nơ ron di trú từ vùng sang vùng khác nÃo Các nhà khoa học cho sở quan trọng để giải thích chế học nÃo ngời Phần lớn trình xử lý thông tin xảy vỏ nÃo Toàn vỏ nÃo đợc bao phủ mạng tổ chức sở có dạng hình thùng tròn với đờng kích khoảng 0,5 mm, độ cao mm Mỗi đơn vị sở chứa khoảng 2000 nơ ron Ngời ta vùng nÃo có chức định Điều đáng ngạc nhiên nơ ron đơn giản chế làm việc, nhng mạng nơ ron liên kết có khả tính toán, suy nghĩ, ghi nhớ điều khiển Có thể điểm qua chức nÃo nh sau: -Bộ nhớ đợc tổ chức theo bó thông tin truy nhập theo nội dung (Có thể truy xuất thông tin dựa theo giá trị thuộc tính đối tợng) -Bộ nÃo có khả tổng quát hoá, truy xuất tri thức hay mối liên kết chung đối tợng tơng ứng với khái niệm chung Nhập môn xử lý ảnh số - ĐHBK Hà nội 172 Chơng Bảy: nhận dạng ảnh - Bộ nÃo có khả dung thứ lỗi theo nghĩa ®iỊu chØnh hc tiÕp tơc thùc hiƯn cã sai lệch thông tin bị thiếu không xác Ngoài ra, nÃo phát phục hồi thông tin bị dựa tơng tự đối tợng - Bộ nÃo có khả xuống cấp thay Khi có trục trặc vùng nÃo (do bệnh, chấn thơng) bắt gặp thông tin hoàn toàn lạ, nÃo tiếp tục làm việc -Bộ nÃo có khả học So sánh khả làm việc nÃo máy tính Đơn vị tính toán Bộ nhớ Máy tính Bộ xử lý trung tâm với 105mạch logic sở 109 bit RAM 1010 bit bé nhí ngoµi Thêi gian xư lý Thông lợng Cập nhật 10-8 giây 109 bit/giây 105 bit/giây Bộ nÃo ngời Mạng 1011 nơ ron 1011 nơ ron với 1014 khớp nối thần kinh 10-3 giây 1014 bit/giây 1014 nơ ron/giây thông tin Dễ dàng thấy nÃo ngời lu giữ nhiều thông tin máy tính đại; Tuy điều mÃi mÃi, lẽ nÃo tiến hóa chậm, nhờ tiến công nghệ vi điện tử, nhớ máy tính đợc nâng cấp nhanh Hơn nữa, nhớ trở nên hoàn toàn thứ yếu so với khác biệt tốc độ tính toán khả xử lý song song Các vi xử lý cã thĨ tÝnh 108 lƯnh mét gi©y, mạng nơ ron xử lý chậm hơn, cần khoảng vài miligiây để kích hoạt Tuy nhiên, nÃo kích hoạt hầu nh lúc nhiều nơ ron khớp nối, máy tính đại có số hạn chế vi xử lý song song Nếu chạy mạng nơ ron nhân tạo máy tính, phải tốn hàng trăm lệnh máy để kiểm tra nơ ron có đợc kích hoạt hay không (tiêu phí khoảng 10-8 x 102 giây/nơ ron) Do đó, dầu vi xử lý tính toán nhanh hàng triệu lần so với nơ ron nÃo, nhng xét tổng thể nÃo lại tính toán nhanh hàng tỷ lần Cách tiếp cận mạng nơ ron nhân tạo có ý nghĩa thực tiễn lớn cho phép tạo thiết bị kết hợp khả song song cao nÃo với tốc độ tính toán cao máy tính Tuy vậy, cần phải có khoảng thời gian dài để mạng nơ ron nhân tạo mô đợc hành vi sáng tạo nÃo ngời Chẳng hạn, nÃo thực nhiệm vụ phức tạp nh nhận khuôn mặt ngời quen sau không giây, máy tính phải thực hàng tỷ phép tính (khoảng 10 giây) để thực thao tác đó, nhng với chất lợng nhiều, đặc biệt trờng hợp thông tin không xác, không đầy đủ Dây TK vào Nhân Khớp nối Trục từ nơ ron khác Trục Hình 7-3 Cấu tạo nơ ron sinh học 7.4.2 Mô hình mạng nơ ron nhân tạo nối Khớp nối Mạng nơ ron nhân tạo (Artificial Neural Network) gọi tắt MNR bao gồm nút (đơn vị xử lý, nơ ron) đợc nối với liên kết nơ ron Mỗi liên kết kèm theo trọng số đó, đặc trng cho đặc tính kích hoạt/ ức chế nơ ron Có thể xem trọng số phơng tiện để lu thông tin dài hạn mạng nơ ron nhiệm vụ trình huấn luyện (học) mạng cập nhật trọng số có thêm thông tin mẫu học, hay nói cách Nhập môn xử lý ảnh số - ĐHBK Hà nội 173 Chơng Bảy: nhận dạng ảnh - Biết tín hiệu Y ta xác định tín hiệu vào tơng ứng X = Y W(t) Độ phức tạp nhớ độ phức tạp thời gian mạng ABAM cỡ khoảng 0(mxn) D Thử nghiệm mạng nhận dạng, phân loại ảnh Ta xây dựng mạng BAM nhằm phân loại ¶nh cì 5x5 Gi¶ sư cã mÉu häc nh hình vẽ 7.13 Ta mà hoá vectơ cho chúng trực giao với Để đơn giản ta viết Y dới dạng nhị phân X1 X2 X3 X4 X5 Ban đầu ma trận trọng số liên kết W 10000 01000 00100 00010 Y1 Y2 Y3 Y4 (0) đợc cho hình 12 (1) Ma trận đồng thời ma trận tr 0001 Y5 Hình 7.13 Mẫu học Ban đầu ma trận trọng số liên kết W(0) đợc cho hình 7.12 Ma trận ma trận trọng số nhận đợc sau học lẽ trình lặp không xảy Nếu ta thay đổi điểm ảnh (4% sai số) ảnh vào mẫu, nhận đợc bảng kết sau: Mẫu Đích Kết tính Số ảnh vào KÕt qu¶ tÝnh 10000 01000 00100 00010 00001 10000 01000 00100 00010 00001 (24 lÇn) (25 lÇn) (25 lÇn) (20 lÇn) (20 lÇn) 10010 Sè ảnh vào (1 lần) 10010 01001 (5 lần) (5 lần) Hình 7.14: Kết tính toán ảnh mẫu vào bị nhiễu điểm ảnh 3.0 3.0 WT= 1.0 -1.0 3.0 5.0 3.0 1.0 1.0 -1.0 1.0 1.0 1.0 -1.0 -1.0 3.0 1.0 -1.0 -3.0 3.0 3.0 -1.0 3.0 -1.0 -1.0 3.0 -1.0 -1.0 -1.0 3.0 -1.0 3.0 3.0 3.0 3.0 3.0 1.0 1.0 1.0 5.0 3.0 -1.0 -1.0 3.0 -1.0 -1.0 3.0 -1.0 1.0 1.0 1.0 1.0 3.0 3.0 3.0 3.0 1.5 1.0 1.0 1.0 1.0 1.0 1.0 5.0 10 -1.0 3.0 3.0 -1.0 11 1.0 1.0 5.0 1.0 12 1.0 1.0 -3.0 -3.0 13 1.0 5.0 1.0 1.0 14 -1.0 3.0 -1.0 3.0 15 -1.0 3.0 3.0 -1.0 16 -1.0 3.0 -1.0 -1.0 17 1.0 5.0 1.0 1.0 18 3.0 3.0 -1.0 -1.0 19 1.0 1.0 -3.0 1.0 20 H×nh 12: Ma nơ -1.0 -1.0 3.0 -1.0 trận trọng số liên kÕt 1.0 ron 21 1.0 1.0 H×nh 12 Ma trËn trọng số liên kết nơ ron 5.0 1.0 22 3.0 3.0 3.0 3.0 23 3.0 -1.0 -1.0 30 24 -1.0 7.12 trận -1.0Hình -1.0 Ma 3.0 trọng số liên kết nơ ron 25 Nhập môn xử lý ảnh số - ĐHBK Hà nội 183 Chơng Bảy: nhận dạng ảnh X1 X2 X3 X4 X5 11000 10110 10010 10001 01100 01010 01001 ảnh mẫu nguyên X1 X2 X3 X4 ảnh vào bị biến dạng X5 ả Kết tÝnh to¸n 00110 01101 10010 10010 01001 C¸c mÉu ghÐp t­¬ng øng X25 X14 C X14 00011 nhËn Hình 7.17 Các ảnh ghép từ ảnh vào mÉu Tõ thÝ nghiƯm trªn, cã thĨ rót mét vài kết luận: - Mạng phục hồi ảnh mẫu nguyên đầu vào bị biến dạng - Mạng tái tạo ảnh mẫu nguyên biết tín hiệu tơng ứng - Mạng nhận thành phần ảnh ghép - Mạng hiểu khái niệm ảnh âm (ảnh ngợc) Hình 16 Các ảnh đầu vào nhiễu kết nhận dạng sai ảnh vào X1,3 Kết qu¶ 10110 X3,5 01101 ¶nh ghÐp ¶ X1,3,4 X2,3,5 Hình 7.18 Hai ảnh ghép không nhận dạng Nh vậy, mạng nhận dạng nhầm với 11 trờng hợp đầu vào tơng ứng tơng ứng với mét ¶nh nhiƠu cđa X1, ¶nh nhiƠu cđa X4 ảnh nhiễu X5 (Hình 7.16) Ký hiệu Xij = Xi or Xj Ta cã 10 ¶nh ghÐp nh hình 7.17 Sử dụng vectơ đầu vào Xij, ta có kết thú vị Xij kích hoạt nơ ron i, j gắn với ảnh thành phần X i Xj trừ đầu vao X13, X35 (hình 7.18) Một sè lu ý vỊ m¹ng ABAM - M¹ng cã thĨ sử dụng theo chiều, - Cấu trúc mạng đơn giản, dùng để phân loại, nhận dạng đối tợng, - Dữ liệu vào; Nhị phân lỡng cc, - Cơ chế học có giám sát, - Có thể phục hồi nhận biết đối tợng bị biến dạng Nhập môn xử lý ảnh số - ĐHBK Hà nội 184 Chơng Bảy: nhận dạng ảnh E Vai trò mẫu học Trên thực tế, trình học nhằm tạo liên kết liệu vào liệu mẫu học, chất chúng liên quan trực tiếp với Thực chất, mạng ABAM học đợc thêm hai khái niệm tổng quát, ta không chủ định huấn luyện cho chúng Đó : - Phân tích ảnh ghép thành thành phần - Lấy phần bù kết để đối sánh với ảnh âm Những điều đạt đợc ta chọn tơng đối cẩn thận tập mẫu học Quả thật khó lựa chọn ngẫu nhiên mẫu học để tạo mạng ABAM đủ thông minh, có khả phân tách ảnh vào ghép Có thể thấy kết xử lý mạng ABAM kết việc lắp ráp từ mẫu học Mét c¸ch trùc quan, ta cã thĨ cho r»ng c¸c mẫu vào tơng tự cho kết tơng tự Điều thật không Ví dụ X bị nhiễu điểm ảnh cho kết ảnh ghép X14, nhiễu điểm ảnh X2 không làm thay đổi kết đầu Lý lẫn lộn hai khái niệm "tơng tự" đối xứng" Hơn nữa, ta nhận thấy mẫu X1 X2 nh X4 X5 đối xứng qua tâm Các ảnh ghép X1,2 X45 tự đối xứng víi chÝnh nã qua t©m Ta nãi chóng cã chøa tâm đối xứng Tuy vậy, X3 không chứa tâm đối xứng ghép với ảnh khác để có tính chất Vì lẽ đó, sau học xong tập mẫu, X3 đà ngăn cản mạng có tính chÊt ®èi xøng ®ã Nh vËy cã thĨ nãi, ®Ĩ có hiệu ứng tơng tự lên mẫu vào bị biến dạng tuỳ thuộc vào tơng tự mẫu học nguyên ảnh ghép chúng F Ước lợng độ phức tạp mạng ABAM Số nơ ron mạng số ảnh mẫu Nnơ ron = Nanh Ma trËn räng sè cã kÝch thíc m x Nnơ ron , m số tín hiệu vào Nếu ảnh có kích thớc rxr điểm ảnh,thì ma trận trọng số có kích thớc m x Nnơ ron = r2 x Nanh Khác với mạng Hopfield, ràng buộc độ phân gi¶i rxr cđa ¶nh víi sè ¶nh mÉu Nanh So sánh với kích thớccủa ma trận trọng số mạng Hopfield, mạng ABAM nhỏ cỡ lần 7.4.3.3 Mạng Kohonen Cách xử lý thông tin mạng thờng quan tâm tới giá trị dấu thông tin đầu vào, mà cha quan tâm khai thác mối liên hệ có tính chất cấu trúc lân cận vùng liệu mẫu hay toàn thể không gian mẫu Chẳng hạn, với thành phần: tam giác, hình chữ nhật, ta tạo thành hình nhà chúng đợc phân bố kề giáp với theo trật tự định Teuvo Kohonen (1989) đà đề xuất ý tởng đáng ý ánh xạ đặc trng topo tự tổ chức (theo nghĩa không cần có mẫu học) nhằm bảo toàn trật tự xếp mÉu kh«ng gian biĨu diƠn nhiỊuchiỊu sang mét kh«ng gian mảng nơ ron (một hai chiều) Trong mạng Kohonen, vectơ tín hiệu vào gần đợc ánh xạ sang nơ ron mạng lân cận A Cấu trúc mạng Mạng Kohonen gần gũi với kiểu cấu trúc mạng nơ ron sinh học cấu tạo lẫn chế học Mạng Kohonen thuộc vào nhóm mạng lớp nơ ron đợc phân bố mặt phẳng hai chiều theo kiểu lới vuông, hay lới lục giác (hình 7.19) Phân bố phải thoả mÃn yêu cầu ; Mỗi nơ ron có số nơ ron lớp láng giềng ý tởng Kohonen đầu vào tơng tự kích hoạt nơ ron gần khoảng không gian Mối quan hệ tơng tự (theo khoảng cách) tổng quát hoá cho lớp tơng đối rộng quan hệ tơng tự tín hiệu đầu vào Nhập môn xử lý ảnh số - ĐHBK Hà nội 185 Chơng Bảy: nhận dạng ¶nh • • • • • • • • Mét cách trực quan, xem thuật giải huấn luyện mạng Kohonen nhằm biến đổi không gian tín hiệu vào sang mạng nơ ron giống thủ tục kiểu "làm trơn" hay "tạo hình" liệu ã ã • • • • • • • b) • • ã ã ã ã ã ã Để đáp ứng yêu cầu nơ ron có số nơ ron lân cận lớp láng giềng, người ta thường dùng phép cuộn số để đạt hiệu ứng săm xe Chẳng hạn, toạ độ ã ã ã • • • • • • • • (xi, yi) nơ ron thuộc lớp láng ã ã ã ã ã giềng thứ k nơ ron có toạ độ (x, y) mảng nơ ron chiều có kích thước pxq cho thủ tục sau: for i:=-k to k • • • • • • • • • • • for j:=-k to k Hình 19: Lưới nơ ron begin xi:=mod(x+i+p-1,p) + 1; mặt phẳng hai chiều yi:=mod(y+j+q-1,q) + 1; if (i=k) or (j=k) then nơ ron (xi, yi) thuộc vào lớp láng giềng thứ k else nơ ron (xi, yi) thuộc vào lớp láng giềng thứ r r= 0 ngợc lại (14) Huấn luyện mạng Mạng học dựa nguyên tắc có giám sát với tập mẫu {(Xs,Ys)} ý tởng trình huấn luyện mạng xác điịnh trọng số W cho outs = Tinh(Xs,W)=Ys ®èi víi mäi mÉu häc s Ban đầu trọng số đợc gán ngẫu nhiên khoảng [-0,5 0,5] Sau hiệu chỉnh trọng số cho phù hợp với mẫu học, làm giảm sai số giá trị quan sát Ys với giá trị tính toán outs Các bớc tiến hành nh sau: ã Xác định ngẫu nhiên trọng số [-0.5, 0.5] ã Với mẫu học (Xs,Ys), Xs=(Xs1, Xsn), thực bớc : - Tính giá trị outs theo công thức (14) - Xác định Err = Ys -outs Hiệu chỉnh trọng số Wj=Wj+ Xsj*Err, số học Luật học có khác chút so với nguyên Rosenblatt đề nghị Rosenblatt đà chứng minh đợc trình học mạng Perceptron sÏ héi tơ tíi bé träng sè W, biĨu diễn mẫu học với điều kiện mẫu biểu thị điểm rời rạc hàm khả tách tuyến tính (hàm f : Rn -> R đợc gọi khả tách tuyến tính tập {f -1(xk)}, với xk thuộc miền trị f, tách đợc với siêu phẳng không gian Rn) Năm 1969, Minsky Papert đà chứng minh cách chặt chẽ lớp hàm phụ thuộc (giữa đầu vào đầu vào) học mạng Perceptron lớp hàm khả tách tun tÝnh Cã thĨ thÊy r»ng sù héi tơ cđa trình học mạng dựa nguyên lý tìm kiếm gradient không gian trọng số làm cực tiểu hàm sai số : Err(W) = 1/2(Ys -outs(w))2 Một điểm đáng ý hệ số học phải đợc chọn không lớn để đảm bảo hội tụ trình C Sử dụng mạng khả biểu diễn mạng Nh đà phần nhập môn, nơ ron riêng lẻ biểu diễn hàm logic sơ cấp nh: AND, OR, NOT Từ hình dung lớp hàm tính dợc nhờ mạng nơ ron Perceptron tơng đối phong phú Sau số hàm tiêu biểu: - Hàm "Đa số"; Hàm cho giá trị có nửa số đối số có giá trị trờng hợp ngợc lại Ta xây dựng mạng Perceptron có n đầu vào nhận giá trị 0, nơ ron với trọng số liên kết w j = ngỡng θ = n/2 - Hµm "thiĨu sè": Hµm nµy cho giá trị không nửa số đối số có giá trị trờng hợp ngợc lại Mạng Perceptron tơng ứng đợc xây dựng với trọng số liên kết wj = -1 ngỡng = -n/2 Tuy vậy, dùng Perceptron để tính hàm X xor Y, lẽ hàm không khả tách tuyến tính, không tồn đờng thẳng phân chia vùng {(0,0), (1,1)}và {(0,1), (1,0)}, tơng ứng với kết 7.4 Các mạng nơ ron nhiều lớp (Multi-layer Neural Network) 7.4.4.1 Mạng nơ ron nhiỊu líp lan trun ngỵc sai sè (Back-propagation Neural Network) Nhập môn xử lý ảnh số - ĐHBK Hà nội 189 Chơng Bảy: nhận dạng ảnh Rosenblatt tác giả khác đà mô tả mạng truyền thẳng nhiều lớp từ cuối năm 50, nhng họ chủ yếu nghiên cứu sâu mạng Perceptron lớp Sở dĩ nh không tìm đợc cách thay đổi trọng số liên kết lớp ẩn Quả thật, đà biết đợc sai số đầu ra, ngời ta cha hình dung đợc sai số đợc phân bố nh nơ ron ẩn Trong sách mạng Perceptron xuất 1969, Minsky Papert đà chØ r»ng khã cã thĨ tỉng qu¸t ho¸ lt học mạng lớp sang mạng nhiều lớp Có lý giải cho vấn đề Thứ nhất, thuật giải học mạng nhiều lớp không hiệu quả, không hội tụ điểm cực trị tổng thể không gian vectơ trọng số Mặt khác, nghiên cứu lý thuyết tính toán đà trờng hợp tồi trình học hàm tổng quát từ mẫu học lúc giải đợc Các nguyên tắc luật học mạng nhiều lớp đà đợc Bryson Ho đề xuất từ năm 1969, nhng phải tới năm 1980 vấn đề đợc quan tâm trở lại công trình nghiên cứu Rumelhart năm 1986 Một thống kê cho thấy 90% ứng dụng mạng nơ ron công nghệ hoá học sử dụng mô hình A Kiến trúc mạng I1 I2 I3 Ik Líp (0) wjk aj H4 wjij outi H5 O6 Líp (1) Líp (2) H×nh 7.23 Mạng nơ ron lớp Các nơ ron lớp thứ t đợc nối đầy đủ với nơ ron lớp thứ t+1 Trong nhiều ứng dụng thực tế, để đơn giản, ngời ta thờng sử dụng mạng có lớp ẩn, số nơ ron lớp ẩn đợc xác định dựa kinh nghiệm, dựa kỹ thuật tìm kiếm khác (xem D, mục 1.2.2) B Huấn luyện mạng Quá trình huấn luyện mạng đợc trình bày trình học có giám sát với tËp mÉu {(Xs, Ys)} Thđ tơc häc cã thĨ tãm lợc nh sau: Mỗi đa mẫu Xs = (x1 , , xn) vào mạng, ta thực công việc sau: - Lan truyền mẫu Xs qua mạng ®Ó cã outs = Tinh (Xs, NN) - TÝnh sai số Errs mạng dựa sai lệch outs - Ys - Hiệu chỉnh trọng số liên kết nơ ron dÉn tíi líp W ij tõ n¬ ron j lớp ẩn cuối tới nơ ron i t¹i líp ra: wij = wij + α aj i, (15) đây: hệ số học, aj đầu nơ ron j, i sai số mà nơ ron i lớp phải chịu trách nhiệm, đợc xác định theo công thức: i = erri g'(Neti) (16) víi erri lµ sai sè thµnh phần thứ i Errs , Neti tổng thông tin vào có số nơ ron thứ i (Neti=wij.aj) g'(.) đạo hàm hàm kích hoạt g đợc dùng nơ ron - Hiệu chỉnh trọng số liên kết nơ ron W jk dẫn tới tất lớp ẩn từ nơ ron thứ k sang nơ ron j (các lớp ẩn đợc xét từ dới lên) : Tính tổng sai số nơ ron j phải chịu trách nhiệm Nhập môn xử lý ảnh số - ĐHBK= g'nội Hà (Net j ) w ij i j i (17) 190 Chơng Bảy: nhận dạng ảnh Hiệu chỉnh trọng số wjk wjk = wjk + ak j (18) (trờng hợp xét liên kết từ nơ ron vào thứ k sang nơ ron j trªn líp Èn thø nhÊt, ta cã a k = Ik, chÝnh lµ tÝn hiƯu vµo) Chó ý : a) Trờng hợp xét hàm kích hoạt nơ ron g ( x) = 1+ e −x ta có hệ thức g'(x)=g(x)(1-g(x)) b) Từ công thức (15), (18) ta cã thĨ viÕt l¹i: wij = wij + ∆wij , wjk = wjk + ∆wjk , víi ∆wij = α aj δi vµ ∆wjk = α ak δj Trong c¸c øng dơng thùc tÕ, ngêi ta thêng hiƯu chỉnh wij theo nguyên tắc có ý đến thao tác trớc Do vậy: wij(mới) = aj i + wij(cũ), hệ số quán tính Quá trình huấn luyện mạng cần ý tới yếu tố sau: i Các trọng số ban đầu wij đợc gán giá trị ngẫu nhiên, nhỏ ii Lựa chọn hệ số học hệ số quán tÝnh β cho α + β ≈1, víi β không lớn nhiều iii Các tín hiệu vào, nên đợc định cỡ nằm khoảng [0,1] Các nghiên cứu thực nghiệm nên khoảng [0.2,0.8] C Sử dụng mạng Giả sử đà huấn luyện mạng nh hình 7.23 với tập mẫu {(Xs,Ys)} để đợc ma trận trọng số W Quá trình lan truyền mạng vectơ tín hiệu vào X=(x1,x2,x3) đợc cho bởi: out = g(w64 a4 + w 65 a5) = g(w 64 g(w 41 x1 + w 42 x2 + w 43 x3) + w 65 g(w 51 x1 + w 52 x2 + w 53 x3)) = F ( X , W) Khả tính toán cđa m¹ng nhiỊu líp − Víi mét líp Èn, m¹ng tính toán xấp xỉ hàm liên tục biến tơng ứng tín hiệu đầu vào Với hai lớp ẩn, mạng tính toán xấp xỉ hàm Tuy vậy, số nơ ron lớp ẩn tăng theo hàm mũ số đầu vào cha có sở lý luận đầy đủ để khảo sát họ hàm xấp xỉ nhờ mạng nhiều lớp D Nghiên cứu hội tụ độ phức tạp trình huấn luyện mạng Phơng pháp hiệu chỉnh trọng số liên kết nơ ron (15)(18) dựa nguyên tắc lan truyền ngợc sai số lý giải dựa nguyên lý tìm kiếm gradient không gian tham sè W cho cùc tiĨu hµm sai sè tổng cộng: đây, Yi giá trị thực nghiệm quan sát đợc nơ ron i lớp ra, outi giá trị tính toán mạng nơ ron thø i ë líp E ( w) = ∑ (Yi − out i ) ®èi víi mÉu Xs Khai triĨn E theo c¸c träng sè thành phần, ta có: Nhập môn xử lý ảnh số - ĐHBK Hà nội 191 Chơng Bảy: nhận dạng ảnh      E ( w) = ∑  Yi − g  ∑ wij a j   = ∑ Yi − g  ∑ wij g  ∑ w jk a k     k  i i j  j Lấy đạo hàm riêng E theo wij: ∂E ∂wij ∂E ∂w jk = − a j (Yi − out i ) g ' ( Net i ) = − a j δ i = −ak δ j ViƯc hiƯu chØnh vect¬ träng sè W = (wij) cho E(W)min dẫn tới việc xác định vectơ gia số W= (wij) ngợc hớng với vectơ gradient (E/wij) Nói c¸ch kh¸c, ∆wij = -α(-δi aj) = δi aj ∆wjk = -(-j ak) = j ak Công thức phù hợp với công thức (15) (18) tơng ứng Độ phøc t¹p thêi gian cđa m¹ng nhiỊu líp chđ u phụ thuộc vào thời gian huấn luyện mạng với tập mẫu Giả sử có m mẫu vào |W| trọng số Mỗi lần đa tất mẫu qua mạng (gọi vòng lặp (epoch)) phải tốn O(m|W|) thao tác nơ ron Trong trờng hợp xấu nhất, số vòng lặp phụ thuộc hàm mũ vào số đầu vào n Do vậy, chi phí thời gian O(knm|W|) Hơn trình học lúc hội tụ dẫn tới cực tiểu địa phơng hàm E Khi dùng mạng nơ ron nhiều lớp để biểu diễn tất hàm logic có n đầu vào, ta phải dùng cỡ 2n/n nút ẩn, mạng có khoảng O(2n) trọng số, phải tiêu tốn O(2n) bit để biểu diễn hàm logic E Một số vấn đề mạng nơ ron nhiều lớp Mạng nơ ron nhiều lớp truyền thẳng cách biểu diễn đối tợng dựa giá trị thuộc tính chúng tơng đối hiệu quả, chúng cha vét cạn hết khía cạnh khác đối tợng Cách tiếp cận mạng loại tỏ hiệu quan sát (tín hiệu vào) có miền giá trị liên tục Do vậy, xem tốt so với cách tiếp cận truyền thống dựa logic mệnh đề định Khả tổng quát hóa: mạng loại đa kết mang tính tổng quát hóa, kiểu phụ thuộc đầu đầu vào không rối rắm Khả dung thứ lỗi: Mạng đợc luyện mẫu theo nguyên tắc håi qui tun tÝnh nªn cã thĨ chÊp nhËn sai số tập liệu vào Tuy vậy, mạng đa đợc kết tính toán không chắn, không xác kiểu nh mạng Bayes Mạng đợc sử dụng nh hộp đen, biểu thị quan hệ tín hiệu tín hiệu vào, mà không cần rõ dạng giải tích têng minh cđa mèi quan hƯ ®ã Tuy vËy, ®iĨm bất lợi cách tiếp mạng chỗ lý giải kết cách rõ ràng nh suy diễn logic hay định 7.4.4.2 Mạng nơ ron nhiều lớp ngợc hớng (Counter-propagation Neural Network) Trong cách tiếp cận lan truyền ngợc hớng, tín hiệu mẫu (chứ sai số) đợc lan truyền ngợc mạng nhằm hiệu chỉnh trọng số Mỗi có tín hiệu vào, đầu mạng ngợc hớng đợc xác định dựa trọng số liên kết nơ ron trung tâm lớp ẩn Kohonen nơ ron A Kiến trúc mạng Nhập môn xử lý ảnh số - ĐHBK Hà nội 192 Chơng Bảy: nhận dạng ảnh Mạng ngợc hớng có lớp: Lớp Kohonen lớp Các nơ ron lớp vào đợc nối đầy đủ với nơ ron lớp Kohonen Tại bớc, có số nơ ron láng giềng với nơ ron trung tâm đợc chọn đợc nối với nơ ron trọng số liên kết tơng ứng đợc hiệu chỉnh Điểm khác biệt kết đầu không đợc lu mạng dới dạng tập tất trọng số nơ ron ra, mà phần số ®ã Tõ ®ã cã thĨ thÊy, sè n¬ ron ë lớp Kohonen số kết đầu cần lu trữ số nơ ron số biến thành phần kết Chẳng hạn, cần có 1000 kết khác nhau, kết đợc biểu diễn thành phần, ta phải xây dựng mạng Kohonen có 1000 nơ ron lớp có nơ ron tơng ứng với thành phần Số nơ ron lớp vào số biến vào Thông thờng, tín hiệu X=(x1, ,xm)phải đợc chuẩn hóa cho ||x||=1 Để làm nh vậy, ta đa thêm thành phần xm+1 cho: xm+1 = x B Huấn luyện mạng Giả sử có tập mẫu {(Xs,Ys)} Quá trình học đợc tiến hành nh sau: - Với vectơ mẫu Xs, chọn nơ ron trung tâm c theo nguyên tắc có tín hiệu lớn outc = max(outj) = max(wijxsi) có vectơ trọng số gần với tín hiệu vào errc ← min( err j ) = min( ∑ ( x si − w ji ) ) i -HiƯu chØnh c¸c träng sè liªn kÕt dÉn tíi líp Kohonen theo mét c«ng thøc: wji = wji + η(t) a(dcj)(1- xi wji) hc wji = wji + η(t) a(dcj)( xi - wji) Sau trọng số (wji) đợc chuẩn hãa nh sau: wij = w ji wj víi (xem thêm phần 7.4.3.3) wj = w ji i - Hiệu chỉnh trọng số liên kết lớp vµ líp Kohonen wji = wji + η(t) a(dcj)(yk- wjk) (nơ ron j thuộc lớp Kohonen nơ ron k thuộc lớp ra) Các trọng số wji không cần phải chn hãa C Sư dơng m¹ng M¹ng cã thĨ nhËn giá trị tín hiệu vào, số thực Ngoài ra, mạng làm việc giống nh bảng tra Ngời ta dùng mạng ngợc hớng để biểu thị quan hệ phụ thuộc biến dựa träng sè liªn kÕt ë líp 7.4.5 øng dơng mạng nơ ron lan truyền ngợc hớng cho nhận dạng ký tự 7.4.5.1 Mở đầu Một thủ tục quan trọng tiêu tốn nhiều thời gian phơng pháp truyền thống làm mảnh ký tự Thủ tục làm giảm tốc độ rộng nét ký tự xuống điểm nhằm phát khung xơng ký tự Thủ tục tạo điều kiện cho việc tìm kiếm dấu hiệu đặc trng cđa ký tù, song nã cịng lµm cho mét sè ký tự trở nên giống Do gây khó khăn cho thủ tục định sau Thủ tục không làm việc tốt chất lợng quét scanner tồi thân ký tự đợc lấy từ văn mờ có nét đứt Do cần đợc thủ tục tiền xử lý nh làm trơn đờng biên, khử nhiễu trợ giúp Nhập môn xử lý ảnh số - ĐHBK Hà nội 193 Chơng Bảy: nhận dạng ảnh Các phơng pháp định phơng pháp nhận dạng truyền thống đợc cài đặt tĩnh chơng trình Các phơng dựa vào việc ngjiên cứu đặc trung ký tự nh số giao điểm cấu trúc ký tự nh số điểm kết thúc, số chu trình, số thành phần liên thông, v v Nhìn chung phơng pháp truyền thống gặp khó khăn chất lợng ảnh sau số hoá tơng đối 7.4.5.2 Nhận dạng mạng noron lan truyền ngợc hớng Mạng nơ ron nói chung mạng lan tuyền ngợc hớng nói riêng mô sinh học máy tính nÃo ngời Nó có khả học từ kinh nghiệm hay từ tập mẫu Quá trình học mạng lan truyền ngợc hớng trình học cã gi¸m s¸t víi mét mÉu {Xs, Ys} cho tríc, Xs véc tơ vào (ma trận điểm ảnh ký tự) Y s giá trị ASCII ký tự Thực chất việc học mạng biến đổi ánh xạ tôpô ký tự xuống mặt phẳng hai chiều tuơng ứng với nơ ron Sau học xong, mạng lan truyền ngợc hớng hoạt động nh bảng tra với đầu vào vec tơ điểm ảnh ký tự Quá trình học mạng dài song trình nhận dạng nhanh Một u điểm của mạng không đòi hỏi trình tiền xử lý nh làm mảnh, làm trơn đờng biên hay khử nhiễu Ưu điểm có đợc nhờ khả xử lý véc tơ vào có phần bị hỏng (Partly corrupted) Ngoài mạng có khả nhận dạng font chữ khác Khi cần cung cấp tập mẫu font chữ cho trình học Quá trình học mạng lan truyền ngợc hớng trình học có giám sát Do cần có tập mẫu chuẩn { Xs, Ys} Trong trình học vectơ vectơ vào Xs vào mạng Kohonen, diễn trình học cạnh tranh Vectơ lời giải Ys vào lớp theo hớng ngợc lại làm thay đổi giá trị trọng số nơ ron lớp Giả thiết có mạng lan truyền ngợc hớng gồm N nơ ron lớp Kohonen M nơ ron lớp W ji trọng số thứ i nơ ron thứ j lớp Kohonen Cji trọng số nơ ron thứ i lớp nối với nơ ron thứ j lớp Kohonen Quá trình học mạng lan truyền ngợc hớng bao gồm bớc sau đây: - Một đối tơng gồm cặp vectơ (Xs, Ys) đợc lấy từ tập mẫu - Vectơ Xs vào lớp Kohonen - Nơ ron trung tâm đợc chon theo phơng trình - Tất trọng số nơ ron lớp Kohonen đợc điều chỉnh theo phơng trình - Các trọng số nơ ron lớp đợc điều chỉnh theo phơng trình: Cji(new) = Cji(old) + (t).a(dc - dj).(yi - Cji(old)) - Quá trình lặp lại đối tợng Mỗi lần tất đối tợng mẫu đà qua mạng đợc gọi lợt Thông thờng cần phải thực từ vài trăm đến hàng nghìn lợt để mạng ổn định Khi chọn đợc số đặc trng trình học amax, amin thích hợp, trình học mạng hội tụ 7.4.5.3 Cài đặt mạng lan truyền ngợc hớng cho nhận dạng ký tự Một mạng tổng quát cho việc nhận dạng ký tự đợc cài đặt ngôn ngữ C nh lớp (Class) có tên gọi Netcount Các tham số mạng biến thành viên chức mạng đợc thiết kế cho hàm thành viên Mạng có nơ ron lớp có kiÕu lµ ký tù Class Netcount {protected: int dai, rong, N; float amax, amin, *W[1600]; char C[1600]; public; Netcount(int, int); Nhập môn xử lý ảnh số - ĐHBK Hà nội 194 Chơng Bảy: nhận dạng ảnh Void hoc(char*, long T); Char doan (char*); }; Các trọng số Wji đợc cấp phát động cho bảng trỏ W Khoảng cách nơ ron có toạ độ kj, lj với nơ ron trung tâm kc, lc đợc tính theo công thức: D = max[min(|kj-kc|, |kj-kc+dai|, |kj-kc-dai|), min(|lj-lc|, |lj-lc+rong|,|lj-lc-rong|)] Hµm phơ thc topo a(dc - dj) đợc dùng chơng trình hàm tam giác: a(dc j) = Dcj =Dmax Dmax D Nếu Dcị < Dmax Dmax Trong Dmax khoảng cách từ lân cận xa có thĨ cã cđa m¹ng: Dmax = max(dai/2, rong/2) + 1; Nhìn chung để cài đặt mạng nơ ron cho nhận dạng ký tự cần: ã Tổ chức số liệu Tập mẫu đợc tổ chức tệp số liệu Các cặp (Xs, Ys) đợc viết lần lợt theo dòng Một điều đặt phải số thực hoá vectơ vào khoảng [0, 1] trọng số mạng số thực Các nghiên cứu cho thấy việc số thực hoá làm cho mạng có khả đoán nhận ký tự từ ảnh số sai lệch lớn Hơn nữa, với việc tổ chức số thực hoá, làm giảm kích thớc vectơ vào có khả làm việc ký tự có kích thớc ảnh khác Thực tế phơng pháp số thực hoá khác ảnh hởng đến khả cực đại mà mạng đoán nhận từ ảnh sai lệch ã Cấu trúc tham số học Mục đích việc xây dựng mạng xác định số lợng nơ ron lớp Kohonen Với số lợng nơ ron lớp Kohonen lớn, khả đoán nhận ký tự từ ảnh có tỷ lệ sai lớn Tuy nhiên, tăng số lợng nơ ron, khả nhận biết tiến sát tới khả cực đại mà mạng đoán nhận với ảnh sai (phụ thuộc vào phơng pháp số thực ho¸) Chóng ta cịng dƠ nhËn thÊy thêi gian häc thời gian đoán nhận, nh nhớ máy tính tăng tỷ lệ , hàm mũ với số lợng nơ ron lớp Kohonen Thực tế, việc xây dựng mạng công việc thử nghiệm, tăng kích thớc mạng đạt đợc tiêu mong muốn Các giá trị trọng số ban đầu thực không quan trọng với trình học nhng chúng phải đợc gán số ngẫu nhiên từ đến Các tham số học amax, amin ảnh hởng không nhiều đến trình học chúng thoả mÃn điều kiện sau: amax [0.3, 1]; amin [0, 0.1] Với giá trị amax = 0.5 amin = 0.01 giá trị tốt cho trình học 7.4.5.4 Nhận dạng 37 ký tự sử dụng mạng lan truyền ngợc hớng Một tập mÉu 37 ký tù tõ A → Z, → ký tự '

Ngày đăng: 27/08/2012, 10:19

HÌNH ẢNH LIÊN QUAN

Hình 7.2 Sơ đồ tổng quát một hệ nhận dạng. - nhận dạng ảnh Pattern recognition
Hình 7.2 Sơ đồ tổng quát một hệ nhận dạng (Trang 4)
Hình 7-3 . Cấu tạo nơ ron sinh học 7.4.2. Mô hình mạng nơ ron nhân tạo - nhận dạng ảnh Pattern recognition
Hình 7 3 . Cấu tạo nơ ron sinh học 7.4.2. Mô hình mạng nơ ron nhân tạo (Trang 10)
Hình 7.4 . Mô hình nơ ron nhân tạo - nhận dạng ảnh Pattern recognition
Hình 7.4 Mô hình nơ ron nhân tạo (Trang 11)
Hình 7.5 . Mạng nơ ron truyền thẳng và nhiều lớp - nhận dạng ảnh Pattern recognition
Hình 7.5 Mạng nơ ron truyền thẳng và nhiều lớp (Trang 12)
Hình 7.9. Mẫu học - nhận dạng ảnh Pattern recognition
Hình 7.9. Mẫu học (Trang 16)
Hình 7.11 . Thí nghiệm mạng với ảnh nhiễu. - nhận dạng ảnh Pattern recognition
Hình 7.11 Thí nghiệm mạng với ảnh nhiễu (Trang 17)
Hình 7.13. Mẫu học - nhận dạng ảnh Pattern recognition
Hình 7.13. Mẫu học (Trang 20)
Hình 12:   Ma trận trọng số liên kết nơ ron Hình 12. Ma trận trọng số liên kết nơ ron - nhận dạng ảnh Pattern recognition
Hình 12 Ma trận trọng số liên kết nơ ron Hình 12. Ma trận trọng số liên kết nơ ron (Trang 20)
Hình 7. 16. Các ảnh đầu vào nhiễu  và kết quả nhận dạng sai                 Hình 7.17 - nhận dạng ảnh Pattern recognition
Hình 7. 16. Các ảnh đầu vào nhiễu và kết quả nhận dạng sai Hình 7.17 (Trang 21)
Hình 7. 19:  Lưới các nơ ron trong  mặt phẳng hai chiều - nhận dạng ảnh Pattern recognition
Hình 7. 19: Lưới các nơ ron trong mặt phẳng hai chiều (Trang 23)
Hình 7.20  Quan hệ topo giữa các vùng nơ ron - nhận dạng ảnh Pattern recognition
Hình 7.20 Quan hệ topo giữa các vùng nơ ron (Trang 25)
Hình 7.21. ánh xạ mặt cầu vào lưới  nơ ron  15x15 - nhận dạng ảnh Pattern recognition
Hình 7.21. ánh xạ mặt cầu vào lưới nơ ron 15x15 (Trang 25)
Hình 7.23. Mạng nơ ron 2 lớp - nhận dạng ảnh Pattern recognition
Hình 7.23. Mạng nơ ron 2 lớp (Trang 27)
Hình sau cho thấy topo của các ký tự của mạng 30 x30 với phơng pháp phân mảnh sau 3000 lần học . - nhận dạng ảnh Pattern recognition
Hình sau cho thấy topo của các ký tự của mạng 30 x30 với phơng pháp phân mảnh sau 3000 lần học (Trang 33)
Hình 7.3 cho ta  cái nhìn tổng quát về hệ thống nhận dạng chữ viết. - nhận dạng ảnh Pattern recognition
Hình 7.3 cho ta cái nhìn tổng quát về hệ thống nhận dạng chữ viết (Trang 34)

TỪ KHÓA LIÊN QUAN

TRÍCH ĐOẠN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

w