Luận án tiến sĩ cải tiến quá trình học của một số mạng nơ ron ghi nhớ (TT)

24 323 0
Luận án tiến sĩ cải tiến quá trình học của một số mạng nơ ron ghi nhớ (TT)

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

Thông tin tài liệu

MỞ ĐẦU Tính cấp thiết đề tài Mạng nơ-ron nhân tạo (ANN - Artificial Neural Network) tập hợp đơn vị xử lý thông tin mô dựa hoạt động hệ thống nơ-ron sinh học Mỗi ANN có hai trình gồm trình học trình xử lý Trong trình học, ANN thực học lưu trữ thông tin liệu mẫu Trong trình xử lý, ANN dùng thông tin học từ trình học để đưa tín hiệu từ tín hiệu vào Do đó, chất lượng trình học ảnh hưởng lớn đến chất lượng trình xử lý Ba mô hình lý thuyết điển hình số ANN ghi nhớ nhớ gồm (i) Bộ nhớ liên kết hai chiều (BAM – Bidirectional Associative Memory), (ii) Bộ nhớ liên kết mờ (FAM – Fuzzy Associative Memory), (iii) Lý thuyết cộng hưởng thích nghi mờ (Fuzzy ART – Fuzzy Adaptive Resonance Theory) cải tiến trình học để nâng cao chất lượng xử lý Lý đề xuất cải tiến cho mô hình gồm việc gắn trọng số cho mẫu tập huấn luyện chưa hiệu luật học chưa học hiệu mẫu huấn luyện Các đóng góp luận án Đề xuất cách xác định giá trị thích hợp cho trọng số cặp mẫu huấn luyện BAM Cải tiến luật học tìm giá trị thích hợp cho tham số học Fuzzy ART Cải tiến luật học để FAM học lưu trữ hiệu đồng thời nội dung liên kết cặp mẫu Các kết luận án gồm: báo công bố Tạp chí quốc tế có số ISI, báo cáo công bố kỷ yếu hội nghị quốc tế có phản biện (trong đó, báo cáo xuất IEEE Springer), báo tạp chí nước Bố cục luận án Ngoài phần mở đầu, mục lục, kết luận, tài liệu tham khảo viết phần đầu cuối luận án Nội dung chương trình bày sau: Chƣơng trình bày kiến thức quan trọng ANN gồm nơ-ron sinh học, mô hình nơ-ron nhân tạo, mạng nơ-ron, luật học, ưu-nhược điểm, ứng dụng Các kiến thức giúp hiểu chủ đề nghiên cứu luận án Chƣơng cung cấp kiến thức khái niệm, thao tác logic mờ toán học hình thái Tiếp theo, mô hình hoạt động BAM, FAM, Fuzzy ART trình bày chi tiết giúp phân biệt điểm đề xuất cải tiến mô hình Chƣơng đề xuất thuật toán xác định trọng số thích hợp cho cặp mẫu huấn luyện BAM học nhiều lần BAM cải tiến thử nghiệm với ứng dụng nhận dạng mẫu Kết thực nghiệm cho thấy có khả nhớ lại cải thiện BAM khác Thuật toán học cải tiến giúp BAM học nhanh linh động đảm bảo khả phục hồi mẫu Chƣơng thể hai luật học thủ tục tìm giá trị thích hợp cho tham số tốc độ học Fuzzy ART Các thực nghiệm phân cụm 14 liệu chuẩn cho thấy Fuzzy ART với luật học đề xuất nhớ lại cụm tốt Trong chương, luật học tham số mô hình cải tiến để nâng cao chất lượng phân cụm Fuzzy ART Chƣơng trình bày luật học cho FAM Các thử nghiệm với nhiệm vụ nhận dạng mẫu cho thấy FAM với luật học cải tiến nhớ lại tốt FAM khác Luật học đề xuất giúp nâng cao khả phục hồi mẫu từ mẫu vào có dạng nhiễu phức tạp CHƢƠNG MẠNG NƠ-RON NHÂN TẠO 1.1 Mạng nơ-ron nhân tạo Mạng nơ-ron nhân tạo cấu trúc hình thành nơ-ron nhân tạo liên kết với Mỗi nơ-ron có tín hiệu vào, tín hiệu thực chức tính toán cục Các đặc điểm bật ANN gồm: - Là mô hình toán học dựa chất hoạt động nơ-ron sinh học - Cấu tạo từ số nơ-ron có liên kết với - Có khả học tổng quát hóa tập liệu thông qua việc gán hiệu chỉnh trọng số liên kết nơ-ron - Xử lý song song thông tin phân tán nên có khả tính toán lớn Các ANN chia theo nhiều cách dựa vào cấu trúc (một tầng nhiều tầng), cách truyền tín hiệu (truyền thẳng lan truyền ngược), chất việc học (học giám sát, học không giám sát, học lai cách) 1.2 Các luật học ANN Các luật học đóng vai trò quan trọng việc xác định ANN Quá trình học ANN cập nhật trọng số dựa vào mẫu huấn luyện Theo nghĩa rộng học chia làm hai loại: Học tham số học cấu trúc Học tham số: Các thủ tục học tìm kiếm ma trận trọng số cho mạng có khả đưa dự báo sát với thực tế Dạng chung luật học tham số cho nơ-ron i mô tả sau: (1.7) Luật học Hebb: dựa tượng sinh học: Giữa hai nơ-ron có quan hệ có thay đổi màng chúng có thay đổi trọng số liên kết Nói cách khác, trọng số điều chỉnh theo mối tương quan tín hiệu vào tín hiệu (1.8) Luật Hebb giải thích việc điều chỉnh trọng số phạm vi cục mạng không cần tín hiệu đạo từ bên Hopfield cải tiến luật Hebb cho mạng tự liên kết thành 16 dạng khác theo kiểu luật Hebb, luật đối Hebb, luật Hopfield CHƢƠNG CƠ SỞ LÝ THUYẾT 2.1 Mô hình BAM 2.1.1 Mạng Hopfield Mạng Hopfield mô hình tiêu biểu lớp mạng lan truyền ngược Mạng Hopfield mạng lớp có nhiều ứng dụng, đặc biệt nhớ liên kết toán tối ưu Hình 2.3 mô tả mô hình mạng Hopfield x1 Tín hiệu vào y1 x2 xn y2 Tín hiệu ym Hình 2.1: Mô hình mạng Hopfield Tín hiệu nơ-ron thứ j truyền ngược lại làm tín hiệu vào cho nơ-ron thông qua trọng số tương ứng Ký hiệu Wij trọng số liên kết gữa hai nơ-ron i j ( ), yi đầu nơ- ron i Khi đó, véc tơ (y1, y2, yn) trạng thái mạng Tại thời điểm t nơ-ron i tổng hợp tín hiệu xj từ nơ-ron khác tín hiệu từ bên Ii ∑ (2.17) Tuỳ theo hàm kích hoạt fi , nơ-ron i cho tín hiệu yi(t+1) = fi(yi(t)) (2.18) Mạng đạt trạng thái cân yi(t+1) = yi(t), i Hàm lượng mạng tính bằng: ∑∑ ∑ (2.19) Tuỳ theo phương thức hoạt động, chia thành mạng Hopfield rời rạc mạng Hopfield liên tục 2.1 Khái niệm BAM BAM AM thể cấu trúc nhớ liên kết với khả nhớ lại theo hai hướng BAM cấu tạo từ hai mạng Hopfield để thực liên kết hai mẫu Hình 2.4 mô tả cấu trúc tổng quát mô hình BAM Hình 2.2: Cấu trúc tổng quát mô hình BAM 2.1.3 Quá trình học BAM Quá trình học thực sau: Đầu tiên, ma trận trọng số Wk lưu liên kết cặp mẫu (Ak,Bk ) tính theo công thức sau: (2.24) với Ak ma trận cấp 1×n, Bk ma trận cấp 1×m, Wk ma trận cấp n×m Sau đó, tổng quát hóa liên kết p cặp mẫu lưu ma trận trọng số chung, W – Ma trận trọng số gốc ∑ (2.25) 2.1.4 Quá trình nhớ lại BAM Đầu tiên, tổng hợp tín hiệu vào nơ-ron theo công thức sau: ∑ (2.26) Sau đó, xác định tín hiệu cho nơ-ron cách dùng hàm đầu ra: { (2.27) 2.1.5 Hàm lượng BAM Hàm lượng Ek với cặp mẫu (Ak, Bk) (2.28) 2.2 Mô hình FAM 2.2.1 Khái niệm FAM Cho tập liên kết (Ak, Bk), k=1, ,p xác định ánh xạ G cho G(Ak)=Bk với k=1, ,p Hơn nữa, ánh xạ G cần có khả chịu nhiễu Nghĩa là, G(A’k) nên Bk nhiễu hay không đầy đủ A’k Ak Quá trình xác định G gọi trình học ánh xạ G thực nhớ lại liên kết Bộ nhớ liên kết mờ nhớ liên kết với mẫu Ak Bk tập mờ với k=1, ,p 2.2.2 Các FAM Kosko tổng quát hóa Giả sử, FAM lưu p cặp mẫu Cho [ [ ] ] [ ] [ ] FAM tổng quát Mô hình tổng dùng nơ-ron max-C nên dùng phép nối mờ CM, CP, CL Quá trình học thực theo công thức sau: ⋁ (2.37) Với x mẫu vào, mẫu y tính sau: *⋁ + (2.38) 2.3 Mô hình Fuzzy ART 2.3.1 Thuật toán Fuzzy ART Ba tham số sau thể tính động mô hình Fuzzy ART:  Tham số chọn α> 0;  Tham số tốc độ học β [0, 1]  Tham số ngưỡng 𝛒 [0, 1]; Nội dung thuật toán trình bày sau: Bƣớc 1: Khởi tạo véc tơ trọng số cụm tiềm Mỗi cụm j có véc tơ trọng số Wj= (Wj1, , WjM) Số cụm tiềm N Khởi tạo (2.43) cụm coi chưa hình thành Sau cụm chọn để mã hóa, cụm hình thành Wji không tăng dần theo thời gian nên Wji hội tụ tới giới hạn Bƣớc 2: Lựa chọn cụm chiến thắng Với mẫu vào I cụm j, hàm chọn Tj định nghĩa ‖ ‖ ‖ ‖ (2.44) với phép toán giao, ⋏, logic mờ định nghĩa: (2.45) với chuẩn ‖ ‖ định nghĩa Công thức 2.40 Để đơn giản, Tj(I) viết Tj mẫu vào I cố định Sự chọn cụm gắn số J, với (2.46) Nếu có nhiều Tj cực đại cụm j với số nhỏ chọn Bƣớc 3: Kiểm tra trạng thái mạng cộng hƣởng hay thiết lập lại Cộng hưởng xuất hàm đối chiếu cụm chọn đạt điều kiện ngưỡng: ‖ ‖ (2.47) ‖ ‖ Sau đó, việc học diễn Thiết lập lại xuất ‖ ‖ (2.48) ‖ ‖ Sau đó, giá trị hàm chọn TJ thiết lập -1 để ngăn chọn lại cụm J trình tìm kiếm Một số J chọn Công thức (2.46) Quá trình tìm kiếm tiếp tục J chọn thỏa mãn Công thức (2.47) Nếu cụm tồn thỏa mãn điều Công thức (2.47) cụm J sinh đặt Bƣớc 4: Học liệu huấn luyện Véc tơ trọng số cụm thứ J, WJ cập nhật theo công thức sau: ( ) (2.49) 2.3.2 Thước đo chất lượng phân cụm Hai thước đo dung pổ biến cho phân cụm gồm Davies–Bouldin index Giá trị số tính sau: ∑ ( ) (2.55) Thuật toán có số Davies-Bouldin bé tốt Dunn index Công thức tính số trình bày sau: { { }} (2.56) Thuật toán có số Dunn lớn tốt CHƢƠNG THUẬT TOÁN HỌC CẢI TIẾN CHO BỘ NHỚ LIÊN KẾT HAI CHIỀU 3.1 Các nghiên cứu học nhiều lần BAM Mô hình Y.F Wang, Cruz, Mulligan Mô hình học mẫu lần lặp thể chiến lược học nhiều lần sử dụng MNTP Luật học thể công thức sau: ∑ (3.1) ( ) Mô hình T Wang Zhuang (3.2) Mô hình BAM học mẫu nhiều lần lặp trình học Luật học mô hình thể công thức sau: (3.3) với số gia trọng số ∆Wij tính bới công thức sau: ∑ [ ( ) ] (3.4) với S(x)=0 x>0 S(x)=1 x≤0 Hai công thức sau dùng để tính (∑ ) (∑ ) Quá trình lặp lại giá trị ma trận trọng số W ổn định Mô hình Zhuang, Huang, Chen Mô hình BAM học mẫu nhiều lần lặp trình học Ban đầu, Khi t>0 luật học nơ-ron i vùng A thể công thức sau: ∑ { với j = 1,…, n Luật học của nơ-ron j vùng B thể công thức sau: 10 (3.7) ∑ { (3.8) với i = 1,…, m Quá trình lặp lại giá trị ma trận trọng số W ổn định 3.2 Thuật toán học cho BAM 3.2.1 Phân tích mối quan hệ MNTP hàm lượng Giả sử, BAM học p cặp mẫu Cặp mẫu (Ai, Bi) trình bày sau: ( ) Mối quan hệ MNTP hàm lượng thiết lập từ công thức (2.28) (2.29) có dạng sau: ∑ ∑ ∑ (3.13) Công thức (3.13) thể giá trị tuyệt đối Ei tỷ lệ thuận với qk p cặp mẫu (với k=1,…p) Từ đó, suy giá trị tuyệt đối Ei giảm mạnh qk giảm 3.2.2 Nội dung thuật toán học Một số ký hiệu thuật toán  qi MNTP cặp mẫu thứ i  W ma trận trọng số chung  Ei lượng ứng với trạng thái (Ai, Bi)  ε ngưỡng để dừng việc điều chỉnh qi Thuật toán 3.1: Thuật toán học nhanh linh động cho BAM Input: p cặp mẫu (Ai,Bi) thể thành hai véc tơ chứa giá trị dạng hai cực gồm +1 -1 Output: Ma trận trọng số W lưu liên kết cặp mẫu 11 Nội dung thuật toán :  Bƣớc 1: Khởi tạo giá trị MNTP cách đặt qi=1 với i=1,…, p để thu ma trận trọng số gốc Chọn giá trị cho ε nguyên dương, đủ nhỏ  Bƣớc 2: Thực lặp bước sau |Ei| ≤𝛆 với i=1,…,p |x| giá trị tuyệt đối x Bước 2.1: Tính W theo công thức (3.11) Bước 2.2: Tính Ei theo công thức (3.13) với i=1,…,p Bước 2.3: Dựa vào giá trị Ei để cập nhật qi theo hai luật sau: Luật 1: Nếu |Ei| ≤𝛆 không thay đổi qi Luật 2: Nếu |Ei| >ε giảm qi xuống h lần với h phần nguyên phép chia |Ei| cho ε  Bƣớc 3: Trả ma trận trọng số W 3.3 Kết thực nghiệm Do mô hình BAM gắn với thuật toán học thực học nhiều lần mẫu nên tác giả so sánh với BAM học nhiều lần Các BAM dùng thực nghiệm gồm BAM Y.F.Wang (WBAM), BAM Zhuang (ZBAM), BAM Tao Wang (TBAM) FFBAM 3.3.1 Thử nghiệm với nhận dạng vân tay 10 ảnh huấn luyện chọn từ tập mẫu thi Olimpic công nghệ thông tin tổ chức ĐH Công nghệ năm 2010 Bảng 3.1: Thời gian học kết nhớ lại vân tay Mô hình so sánh WBAM ZBAM TBAM FFBAM Tỷ lệ nhớ lại (%) 83.370 85.906 85.906 88.007 Thời gian học (s) 0.054 6.927 161.164 0.648 12 Bảng 3.1 cho thấy FFBAM mô hình tốt Khả nhớ FFBAM cao WBAM khoảng 4.6% học chậm khoảng 0.6s Đối với hai mô hình lại, việc học thực nhanh khoảng 6s nhớ lại tốt khảng 2% 3.3.2 Thử nghiệm với nhận dạng chữ viết tay 52 ảnh huấn luyện chọn từ tập mẫu UJIpenchars từ sở liệu UCI gồm 26 chữ thường 26 chữ hoa Tương tự, Bảng 3.2 cho thấy khả nhớ FFBAM cao học chậm WBAM 0.02s Bảng 3.2: Thời gian học kết nhớ lại chữ viết tay Mô hình so sánh WBAM ZBAM TBAM FFBAM Tỷ lệ nhớ lại (%) 75.463 72.964 75.681 75.89 Thời gian học (s) 0.195 153.546 198.955 0.212 3.3.3 Thử nghiệm với ứng dụng nhận dạng khác 20 ảnh biển hiệu giao thông, 20 ảnh tiền xu Mỹ 10 ảnh phương tiện giao thông chọn từ kết tìm kiếm ảnh Google Bảng 3.3: Thời gian học kết nhớ lại biển hiệu giao thông Mô hình so sánh WBAM ZBAM TBAM FFBAM Tỷ lệ nhớ lại (%) 77.98 28.303 78.303 78.348 Thời gian học (s) 0.057 59.751 17.020 0.409 Bảng 3.4: Thời gian học kết nhớ lại tiền xu Mỹ Mô hình so sánh WBAM ZBAM TBAM FFBAM Tỷ lệ nhớ lại (%) 85.066 45.992 84.896 85.109 Thời gian học (s) 0.332 55.291 100.520 0.815 Bảng 3.5: Thời gian học kết nhớ lại phương tiện giao thông Mô hình so sánh WBAM ZBAM TBAM FFBAM Tỷ lệ nhớ lại (%) 88.11 18.96 90.076 90.076 Thời gian học (s) 0.134 55.755 6.008 3.414 Tương tự, Bảng 3.3, 3.4, 3.5 cho thấy khả nhớ FFBAM cao học chậm WBAM ba thử nghiệm 13 CHƢƠNG HAI LUẬT HỌC CẢI TIẾN CHO LÝ THUYẾT CỘNG HƢỞNG THÍCH NGHI MỜ 4.1 Các luật học điển hình ART Fuzzy ART Các mô hình sử dụng số biến sau: I mẫu vào tại, Wj trọng số cụm j, β tham số học nằm khoảng [0, 1] Capenter đồng nghiệp [Error! Reference source not found.] đưa mô hình Fuzzy ART gốc với luật học cập nhật trọng số cho cụm chọn j sau: ⋏ (4.1) với ⋏ phép giao hai tập mờ Kenaya Cheok [Error! Reference source not found.] đưa Euclidean ART để học với liệu nhiễu với luật học sau: ∑ (4.2) với Xjk mẫu thứ k cụm j L số cụm Yousuf and Murphey [Error! Reference source not found.] cập nhật nhiều cụm thỏa mãn điều kiện ngưỡng theo luật học sau: ⋏ với ‖ (4.3) ‖ ‖ ‖ 4.2 Hai luật học đề xuất cho Fuzzy ART 4.2.1 Nội dung hai luật học Sau Fuzzy ART chọn cụm chiến thắng, việc học mẫu huấn luyện diễn Giả sử, cụm chiến thắng cụm j Luật học thứ Thực cập nhật trọng số cho cụm j theo công thức đây: 14 | | (4.4) với δ tham số học tốc độ học |y| giá trị tuyệt đối y Sau cập nhật điều chỉnh Wij theo luật sau: Do Wij giảm nên Wij[...]... LUẬN Các nội dung nghiên cứu của luận án đã hoàn thành và đạt được các kết quả sau: Đề xuất một thuật toán học cho BAM để học nhanh và linh động hơn Hơn nữa, BAM gắn với thuật toán học cải tiến còn lưu trữ và nhớ lại tốt với các cặp mẫu không trực giao Năm thử nghiệm trong ứng dụng nhận dạng mẫu cho thấy BAM đề xuất có khả năng nhớ lại tốt hơn các BAM khác trong chế độ tự liên kết Đưa ra hai luật học. .. của mẫu vào hiện tại so với trọng số của cụm chiến thắng theo các công thức sau: (4.5) (4.6) Khi đó, luật học thứ hai được trình bày như sau: { (4.7) 4.2.2 Thuật toán tìm giá trị cho tham số tốc độ học Thuật toán 4.1: Tìm giá trị thích hợp cho tham số tốc độ học của Fuzzy ART Input: Một tập mẫu con ngẫu nhiên từ tập dữ liệu ban đầu Output: Giá trị thích hợp của tham số tốc độ học Nội dung thuật toán... kết quả nhớ lại các phương tiện giao thông Mô hình được so sánh WBAM ZBAM TBAM FFBAM Tỷ lệ nhớ lại đúng (%) 88.11 18.96 90.076 90.076 Thời gian học (s) 0.134 55.755 6.008 3.414 Tương tự, Bảng 3.3, 3.4, và 3.5 cho thấy khả năng nhớ của FFBAM là cao nhất và học chậm hơn WBAM trong cả ba thử nghiệm 13 CHƢƠNG 4 HAI LUẬT HỌC CẢI TIẾN CHO LÝ THUYẾT CỘNG HƢỞNG THÍCH NGHI MỜ 4.1 Các luật học điển hình của ART... trong MAM ⋀ (5.27) { ⋀ Khi đó, công thức dùng cho việc nhớ lại được điều chỉnh như sau: 21 ⋁ (5.28) 5.2.2 Hai định lý về khả năng nhớ lại hoàn hảo của FAM cải tiến Định lý 5.1: (Khả năng nhớ lại các cặp mẫu trong chế độ liên kết khác loại) W trong công thức (5.27) nhớ lại hoàn hảo mọi cặp mẫu (Ak, Bk) nếu và chỉ nếu với mỗi k=1, ,p, mỗi cột của ma trận Wk-W có chứa một số 0 Hệ quả 5.1: (Khả năng nhớ. .. nội dung và sự liên kết giữa các cặp mẫu Hơn nữa, FAM gắn với luật học cải tiến còn giảm sự ảnh hưởng của các mẫu vào nhiễu trong quá trình nhớ lại để chịu nhiễu tốt hơn với các nhiễu ở cả hai dạng co rút và giãn nở Kết quả thử nghiệm với ứng dụng nhận dạng mẫu cho thấy FAM với luật học cải tiến có khả năng nhớ lại tốt hơn các FAM khác trong cả hai chế độ 24 ... của Ei tỷ lệ thuận với mọi qk của p cặp mẫu (với k=1,…p) Từ đó, suy ra được giá trị tuyệt đối của Ei sẽ giảm mạnh khi các qk cùng giảm 3.2.2 Nội dung thuật toán học mới Một số ký hiệu trong thuật toán  qi là MNTP của cặp mẫu thứ i  W là ma trận trọng số chung  Ei là năng lượng ứng với trạng thái (Ai, Bi)  ε là ngưỡng để dừng việc điều chỉnh qi Thuật toán 3.1: Thuật toán học nhanh và linh động cho... hình sử dụng một số biến sau: I là mẫu vào hiện tại, Wj là trọng số của cụm j, và β là tham số học nằm trong khoảng [0, 1] Capenter và đồng nghiệp [Error! Reference source not found.] đưa ra mô hình Fuzzy ART gốc với luật học cập nhật trọng số cho cụm được chọn j như sau: ⋏ (4.1) với ⋏ là phép giao của hai tập mờ Kenaya và Cheok [Error! Reference source not found.] đưa ra Euclidean ART để học với các... trận trọng số kết nối W lưu tất cả các cặp mẫu được tính bằng công thức: ⋀ (5.20) hoặc (5.21) ⋁ Với mẫu vào X, mẫu ra Y được tính bằng hàm đầu ra: (5.22) với là thao tác DM, DP, DL và θ được tính bằng công thức: ⋀ (5.23) 5.2 Luật học cải tiến 5.2.1 Mô hình FAM với luật học cải tiến Mô hình FAM với luật học cải tiến (ACAM - Association-Content Asociative Memory) được xây dựng dựa trên các bộ nhớ liên... (IFAM) 20 Quá trình học các cặp mẫu Việc học và lưu trữ p cặp mẫu trong FAM được thực hiện qua hai bước sau: Bƣớc 1: Học và lưu trữ cặp mẫu (Ak, Bk) trong ma trậntrọng số Wk theo cách sau: ( ) (5.24) với η là nhân tố điều khiển tỷ lệ giữa nội dung và sự liên kết được lưu Do dùng nhân tố η nên khi mẫu vào bị nhiễu thì nhiễu sẽ ít ảnh hưởng hơn đến mẫu được nhớ lại Bƣớc 2: Tổng quát hóa sự liên kết của các... mẫu được nhớ lại Bƣớc 2: Tổng quát hóa sự liên kết của các cặp mẫu và lưu trữ trong ma trận trọng số chung theo công thức sau: ⋀ ⋀ (5.25) Quá trình nhớ lại Việc nhớ lại mẫu ra Y từ mẫu vào X và ma trận trọng số chung W được thực hiện như sau: Mẫu ra được nhớ lại thông qua sự tổng hợp của ma trận trọng số chung và mẫu vào như trong công thức dưới đây: ⋁ (5.26) Điều chỉnh ACAM cho chế độ tự liên kết Để

Ngày đăng: 14/09/2016, 23:08

Từ khóa liên quan

Tài liệu cùng người dùng

  • Đang cập nhật ...

Tài liệu liên quan