Nghiên cứu các phương pháp toán học tiên tiến trong việc nâng cao chất lượng khôi phục ảnh y sinh (KL07434)

66 742 1
Nghiên cứu các phương pháp toán học tiên tiến trong việc nâng cao chất lượng khôi phục ảnh y sinh (KL07434)

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

Thông tin tài liệu

TRƢỜNG ĐẠI HỌC SƢ PHẠM HÀ NỘI 2 KHOA VẬT LÝ TRẦN THỊ DUYÊN NGHIÊN CỨU CÁC PHƢƠNG PHÁP TOÁN HỌC TIÊN TIẾN TRONG VIỆC NÂNG CAO CHẤT LƢỢNG KHÔI PHỤC ẢNH Y SINH KHÓA LUẬN TỐT NGHIỆP ĐẠI HỌC HÀ NỘI, 2015 TRƢỜNG ĐẠI HỌC SƢ PHẠM HÀ NỘI 2 KHOA VẬT LÝ TRẦN THỊ DUYÊN NGHIÊN CỨU CÁC PHƢƠNG PHÁP TOÁN HỌC TIÊN TIẾN TRONG VIỆC NÂNG CAO CHẤT LƢỢNG KHÔI PHỤC ẢNH Y SINH Chuyên ngành: Vật lý kỹ thuật Ngƣời hƣớng dẫn khoa học: ThS. Trần Quang Huy HÀ NỘI, 2015 LỜI CẢM ƠN Trƣớc tiên, tôi xin chân thành cảm ơn ThS. Trần Quang Huy, ngƣời đã hƣớng dẫn tận tình, giúp tôi hoàn thành khóa luận. Tôi xin chân thành cảm ơn các thầy giáo, cô giáo trong khoa Vật Lý trƣờng Đại học Sƣ Phạm Hà Nội 2 đã giúp đỡ tôi trong suốt quá trình học tập và làm khóa luận. Đặc biệt, tôi xin gửi lời cảm ơn sâu sắc tới PGS. TS. Trần Đức Tân, Trƣờng Đại học Công nghệ, Đại học Quốc gia Hà Nội. Thầy đã giới thiệu thầy hƣớng dẫn tôi đến lĩnh vực siêu âm cắt lớp (một lĩnh vực còn rất mới và mang tính thời sự ở Việt Nam), và đã đóng góp nhiều ý kiến quí báu trong quá trình tôi hoàn thiện khóa luận. Đây là đề tài tôi dày công nghiên cứu cùng với thầy hƣớng dẫn, vì vậy, tôi hy vọng rằng, nó sẽ là tài liệu bổ ích cho những ngƣời quan tâm về lĩnh vực này, mọi chi tiết cần điều chỉnh, bổ xung xin liên hệ tới Trần Thị Duyên, tranduyensp2@gmail.com; 01649635884. Tôi xin cảm ơn bạn bè, ngƣời thân luôn cổ vũ, động viên, giúp đỡ tôi hoàn thành khóa luận. Hà Nội, tháng 5 năm 2015 Sinh viên Trần Thị Duyên LỜI CAM ĐOAN Qua quá trình nghiên cứu khóa luận về đề tài: “Nghiên cứu các phƣơng pháp toán học tiên tiến trong việc nâng cao chất lƣợng khôi phục ảnh y sinh” tôi đã tiếp cận đƣợc một trong những lĩnh vực đang đƣợc phát triển mạnh mẽ, đó là Kĩ thuật Y Sinh. Qua đây cũng giúp tôi bƣớc đầu làm quen với công việc nghiên cứu khoa học. Tôi xin cam đoan khóa luận này đƣợc hoàn thành do sự cố gắng tìm hiểu nghiên cứu của bản thân cùng với sự hƣớng dẫn chỉ bảo tận tình và hiệu quả của ThS. Trần Quang Huy cũng nhƣ các thầy cô giáo trong Khoa Vật lý, Trƣờng Đại học Sƣ phạm Hà Nội 2. Đây là đề tài không trùng với các đề tài khác và kết quả đạt đƣợc không trùng với kết quả của các tác giả khác. Hà Nội, tháng 5 năm 2015 Sinh viên Trần Thị Duyên DANH MỤC CÁC TỪ VIẾT TẮT Ultrasound/ Ultrasonography Siêu âm Tomography Cắt lớp Ultrasound tomography Siêu âm cắt lớp Least squared error Lỗi bình phƣơng nhỏ nhất Least Square Problem (LSP) Bài toán bình phƣơng nhỏ nhất Overdetermined System Hệ có số phƣơng trình nhiều hơn số ẩn Underdetermined System Hệ có số phƣơng trình ít hơn số ẩn Ill-posed problems Bài toán giả định sai Well-posed problems Bài toán giả định đúng Ill-conditioned matrix Ma trận điều kiện xấu Born Iterative Method - BIM Phƣơng pháp lặp Born Distorted Born Iterative Method DBIM Phƣơng pháp lặp vi phân Born Forward problems Bài toán thuận Inverse problems Bài toán ngƣợc Machine learning Học máy Singular Value Decomposition (SVD) Phân tích giá trị đơn DANH MỤC HÌNH VẼ Hình 1.1: Đồ thị phƣơng trình bậc nhất và các mẫu ........................... 11 Hình 2.1: Đồ thị mô tả 3 phƣơng trình của hệ ............................................ …24 Hình 3.1: Cấu hình hệ đo ................................................................................ 35 Hình 3.2: Hàm mục tiêu lí tƣởng .................................................................... 39 MỤC LỤC Trang MỞ ĐẦU ........................................................................................................ ..1 Chƣơng 1. Một số kiến thức toán cơ bản ứng dụng trong kĩ thuật siêu âm cắt lớp ............................................................................................................. ..4 1.1. Chuẩn ma trận, vectơ ............................................................................ ..4 1.1.1. Ma trận .................................................................................................. ..4 1.1.2. Định thức của ma trận ........................................................................... ..5 1.1.2.1. Định nghĩa .......................................................................................... ..5 1.1.2.2. Phƣơng pháp tính định thức ............................................................... ..6 1.1.3. Ma trận nghịch đảo................................................................................ ..6 1.1.4. Chuẩn ma trận, vecto............................................................................. ..7 1.1.4.1. Chuẩn của vecto ................................................................................. ..7 1.1.4.2. Chuẩn của ma trận .............................................................................. ..9 1.2. Phƣơng pháp bình phƣơng nhỏ nhất ................................................... 11 1.3. Argument của một hàm ......................................................................... 12 1.4. Bài toán giả định đúng và Bài toán giả định sai ................................. 12 1.5. Bài toán ngƣợc ........................................................................................ 14 1.5.1. Giới thiệu chung .................................................................................... 14 1.5.2. Khái niệm ............................................................................................. 14 1.5.3. Bài toán ngƣợc ...................................................................................... 15 1.5.4. Bài toán ngƣợc tuyến tính ..................................................................... 15 1.5.5. Ví dụ (Trƣờng hấp dẫn của trái đất) ..................................................... 16 1.6. Chuẩn tắc (Regularization) ................................................................... 19 1.7. Hiện tƣợng Overfitting .......................................................................... 20 1.8. Hiện tƣợng Phase wrapping .................................................................. 20 Chƣơng 2. Các phƣơng pháp toán học nâng cao chất lƣợng khôi phục ảnh y sinh ....................................................................................................... 21 2.1. Phƣơng pháp Moo-PenPenrose Psedoinverse ..................................... 21 2.2. Phƣơng pháp Tikhonov regulazation................................................... 24 2.2.1. Khái niệm .............................................................................................. 24 2.2.2. Chuẩn tắc Tikhonov tổng quát .............................................................. 25 2.2.3. Liên quan đến phân tích giá trị đơn (SVD) và bộ lọc Wiener .............. 26 2.2.4. Xác định hệ số Tikhonov ...................................................................... 27 2.3. Phƣơng pháp L1 regularation .............................................................. 28 2.3.1. -Regularized Least squares ................................................................ 28 2.3.2. -Regularized Least Squares ................................................................ 29 Chƣơng 3: Mô phỏng và kết quả ................................................................. 34 3.1. Mô hình phƣơng pháp lặp vi phân Born (DBIM)............................... 34 3.2. Chi tiết tính toán phƣơng pháp lặp vi phân Born (DBIM) ................ 34 3.3. Các phƣơng pháp toán học khôi phục ảnh và chƣơng trình mô phỏng ……………………………………………………………………………….37 3.4. Chƣơng trình code của các thuật toán ................................................. 37 3.4.1. Chƣơng trình code của phƣơng pháp Moo-PenPenrose Psedoinverse . 37 3.4.2. Chƣơng trình code của phƣơng pháp Tikhonov regularization ............ 38 3.4.3. Chƣơng trình code của phƣơng pháp L1 regularization ..................... 38 3.5. Kết quả mô phỏng .................................................................................. 39 3.5.1. Mô phỏng sử dụng phƣơng pháp Tikhonov .......................................... 39 3.5.2. Mô phỏng sử dụng phƣơng pháp L1. N2 = 484 ............................... 40 3.5.3. Đánh giá kết quả sử dụng phƣơng pháp Tikhonov và phƣơng pháp L1…………………………………………………………………………….41 3.6. Kết quả mô phỏng sử dụng phƣơng pháp Tikhonov regularization.42 3.7. Kết quả mô phỏng sử dụng phƣơng pháp L1 regularization ........... 47 KẾT LUẬN .................................................................................................... 54 TÀI LIỆU THAM KHẢO ............................................................................ 55 MỞ ĐẦU 1. Lý do chọn đề tài Kỹ thuật y sinh là một bộ môn khoa học ứng dụng dựa trên các nguyên lý cơ bản trong kỹ thuật và các ý tƣởng về thiết kế để đƣa ra giải pháp trong y học, y sinh. Kỹ thuật y sinh đã lấp đầy khoảng trống còn thiếu giữa các kỹ thuật máy móc và y dƣợc học, nó là sự kết hợp của các thiết kế giúp giải quyết các vấn đề còn vƣớng mắc về phƣơng pháp và kỹ thuật mà trƣớc đây y học và sinh học chƣa thể chạm đến, sự kết hợp này đã nâng cao khả năng chăm sóc sức khỏe, bao gồm công tác chẩn đoán, theo dõi, và điều trị. Kỹ thuật y sinh là một lĩnh vực tƣơng đối mới mẻ, đa phần các thành tựu đạt đƣợc chỉ mới dừng ở mức độ nghiên cứu, bao phủ nhiều lĩnh vực khác nhau: tin sinh học, chẩn đoán hình ảnh, xử lý hình ảnh, xử lý tín hiệu sinh lý học, cơ sinh học, vật liệu sinh học với kỹ thuật sinh học, phân tích hệ thống, mô hình hóa 3 chiều … Toán học đƣợc sử dụng trên khắp thế giới nhƣ một công cụ thiết yếu trong nhiều lĩnh vực, bao gồm khoa học, kỹ thuật, y học, và tài chính. Trong y học, chẩn đoán hình ảnh là một phƣơng pháp chẩn đoán cho phép ngƣời bác sĩ có thể quan sát bằng hình ảnh các bộ phận của cơ thể một cách trực quan nhất. Từ đó đƣa ra các chẩn đoán chính xác của bệnh lý để có biện pháp điều trị hiệu quả. Khoa học hỗ trợ cho kĩ thuật chẩn đoán hình ảnh chính là xử lý ảnh. Chẳng hạn nhƣ trong các phƣơng pháp: chụp X_quang, chụp cắt lớp CT, MRI, siêu âm,… Ảnh sau khi đƣợc tái tạo chƣa thể rõ nét đƣợc, ảnh hƣởng đến chất lƣợng, gây khó khăn cho việc chuẩn đoán bệnh. Do vậy, mặc dù các thiết bị chụp y tế với công nghệ ngày càng nâng cao để hỗ trợ cho việc phân tích và xử lý thông tin từ ảnh nhƣng vấn đề đặt ra cần phải giải quyết song song là việc nâng cao chất lƣợng ảnh – đây là một khâu quan trọng đƣợc coi là bƣớc tiền xử lý cho bƣớc tiếp theo là phân đoạn ảnh y học. 1 Hiện nay, tạo ảnh siêu âm là một công cụ an toàn, không bị iôn hoá để chẩn đoán lâm sàng. So với phƣơng pháp X-ray, MRI, … thì phƣơng pháp siêu âm cắt lớp cho phép tạo ảnh có lợi thế hơn nhiều. Hoạt động của nó dựa trên sự tán xạ ngƣợc và có khả năng giải quyết những cấu trúc nhỏ hơn bƣớc sóng của sóng tới, nó trái ngƣợc với phƣơng pháp tạo ảnh truyền thống sử dụng phƣơng pháp phản hồi. Một số tính chất vật liệu, nhƣ độ tƣơng phản âm, mật độ, độ suy hao, đƣợc ứng dụng để tìm ra các đối tƣợng có kích thƣớc nhỏ. Hai phƣơng pháp lặp Born (Born Iterative Method - BIM) và lặp vi phân Born (Distorted Born Iterative Method - DBIM) là hai phƣơng pháp đƣợc cho là tốt nhất hiện nay để tạo ảnh tán xạ. Vì vậy, sau một thời gian học tập và nghiên cứu, chúng tôi đã lựa chọn và nghiên cứu đề tài: “Nghiên cứu các phương pháp toán học tiên tiến trong việc nâng cao chất lượng khôi phục ảnh y sinh” 2. Mục đích nghiên cứu Tìm hiểu các phƣơng pháp toán học tiên tiến nhằm nâng cao chất lƣợng khôi phục ảnh y sinh, cụ thể là ảnh siêu âm cắt lớp. 3. Giả thuyết khoa học Nếu nắm đƣợc các phƣơng pháp toán học tiên tiến thì đã bƣớc đầu tiếp cận đƣợc việc nâng cao chất lƣợng khôi phục ảnh y sinh. 3. Đối tƣợng và phạm vi nghiên cứu - Đối tƣợng: Các phƣơng pháp toán học tiên tiến ứng dụng trong y sinh. - Phạm vi nghiên cứu: Xử lí tín hiệu y sinh. 4. Nhiệm vụ nghiên cứu - Nghiên cứu một số kiến thức toán cơ bản ứng dụng trong khôi phục ảnh y sinh. 2 - Nghiên cứu các phƣơng pháp toán học nâng cao chất lƣợng khôi phục ảnh y sinh. 5. Phƣơng pháp nghiên cứu Sử dụng các phƣơng pháp nghiên cứu lí thuyết kết hợp với mô phỏng. 6. Cấu trúc luận văn Chƣơng 1: Một số kiến thức toán cơ bản ứng dụng trong kĩ thuật siêu âm cắt lớp. Chƣơng 2: Các phƣơng pháp toán học nâng cao chất lƣợng khôi phục ảnh y sinh. Chƣơng 3: Mô phỏng và kết quả. 3 Chƣơng 1: Một số kiến thức toán cơ bản ứng dụng trong kĩ thuật siêu âm cắt lớp 1.1. Chuẩn ma trận, vectơ 1.1.1. Ma trận Trong phần này, chúng tôi giới thiệu các khái niệm cơ bản về ma trận: Ma trận vuông, ma trận đƣờng chéo, ma trận đơn vị, ma trận tam giác trên, ma trận tam giác dƣới, ma trận chuyển vị. Cho ma trận chữ nhật A cấp : [ ở đây ] là các số thực. Ma trận này có m hàng và n cột. Khi trận cấp ta có ma và đƣợc gọi tắt là ma trận vuông cấp n. Ma trận vuông cấp n mà mọi phần tử nằm ngoài đƣờng chéo chính bằng 0, tức là đƣợc gọi là ma trận đường chéo. Nếu ma trận với đƣờng chéo có thì ta gọi A là ma trận đơn vị và ta thƣờng ký hiệu là E hoặc I. Ma trận vuông A đƣợc gọi là ma trận tam giác trên, nếu A có dạng: [ ] Tƣơng tự, ma trận vuông A đƣợc gọi là ma trận tam giác dưới, nếu A có dạng: [ Ma trận chữ nhật cấp ] đƣợc gọi là ma trận chuyển vị của ma trận 4 A cấp nếu: [ ] 1.1.2. Định thức của ma trận 1.1.2.1. Định nghĩa Trƣớc khi đƣa ra định nghĩa định thức của ma trận, chúng tôi giới thiệu khái niệm hoán vị chẵn, hoán vị lẻ của một tập hợp n số nguyên{1, 2, ... , n}. là một hoán vị của tập {1,2,...,n}.Ta xét tất cả Cho các cặp trong đó ngƣợc, tức là các giá trị ngƣợc là chẵn thì ta gọi Nếu thì ta gọi cặp là cặp đƣợc sắp xếp ngƣợc với k, h. Nếu trong là hoán vị chẵn, ngƣợc lại thì ta gọi số cặp là hoán vị lẻ. Với mỗi ma trận vuông A cấp n: [ ] tồn tại một số thực đƣợc gọi là định thức của ma trận A, ký hiệu là det A, đƣợc xác định bởi công thức: ∑ (1.1) trong tập tất cả các hoán vị của tập {1,2,...,n}, với { Định thức của ma trận còn đƣợc ký hiệu là: | | 5 Với mỗi ma trận chữ nhật A cấp mxn bất kỳ ta có thể tính định thức của tất cả các ma trận con vuông cấp k, với . Nếu tồn tại một số r sao cho có một ma trận con cấp r có định thức khác 0, còn mọi ma trận con vuông cấp lớn hơn r đều bằng 0 thì ta nói rằng r là hạng của ma trận A. Các phép biến đổi sơ cấp sau đây không làm biến đổi hạng của ma trận: - Đổi chỗ 2 hàng hoặc 2 cột bất kỳ. - Nhân một hàng hay một cột bất kỳ với một số khác không. - Cộng các thành phần tƣơng ứng của 2 hàng hoặc 2 cột bất kỳ. Các phép biến đổi sơ cấp sẽ đƣợc sử dụng để tính định thức của ma trận và tìm nghiệm của hệ phƣơng trình tuyến tính. Ma trận E đƣợc gọi là ma trận đơn vị cấp n nếu E là ma trận vuông cấp n và E có dạng: [ ] 1.1.2.2. Phƣơng pháp tính định thức Tính định thức bằng cách chuyển ma trận về dạng tam giác trên. Ta sẽ biến đổi để đƣa ma trận A về dạng ma trận tam giác trên: [ ] Vậy 1.1.3. Ma trận nghịch đảo Ma trận nghịch đảo của một ma trận vuông A cấp n là ma trận đƣợc ký hiệu là thoả mãn điều kiện: 6 Trong đó: E là ma trận đơn vị. Có thể chứng minh rằng để thỏa mãn điều kiện trên thì bắt buộc phải là ma trận vuông, và ma trận đảo nếu tồn tại là duy nhất. Điều kiện tồn tại của ma trận nghịch đảo: Ma trận vuông A cấp n có ma trận nghịch đảo khi và chỉ khi Cách tính ma trận nghịch đảo: Gọi là phần bù đại số của phần tử khi đó ta có: [ ] Tuy nhiên công thức này chỉ có ý nghĩa lý thuyết, không thể áp dụng để tính trực tiếp ma trận đảo trên máy tính đƣợc vì số phép tính đòi hỏi quá lớn. Chúng ta có thể áp dụng phƣơng pháp khử Gauss-Jordan để tính ma trận 3 nghịch đảo với số phép tính nhỏ hơn nhiều (khoảng n ). 1.1.4. Chuẩn ma trận, vecto 1.1.4.1. Chuẩn của vecto Cho vecto , chuẩn của kí hiệu là ‖ ‖ đƣợc định nghĩa là một số không âm thỏa mãn các tính chất sau: và ‖ ‖ 1. ‖ ‖ 2. ‖ ‖ 3. ‖ khi và chỉ khi | |‖ ‖ với mọi ‖ ‖ ‖ . . ‖ ‖ (Bất đẳng thức tam giác). . Trong thực tế ngƣời ta hay sử Cho vecto dụng một số dạng chuẩn sau: Chuẩn-p Cho là số thực, chuẩn-p đƣợc định nghĩa là: 7 ‖ ‖ (∑‖ ‖ ) ta đƣợc các dạng chuẩn Manhattan, Euclide và Với chuẩn cực đại, tƣơng ứng theo thứ tự đó. , hàm khoảng cách này không thỏa bất đẳng thức Với tam giác nên nó không phải là một chuẩn. Chuẩn Manhattan Trong công thức chuẩn-p, cho ‖ ‖ ta đƣợc ∑| | Chuẩn này còn đƣợc gọi là chuẩn Taxicab, chuẩn Manhattan hoặc đơn giản là chuẩn . Khoảng cách tƣơng ứng thƣờng đƣợc gọi là khoảng cách Manhattan, khoảng cách . Chuẩn Euclide Trong công thức chuẩn-p, cho ‖ ‖ (∑ ) ta đƣợc √ √ Chuẩn Euclide còn đƣợc gọi là chuẩn . Chuẩn vô cực Trong công thức chuẩn-p, khi ‖ ‖ | || | ta đƣợc chuẩn cực đại | | Ngoài ra ngƣời ta còn định nghĩa chuẩn cực tiểu, tƣơng ứng với trƣờng hợp : ‖ ‖ | || | 8 | | Tƣơng tự ở trên, lƣu ý rằng đều , không phải là chuẩn. Chuẩn khác Kết hợp các dạng chuẩn trên, ta có thể có nhiều dạng chuẩn mới. Chẳng hạn: ‖ ‖ | | √ | | | || | cũng là một dạng chuẩn. 1.1.4.2. Chuẩn của ma trận kích thƣớc Cho ma trận kí hiệu ‖ ‖ theo định , chuẩn của nghĩa là một số không âm thỏa mãn: 1. ‖ ‖ và‖ ‖ 2. ‖ | |‖ ‖ với mọi . 3. ‖ ‖ ‖ ‖ ‖ khi và chỉ khi . ‖ ‖ (bất đẳng thức tam giác). không giống nhƣ vecto, các dạng chuẩn đều đƣợc “phái sinh” từ một chuẩn duy nhất là chuẩn-p, các dạng chuẩn của ma trận có thể xem nhƣ thuộc vào một trong 3 “nguồn gốc” sau đây: Chuẩn toán tử thuộc không gian vecto Nếu ma trận thì chuẩn của tƣơng ứng với chuẩn-p của vecto là ‖ ‖ ‖ ‖ ‖ ‖ với . Trƣờng hợp đặc biệt: Với thì chuẩn toán tử trở thành chuẩn cực đại theo cột: ‖ ‖ ∑ 9 | | để tìm chuẩn này, ta cộng giá trị tuyệt đối của các phần tử trong cùng một cột, sau đó lấy kết quả lớn nhất. , chuẩn toán tử trở thành chuẩn cực đại theo dòng: Với ‖ ‖ ∑ và Với | | , ta đƣợc dạng chuẩn Euclide của ma trận, đƣợc tính bằng giá trị lớn nhất trong các singular value của . ‖ ‖ Chuẩn từng phần tử Áp dụng một cách trực tiếp chuẩn-p của vecto đối với từng phần tử của ma trận, ta đƣợc loại chuẩn tƣơng đối trực quan này ‖ ‖ (∑ ∑| | ) để ý rằng ngƣời ta vẫn kí hiệu là ‖ ‖ mặc dù chuẩn này hoàn toàn khác với chuẩn toán tử bên trên. Trƣờng hợp đặc biệt đƣợc gọi là chuẩn Frobenius, và chính là chuẩn cực đại Chuẩn Frobenius Có nhều cách định nghĩa khác nhau: ‖ ‖ √∑ ∑ | | √∑ √ với A* là ma trận conjugate transpose của A, đƣờng chéo chính của và là các singular value của A. Để ý sự tƣơng tự giữa √ vecto √ là tổng các phần tử trên và công thức chuẩn Euclide của . 10 Chuẩn Schatten ‖ ‖ (∑ ) 1.2. Phƣơng pháp bình phƣơng nhỏ nhất Giả sử có một tập các điểm dữ liệu xác định, chúng ta cần biểu diễn đƣờng dữ liệu theo một hàm có dạng đã biết. Thông thƣờng, các mẫu dữ liệu có ảnh hƣởng của nhiễu, vì vậy các tham số của hàm để mô tả chính xác tất cả các mẫu không thể xác định đƣợc. Do đó, chúng ta cần tìm ra các tham số mà nó mô tả các mẫu tốt nhất. Phƣơng pháp lỗi bình phƣơng nhỏ nhất “least squared error” là một phƣơng pháp phổ biến để ƣớc tính tốt nhất. Lỗi bình phƣơng là tổng bình phƣơng của sự sai khác giữa mỗi mẫu và giá trị kì vọng. Tham số để lỗi bình phƣơng nhỏ nhất là tham số ƣớc tính tốt nhất. Để đơn giản, chúng ta xét một ví dụ cụ thể sau: Cho n mẫu , tìm phƣơng trình đƣờng thẳng (có dạng của phƣơng trình bậc nhất) thỏa mãn các mẫu cho trƣớc đó. Giả sử phƣơng trình thỏa mãn các mẫu cho trƣớc có dạng y = ax + b. Trong đó, x là đại lƣợng mà ta muốn ƣớc tính, y là các phép đo sử dụng các sensors (chính là các mẫu), b là nhiễu hay lỗi của phép đo (giá trị của b thƣờng rất nhỏ). Đồ thị phƣơng trình bậc nhất và các mẫu đƣợc thể hiện trên hình vẽ: Hình 1.1: Đồ thị phương trình bậc nhất và các mẫu Lỗi bình phƣơng nhỏ nhất E đƣợc định nghĩa nhƣ sau: 11 . ∑ cụ thể là: ∑ Phƣơng trình trên đƣợc biểu diễn dƣới dạng chuẩn Ơclit nhƣ sau: ‖ ‖ giá trị nhiễu b là giá trị rất nhỏ không mong muốn. Trên thực tế, ta cần giảm giá trị của b càng nhỏ càng tốt. Vì vậy, ta cần ƣớc tính ̂ sao cho ‖ ̂ ‖ là nhỏ nhất. Bài toán qui về tìm: ‖ ̂ ‖ 1.3. Argument của một hàm Argument đƣợc gọi là đối số và nó đƣợc dùng trong khi chúng ta truyền giá trị đầu vào khi gọi một hàm nào đó. Mỗi đối số ứng với một tham số nhất định khi chúng ta khai báo hàm. Arg min, đƣợc viết tắt từ argument of the minimum, và đƣợc kí hiệu: arg min f ( x) x Biểu thức trên tính giá trị nhỏ nhất của hàm f(x), với giá trị xác định của x. Arg max, đƣợc viết tắt từ argument of the maximum, và đƣợc kí hiệu: arg max f ( x) x Biểu thức trên tính giá trị lớn nhất của hàm f(x), với giá trị xác định của x. 1.4. Bài toán giả định đúng và bài toán giả định sai Bài toán giả định đúng đƣợc đề xƣớng bởi Jacques Hadamard. Ông cho rằng, mô hình toán học của hiện tƣợng vật lí có các tính chất sau: + Tồn tại một giải pháp. 12 + Giải pháp là duy nhất. + Hoạt động của giải pháp thay đổi liên tục theo điều kiện ban đầu. Các ví dụ về bài toán giả định đúng bao gồm bài toán Dirichlet cho phƣơng trình Laplace, phƣơng trình nhiệt với điều kiện ban đầu xác định. Đây có thể đƣợc xem nhƣ các bài toán „tự nhiên‟ mà các quá trình vật lí đƣợc mô hình bởi bài toán này. Các bài toán không phải là bài toán giả định đúng theo đúng ý nghĩa của Hadamard đƣợc định nghĩa bài toán giả định sai. Bài toán ngƣợc (Inverse problem) thƣờng là bài toán giả định sai. Ví dụ, phƣơng trình nhiệt nghịch đảo, có thể suy luận đƣợc sự phân bố nhiệt độ trƣớc đó từ dữ liệu cuối cùng, không phải là bài toán giả định đúng vì giải pháp này có sự nhạy cao với sự thay đổi ở dữ liệu cuối cùng. Thông thƣờng, mô hình liên tục phải đƣợc rời rạc hóa để có thể tính toán bằng phƣơng pháp số (numerical solution). Trong khi các giải pháp có thể liên tục tƣơng ứng với điều kiện ban đầu, chúng có thể gặp phải tính không ổn định số khi đƣợc giải quyết với độ chính xác có hạn, hoặc với lỗi trong dữ liệu. Ngay cả với bài toán giả định đúng, nó vẫn có thể xảy ra điều kiện yếu (ill-conditioned), nghĩa là khi có lỗi nhỏ trong dữ liệu ban đầu có thể gây ra lỗi lớn hơn nhiều trong dữ liệu thu đƣợc. Bài toán điều kiện xấu đƣợc biểu thị bởi số điều kiện lớn. Nếu bài toán là giả định đúng, thì giải pháp có thể thực hiện tốt trên máy tính sử dụng giải thuật ổn định (stable algorithm). Nếu bài toán là giả định sai, chúng ta cần tính toán lại để điều trị số (numerical treatment). Đặc biệt, vấn đề này bao gồm các giả định bổ sung, chẳng hạn nhƣ độ mƣợt của giải pháp (smoothness of solution). Quá trình này đƣợc biết nhƣ là Chuẩn tắc (regularization). Chuẩn tắc Tikhonov là một trong những giải pháp đƣợc sử dụng rộng rãi nhất cho bài toán giả định sai tuyến tính. 13 1.5. Bài toán ngƣợc 1.5.1. Giới thiệu chung Bài toán ngƣợc đƣợc sử dụng để biến đổi phép đo quan sát thành thông tin về đối tƣợng hoặc hệ thống vật lí. Ví dụ, nếu chúng ta có phép đo về trƣờng hấp dẫn của trái đất, thì chúng ta có thể đặt câu hỏi rằng: “nếu chúng ta có dữ liệu, chúng ta có thể nói gì về sự phân bố mật độ của trái đất ở khu vực đó?”. Giải pháp đối với vấn đề này (tức là, phân bố mật độ phù hợp với dữ liệu nhất) là rất cần thiết bởi vì nó chỉ cho chúng ta biết về tham số vật lí mà chúng ta không thể quan sát trực tiếp. Vì vậy, bài toán ngƣợc là một trong những bài toán đƣợc nghiên cứu sâu và quan trọng nhất trong khoa học và toán học. Bài toán ngƣợc phát triển trong nhiều ngành, bao gồm, thị lực máy tính, xử lí ngôn ngữ tự nhiên, học máy, thống kê, luận thống kê, địa lí, tạo ảnh y sinh (chẳng hạn nhƣ chụp cắt lớp điện toán, EEG/ERP), viễn thám, siêu âm cắt lớp đại dƣơng, kiểm tra không phá hủy, thiên văn học, vật lí và nhiều lĩnh vực khác. 1.5.2. Khái niệm Bài toán ngƣợc có thể đƣợc xây dựng nhƣ sau Dữ liệu → Tham số mô hình Bài toán ngƣợc đƣợc xem xét là “ngƣợc” đối với bài toán thuận, nó liên quan tham số mô hình đối với dữ liệu mà chúng ta quan sát: Tham số mô hình → Dữ liệu Sự biến đổi từ dữ liệu đến tham số mô hình (hoặc ngƣợc lại) là kết quả của sự tƣơng tác của hệ thống vật lí với đối tƣợng mà chúng ta quan tâm đến tính chất của nó. Bảng dƣới đây chỉ ra một số ví dụ hệ thống vật lí, phƣơng trình chi phối, đại lƣợng vật lí mà chúng ta quan tâm và những gì chúng ta thực sự quan sát 14 Hệ thống vật lí Phƣơng trình chi phối Đại lƣợng vật lí Dữ liệu quan sát Trƣờng hấp dẫn của trái đất Định luật vạn vật hấp dẫn của Niutơn Mật độ Trƣờng hấp dẫn Từ trƣờng của trái đất (ở bề mặt) Phƣơng trình Maxwell Độ cảm từ Từ trƣờng Phƣơng trình sóng Tốc độ sóng (mật độ) Vận tốc hạt Sóng địa chấn (do động đất) Đại số tuyến tính là công cụ hiệu quả trong việc tìm hiểu quá trình xây dựng toán lí của bài toán ngƣợc, bởi vì sự hiện diện của sự biến đổi hoặc ánh xạ (mapping) của dữ liệu đến tham số mô hình. 1.5.3. Bài toán ngƣợc Mục tiêu của bài toán ngƣợc là tìm ra mô hình m tốt nhất (hoặc ít nhất là xấp xỉ) mà Trong đó G là một toán tử mô tả mối quan hệ rõ ràng giữa dữ liệu quan sát d và tham số mô hình. Trong các bối cảnh khác nhau, toán tử G đƣợc gọi là toán tử thuận, toán tử quan sát hay hàm quan sát. Trong bối cảnh chung nhất, G đại diện cho phƣơng trình chi phối mà nó liên quan đến tham số mô hình đối với dữ liệu quan sát. 1.5.4. Bài toán ngƣợc tuyến tính Trong trƣờng hợp bài toán ngƣợc tuyến tính rời rạc, mà nó mô tả hệ thống tuyến tính, d (dữ liệu) và m (mô hình tốt nhất) là vectơ, và bài toán có thể đƣợc biểu diễn nhƣ sau: Trong đó: G là ma trận (toán tử), thƣờng đƣợc gọi là ma trận quan sát. 15 1.5.5. Ví dụ (Trƣờng hấp dẫn của trái đất) Chỉ có một số ít hệ thống vật lí thực sự là tuyến tính với tham số mô hình. Một hệ thống nhƣ vậy thuộc lĩnh vực địa vật lí là trƣờng hấp dẫn trái đất. Trƣờng hấp dẫn trái đất đƣợc xác định bởi sự phân bố mật độ của trái đất ở bên dƣới bề mặt. Vì khối thạch của trái đất thay đổi khá đáng kể, chúng ta có thể quan sát sự khác biệt theo phút của trƣờng hấp dẫn trái đất trên bề mặt trái đất. Từ sự hiểu biết về lực hấp dẫn (tức là, định luật vạn vật hấp dẫn của Niutơn), biểu diễn toán học của lực hấp dẫn là Trong đó a là phép đo của gia tốc trọng trƣờng địa phƣơng, K là hằng số hấp dẫn, M là khối lƣợng địa phƣơng (nó liên quan đến mật độ) của khối đá ở bên dƣới bề mặt và r là khoảng cách từ khối lƣợng đến điểm quan sát. Bằng việc rời rạc phƣơng trình trên, chúng ta có thể tìm đƣợc mối liên hệ giữa quan sát dữ liệu rời rạc trên bề mặt trái đất với tham số mô hình rời rạc (mật độ) ở bên dƣới bề mặt mà chúng ta quan tâm. Ví dụ, xem xét trƣờng hợp chúng ta có 5 phép đo ở bề mặt trái đất. Trong trƣờng hợp này, véctơ dữ liệu của chúng ta d, nó là một véctơ cột có kích thƣớc 5x1. Chúng ta cũng biết rằng, có 5 khối lƣợng chƣa biết ở bên dƣới bề mặt (nó không thực tế nhƣng đƣợc dùng để chứng minh khái niệm). Vì vậy, ta có thể xây dựng hệ thống tuyến tính, liên quan đến 5 khối lƣợng chƣa biết, đối với 5 điểm dữ liệu nhƣ sau: 16 [ ] [ ] [ ] Chúng ta có thể thấy rằng, hệ thống có 5 phƣơng trình G, với 5 điểm chƣa biết m. Để giải tham số mô hình mà nó phù hợp với dữ liệu, chúng ta có thể đảo ma trận G để biến đổi trực tiếp phép đo vào tham số mô hình. Ví dụ: Tuy nhiên, không phải tất cả các ma trận vuông có thể đảo đƣợc (G hầu nhƣ không bao giờ có thể đảo đƣợc). Bởi vì chúng ta không đƣợc đảm bảo là có đủ thông tin để xác định một giải pháp duy nhất đối với các phƣơng trình đã cho trừ khi chúng ta có các phép đo độc lập (tức là mỗi phép đo cho biết thông tin duy nhất về hệ thống). Quan trọng là, trong hầu hết các hệ thống vật lí, chúng ta chƣa từng có đủ thông tin để hạn chế một giải pháp duy nhất, bởi vì ma trận quan sát không chứa các phƣơng trình duy nhất. Từ quan điểm của đại số tuyến tính, ma trận G bị khuyết hạng (tức là có giá trị riêng bằng 0), nghĩa là nó không thể đảo đƣợc. Hơn nữa, nếu chúng ta bổ sung thêm các quan sát vào ma trận (tức là thêm số phƣơng trình), thì ma trận G không còn vuông nữa. Thậm chí khi đó, chúng ta không đƣợc đảm bảo có ma trận quan sát hạng đầy đủ. Do đó, hầu hết các bài toán ngƣợc đƣợc xem là underdeterminded, tức là ta không có giải pháp duy nhất cho bài toán ngƣợc. Nếu ta có hệ thống hạng đầy đủ, thì giải pháp có thể là duy nhất. Hệ thống overdetermined (số phƣơng trình nhiều hơn số biến) lại là một vấn đề khác. 17 Vì chúng ta không thể đảo trực tiếp ma trận quan sát, nên ta sử dụng các phƣơng pháp của lí thuyết tối ƣu để giải bài toán ngƣợc. Để làm vậy, ta xác định một mục tiêu, hay còn đƣợc gọi là hàm mục tiêu cho bài toán ngƣợc. Mục tiêu là một hàm đo mức độ phù hợp (tƣơng đồng, sát) của dữ liệu dự kiến từ mô hình khôi phục với dữ liệu quan sát. Trong trƣờng hợp, chúng ta có dữ liệu hoàn hảo (tức là không có nhiễu) và hiểu biết về vật lí hoàn hảo (tức là chúng ta biết về vật lí), thì dữ liệu khôi phục phù hợp với dữ liệu quan sát một cách hoàn hảo. Hàm mục tiêu chuẩn, , thông thƣờng có dạng: ‖ ‖ Biểu thức trên biểu diễn chuẩn L2 của sự không phù hợp (misfit) giữa dữ liệu quan sát và dữ liệu dự kiến từ mô hình. Chúng ta sử dụng chuẩn L2 ở đây nhƣ là một phép đo tổng quát về khoảng cách giữa dữ liệu quan sát và dữ liệu dự kiến, tuy nhiên, các chuẩn khác cũng có thể sử dụng. Mục đích của hàm mục tiêu là tối thiểu sự sai khác giữa dữ liệu dự kiến và dữ liệu quan sát. Để tối ƣu hàm mục tiêu (tức là giải bài toán ngƣợc), ta tính toán gradient của hàm mục tiêu, sử dụng lí do tƣơng tự nhƣ khi ta muốn tối thiểu hàm chỉ có một biến. Gradient của hàm mục tiêu đƣợc tính bởi: Trong đó GT là ma trận chuyển vị của G. Dạng đơn giản của phƣơng trình này là: Sau khi biến đổi, ta thu đƣợc: Phƣơng trình trên đƣợc biết là phƣơng trình thông thƣờng và cho chúng ta một giải pháp đối với bài toán ngƣợc. Nó tƣơng ứng với bài toán bình phƣơng nhỏ nhất. ̂ 18 Ngoài ra, chúng ta luôn biết rằng dữ liệu của chúng ta có những biến động ngẫu nhiên, đƣợc gây bởi nhiễu ngẫu nhiên, hoặc tồi tệ hơn là nhiễu kết hợp (coherent noise). Trong bất kì trƣờng hợp nào, sai số ở dữ liệu quan sát sẽ tạo ra sai số ở tham số mô hình khôi phục, mà chúng ta thu đƣợc bằng cách giải bài toán ngƣợc. Để tránh các sai số này, chúng ta muốn hạn chế các giải pháp có thể để nhấn mạnh các đặc điểm có thể nhất định trong mô hình của chúng ta. Loại hạn chế này đƣợc gọi là chuẩn tắc (Regularization). 1.6. Chuẩn tắc (Regularization). Chuẩn tắc, trong toán học, thống kê và đặc biệt trong lĩnh vực học máy (machine learning) và bài toán ngƣợc, đề cập đến quá trình giới thiệu thông tin bổ sung để giải quyết bài toán giả định sai và tránh hiện tƣợng overfitting. Thông thƣờng, thông tin này ở dạng penalty của độ phức tạp, chẳng hạn nhƣ các hạn chế của độ mƣợt (smoothness) hoặc đƣờng bao trong chuẩn không gian vector. Việc chứng minh lí thuyết của chuẩn tắc là, nó cố gắng sử dụng Occam’s razor vào giải pháp. Từ quan điểm Bayesian, nhiều kĩ thuật chuẩn tắc tƣơng ứng việc vận dụng phân bố ƣu tiên xác định vào các tham số mô hình. Ý tƣởng tƣơng tự cũng đƣợc phát triển trong nhiều lĩnh vực khoa học. Ví dụ, phƣơng pháp bình phƣơng nhỏ nhất có thể đƣợc xem nhƣ là một dạng rất đơn giản của chuẩn tắc. Một dạng đơn giản của chuẩn tắc đƣợc ứng dụng đối với phƣơng trình tích phân, gọi là chuẩn tắc Tikhonov, về bản chất là sự thỏa hiệp giữa phù hợp dữ liệu và giảm mức chuẩn của giải pháp. Gần đây, các phƣơng pháp chuẩn tắc không tuyến tính, cụ thể là Total variation regularization đã trở nên phổ biến. 19 1.7. Hiện tƣợng Overfitting Trong lĩnh vực thống kê và học máy, hiện tƣợng overfitting xảy ra khi mô hình thống kê mô tả sai số ngẫu nhiên hoặc nhiễu thay vì mối quan hệ cơ bản. Thông thƣờng, overfitting xảy ra khi mô hình quá phức tạp, chẳng hạn nhƣ có quá nhiều tham số liên quan đến số quan sát (number of observations). Mô hình có hiện tƣợng overfitting thƣờng có hiệu suất kém, vì nó có thể phóng đại sự dao động nhỏ trong dữ liệu. 1.8. Hiện tƣợng Phase wrapping Pha tức thời và tần số tức thời là hai khái niệm quan trọng trong lĩnh vực xử lí tín hiệu, nó xảy ra khi biểu diễn và phân tích các hàm thay đổi theo thời gian. Pha tức thời của hàm giá trị phức s(t) là hàm giá trị thực [ ] Đối với hàm giá trị thực s(t), nó đƣợc xác định [ ] Khi φ(t) bị hạn chế trong khoảng (-π, π] khoảng [0, 2π), nó đƣợc gọi là hiệu ứng wrapped phase. Ngƣợc lại, gọi là hiệu ứng unwrapped phase, nó là hàm liên tục của t. 20 Chƣơng 2: Các phƣơng pháp toán học nâng cao chất lƣợng khôi phục ảnh y sinh 2.1. Phƣơng pháp Moo-PenPenrose Psedoinverse. Giả sử chúng ta cần giải một hệ phƣơng trình tuyến tính, với số phƣơng trình nhiều hơn ẩn số. Phƣơng trình tổng quát của hệ thống có dạng: ⃗ ⃗ chúng ta cần tìm⃗⃗⃗ nếu biết A và ⃗ Trong đó: ⃗ là một vector; ⃗⃗⃗⃗ là một vector; A là một ma trận. Phƣơng trình tổng quát của hệ thống còn đƣợc viết dƣới dạng: ⃗⃗ ⃗ Nếu A là ma trận vuông, chúng ta có thể tính toán đƣợc nhƣ sau: ⃗ ⃗ ⃗ ⃗ ⃗ ⃗ ⃗ ⃗ Nếu A không phải là ma trận vuông, thì ta không tính đƣợc nhiên, phƣơng pháp pseudoinverse có thể thực hiện đƣợc. Hệ phƣơng trình này là: ⃗ Viết dƣới dạng ma trận, ta có: 21 ⃗ ; Tuy [ ][ ] [ [ Nếu [ ] ] [ ] ] , tức là số hàng số cột, hay số hàng số biến. Khi đó, hệ thống đƣợc gọi là hệ có số phƣơng trình nhiều hơn số ẩn “overdetermined”. Có nhiều giải pháp để giải quyết vấn đề. Một trong những giải pháp hiệu quả là sử dụng phƣơng pháp PseudoinverseMoore-Penrose. Nhƣng , trừ khi ma trận A có thể nghịch đảo. Vì vậy, ta tiến hành giải nhƣ sau: ⃗ ⃗ ⃗ trong đó, ⃗ ⃗ ⃗ ⃗ ⃗ ⃗ ⃗ đƣợc tính là: Vì vậy: Ví dụ: Giải hệ phương trình gồm 3 phương trình tuyến tính. 22 Viết lại hệ phƣơng trình dƣới dạng ma trận, ta có: ][ ] ⏟ [ ⏟ [ ] ⏟ ⃗ ⃗ Tìm pseudoinversecủa ma trận A. [ ] Kiểm tra [ ][ [ ] ] Sử dụng phƣơng pháp Pseudoinverse, tính gần đúng phƣơng trình: ⃗ ⃗⃗⃗⃗ ⃗ ⃗ ⃗ [ ] [ ][ [ ] kiểm tra kết quả và ⃗ [ ] thu đƣợc. Vậy kết quả của hệ phƣơng trình đã cho là: 23 ] [ ] [ ] Ta chú ý rằng, phƣơng pháp Moore-Penrose Pseudoinverse giải quyết các bài toán về mặt lỗi bình phƣơng tối thiểu (Least Squared Error). Nói chung, không có giải pháp chính xác cho các bài toán có số phƣơng trình nhiều hơn ẩn số “overdetermined system”. Dƣới đây là đồ thị mô tả 3 phƣơng trình của hệ và giải pháp MoorePenrosePseudoinverse. Hình 2.1: Đồ thị mô tả 3 phương trình của hệ 2.2. Phƣơng pháp Tikhonov regulazation 2.2.1. Khái niệm Chuẩn tắc Tikhonov, đƣợc đặt tên bởi Andrey Tikhonov, là phƣơng pháp đƣợc sử dụng phổ biến nhất của chuẩn tắc cho bài toán giả định sai. Trong thống kê, phƣơng pháp này đƣợc gọi là ridge regression. Chúng ta xem xét bài toán giả định sai, có dạng nhƣ sau: , 24 Giải pháp chuẩn (đƣợc gọi là bình phƣơng nhỏ nhất) dẫn đến hệ thống overdetermined, hoặc thông thƣờng là hệ thống underdetermined. Bài toán bình phƣơng nhỏ nhất thông thƣờng tìm cách tối thiểu tổng của các thặng dƣ bình phƣơng, nó đƣợc biểu diễn nhƣ sau: ‖ ‖ Trong đó, ‖ ‖ là chuẩn Ơclit. Để ƣu tiên cho một giải pháp đặc biệt với các tính chất mong muốn, vấn đề chuẩn tắc bao gồm cả việc tối thiểu hóa biểu thức sau: ‖ ‖ ‖ ‖ Đối với việc lựa chọn phù hợp ma trận Tikhonov . Trong nhiều trƣờng hợp này, ma trận này đƣợc lựa chọn là bội số của ma trận đơn vị , để ƣu tiên cho giải pháp với chuẩn nhỏ hơn. Trong các trƣờng hợp khác, toán tử thông thấp (lowpass) (tức là, toán tử sai khác hoặc toán tử Fourier trọng số) có thể đƣợc sử dụng để thực thi tính mƣợt. Chuẩn tắc này cải thiện điều kiện bài toán, vì vậy cho phép giải pháp tính số trực tiếp. Một giải pháp tƣờng minh, ký hiệu là ̂, đƣợc tính bởi: ̂ ( ) Ảnh hƣởng của chuẩn tắc có thể đƣợc thay đổi thông qua tỉ lệ của ma trận . Đối với , vấn đề này làm giảm giải pháp bình phƣơng nhỏ nhất không chuẩn tắc với điều kiện tồn tại. 2.2.2. Chuẩn tắc Tikhonov tổng quát Đối với sự phân bố đa biến thông thƣờng tổng quát của và sai số dữ liệu, ta có thể áp dụng một phép biến đổi của các biến để giảm đối với trƣờng hợp trên. Một cách tƣơng đƣơng, ngƣời ta có thể tìm ‖ ‖ ‖ 25 ‖ để tối thiểu: Trong đó, ta đã sử dụng ‖ ‖ thay cho chuẩn có trọng số sự giải thích của Bayesian, là giá trị kỳ vọng của , và . Theo là ma trận hiệp phƣơng sai nghịch đảo của b, là ma trận hiệp phƣơng sai nghịch đảo của . Sau đó, ma trận Tikhonov đƣợc đƣa ra nhƣ một nhân tử của ma trận (tức là nhân tử Cholesky), và đƣợc coi là bộ lọc làm trắng (whitening filter). Bài toán tổng quát này có một giải pháp tối ƣu , nó có thể đƣợc giải một cách rõ ràng bằng cách sử dụng công thức: hoặc tƣơng đƣơng 2.2.3. Liên quan đến phân tích giá trị đơn (SVD) và bộ lọc Wiener. Với , giải pháp bình phƣơng tối thiểu có thể đƣợc phân tích theo một cách đặc biệt dựa vào sự phân tích giá trị đơn (SVD). Cho sự phân tích giá trị đơn của A với các giá trị đơn , giải pháp chuẩn tắc Tikhonov đƣợc biểu diễn bằng: ̂ trong đó D có giá trị chéo và bên ngoài đƣờng chéo thì các giá trị bằng 0. Điều này chứng minh ảnh hƣởng của tham số Tikhonov vào số điều kiện của bài toán chuẩn tắc. Trong trƣờng hợp tổng quát, một đại diện tƣơng tự có thể đƣợc suy luận bằng cách sử dụng phƣơng pháp phân tích giá trị đơn tổng quát. Cuối cùng, nó liên quan đến bộ lọc Wiener: 26 ̂ ∑ trong đó các trọng số Wiener là và là hạng của . 2.2.4. Xác định hệ số Tikhonov Tham số chuẩn tắc tối ƣu , luôn chƣa biết và thƣờng xuất hiện trong bài toán thực tế, đƣợc xác định bằng phƣơng pháp ad-hoc. Một giải pháp có thể dựa vào giải thích Bayesian đƣợc trình bày dƣới đây. Các giải pháp khác bao gồm discrepancy principle, cross-validation, L-curve method, restricted maximum likelihood và unbiased predictive risk estimator. Grace Wahba đã chứng minh rằng tham số tối ƣu, theo ý nghĩa của leave-one-out crossvalidation tối ƣu: ‖ ̂ ‖ [ ] Trong đó RSS là tổng thặng dƣ bình phƣơng và là số bậc tự do hiệu quả. Sử dụng phƣơng pháp SVD trƣớc đó, chúng ta có thể đơn giản hóa các biểu thức trên: ‖ ∑ ‖ ‖∑ ‖ ‖∑ ‖ Và ∑ ∑ 27 2.3. Phƣơng pháp L1 regularation Chúng ta xét một mô hình tuyến tính có dạng , Trong đó là vector của các ẩn số, là nhiễu, và Khi là vector quan sát, là ma trận dữ liệu. và các cột của A độc lập tuyến tính, chúng ta có thể xác định x bằng cách giải bài toán bình phƣơng nhỏ nhất, bởi việc tối thiểu ‖ ‖ , trong đó ‖ ‖ (∑ ) là chuẩn của u. Khi số quan sát m không đủ lớn so với n, hồi qui bình phƣơng nhỏ nhất đơn giản dẫn đến hiện tƣợng over-fit. 2.3.1. -Regularized Least squares Một kỹ thuật chuẩn đƣợc dùng để ngăn chặn hiện tƣợng over-fitting là hoặc chuẩn tắc Tikhonov [2.1], nó đƣợc biểu diễn nhƣ sau: ‖ ‖ ‖ ‖ (2.1) Trong đó λ> 0 là tham số chuẩn tắc. Bài toán chuẩn tắc Tikhonov hoặc bài toán bình phƣơng nhỏ nhất chuẩn tắc có giải pháp phân tích (2.2) Một số tính chất cơ bản của chuẩn tắc Tikhonov đƣợc liệt kê dƣới đây: • Độ tuyến tính. Từ (2.2), chúng ta thấy rằng, giải pháp đối với bài toán chuẩn tắc Tikhonov là một hàm tuyến tính của y. • Hạn chế hoạt động khi λ → 0. Khi λ → 0, Moore-Penrose , trong đó Điểm giới hạn có chuẩn hội tụ đến giải pháp là pseudoinverse Moore-Penrose của A. tối thiểu trong tất cả các điểm mà nó thỏa mãn ‖ ‖ 28 • Hội tụ đến không khi λ → ∞. Giải pháp tối ƣu có xu hƣớng tiến đến không khi λ → ∞. • Đƣờng chuẩn tắc. Giải pháp tối ƣu là một hàm mƣợt (smooth function) của tham số chuẩn tắc λ, khi nó thay đổi trong khoảng [0, ∞). Khi λ giảm tới không, hội tụ đến giải pháp Moore-Penrose; khi λ tăng, hội tụ đến không. Giải pháp cho bài toán chuẩn tắc Tikhonov có thể đƣợc tính bằng phƣơng pháp trực tiếp, nó yêu cầu flops (giả sử m cùng bậc với n hoặc nhỏ hơn). Giải pháp cũng có thể đƣợc tính bằng phƣơng pháp lặp (không trực tiếp) (ví dụ, phƣơng pháp gradient liên hợp – conjugate gradient method) đối với hệ phƣơng trình tuyến tính . Phƣơng pháp lặp đặc biệt hiệu quả khi có những thuật toán nhanh cho phép nhân ma trận – vectơ với ma trận dữ liệu và ma trận chuyển vị (tức là, và và với ), đó là trƣờng hợp khi A thƣa hoặc có dạng đặc biệt nhƣ ma trận Fourier và wavelet. 2.3.2. -Regularized Least Squares Trong bài toán bình phƣơng nhỏ nhất chuẩn tắc , chúng ta thay thế tổng các giá trị tuyệt đối cho tổng bình phƣơng đƣợc sử dụng trong chuẩn tắc Tikhonov, để có đƣợc: ‖ Trong đó ‖ ‖ ∑ | ‖ biểu thị chuẩn ‖ ‖ (2.3) của x, và λ là tham số chuẩn tắc. Ta gọi (2.3) là một LSP chuẩn . Bài toán này luôn luôn có một giải pháp, nhƣng nó không cần phải là duy nhất. Một số tính chất cơ bản của chuẩn tắc tƣơng đồng và khác biệt so với chuẩn tắc 29 . đƣợc liệt kê ở đây, chỉ ra điểm • Tính phi tuyến. Từ (2.2), chúng ta thấy rằng, trong chuẩn tắc Tikhonov, vector x là một hàm tuyến tính của vector quan sát y. Ngƣợc lại, trong chuẩn tắc , vector x không phải là tuyến tính với y. • Hạn chế hoạt động khi λ → 0. Chuẩn tắc khác biệt với chuẩn tắc chỉ ra hạn chế hoạt động khi λ → 0. Giải pháp cho chuẩn tắc đến điểm trong tất cả các điểm thỏa mãn (2.3) hội tụ khi λ → 0. • Sự hội tụ hữu hạn đến không khi λ → ∞. Nhƣ trong chuẩn tắc Tikhonov, giải pháp tối ƣu có xu hƣớng tiến đến không khi λ → ∞. Tuy nhiên, với chuẩn tắc , sự hội tụ xảy ra cho một giá trị hữu hạn của λ: ‖ Trong đó ‖ ‖ | ‖ (2.4) ký hiệu chuẩn của vector . Đối với , giải pháp tối ƣu là 0. Ngƣợc lại, giải pháp tối ƣu cho bài toán Tikhonov bằng không chỉ trong giới hạn khi • Đƣờng chuẩn tắc. Giải pháp . của bài toán Tikhonov thay đổi mƣợt khi tham số chuẩn tắc thay đổi trong khoảng [0, ∞). Ngƣợc lại, đƣờng chuẩn tắc của (2.3), tức là, họ các giải pháp khi thay đổi trên (0, ∞), có tính chất đƣờng giải pháp tuyến tính từng khúc [2.2]: Có các giá trị , với , đƣờng chuẩn tắc là đƣờng cong tuyến tính từng khúc trên Trong đó khi giải bài toán . (Vì vậy, và ). Quan trọng hơn, chuẩn tắc tức là (2.3) với đặc biệt thực hiện đƣợc với vector có tƣơng đối ít các hệ số khác không. (Khi 30 thƣa, giảm, nó có xu hƣớng thƣa hơn, nhƣng điều này không cần thiết thiết [2.3], [2.4].) Ngƣợc lại, chuẩn tắc của bài toán Tikhonov có tất cả các hệ số khác không. Gần đây, ý tƣởng của chuẩn tắc nhận đƣợc rất nhiều sự quan tâm trong lĩnh vực xử lý tín hiệu và thống kê. Trong lĩnh vực xử lí tín hiệu, ý tƣởng của chuẩn tắc xuất hiện trong một vài bối cảnh, bao gồm Basis pursuit denoising [2.5] và phƣơng pháp khôi phục tín hiệu từ các phép đo không hoàn thiện (ví dụ, [2.6], [2.7], [2.8], [2.9], [2.10], [2.11], [2.12]). Trong thống kê, ý tƣởng của chuẩn tắc đƣợc sử dụng trong thuật toán nổi tiếng Lasso [2.4] để lựa chọn tính chất và mở rộng của nó, bao gồm elastic net [2.13]. Một trong những bài toán này không có dạng chuẩn (2.3) nhƣng nó có một biểu diễn tổng quát hơn: ‖ trong đó ‖ là tham số chuẩn tắc (biến ∑ | | (2.5) tƣơng ứng với là không đƣợc chuẩn tắc). Bây giờ, chúng ta xem xét khía cạnh tính toán của chuẩn tắc . Không có một công thức phân tích hoặc biểu diễn nào cho bài toán tối ƣu đối với chuẩn tắc (2.3), tƣơng tự (2.2); giải pháp của nó phải đƣợc tính số. Hàm mục tiêu trong toán (2.3) là lồi nhƣng không khả vi, do đó, giải quyết bài là một thách thức tính toán hơn là giải quyết bài toán (2.1). Phƣơng pháp tổng quát cho bài toán lồi không khả vi, chẳng hạn phƣơng pháp ellipsoid hay phƣơng pháp subgradient [2.14], [2.15], có thể đƣợc sử dụng để giải quyết bài toán (2.3). Các giải pháp này thƣờng rất chậm. Chuẩn tắc (2.3) có thể đƣợc chuyển thành bài toán toàn phƣơng lồi (Convex quadratic problem), với những hạn chế không cân bằng tuyến tính. 31 Bài toán toàn phƣơng (QP) tƣơng ứng có thể đƣợc giải bằng phƣơng pháp tối ƣu lồi chuẩn, nhƣ phƣơng pháp điểm nội (interior-point method) [2.16], [2.17], [2.18], [2.19]. Phƣơng pháp điểm nội chuẩn đƣợc thực hiện theo giải pháp chung phổ quát, bao gồm MOSEK [2.20], nó có thể sẵn sàng thực thi với bài toán có kích thƣớc vừa và nhỏ. Các phƣơng pháp chuẩn không thể thực thi các bài toán lớn, trong đó có thuật toán nhanh cho toán tử ma trậnvector với A và Phƣơng pháp điểm nội chuyên biệt, khai thác các thuật toán nhƣ vậy, có thể mở rộng cho các bài toán lớn, nhƣ đƣợc chứng minh ở [2.5], [2.21]. Việc thực thi chất lƣợng cao của phƣơng pháp điểm nội chuyên biệt, bao gồm ll-magic [2.22] và PDC0 [2.23], chúng sử dụng thuật toán lặp, chẳng hạn nhƣ conjugate gradient (CG) hoặc thuật toán LSQR [2.24], để tính toán các bƣớc tìm kiếm. Gần đây, một số nhà nghiên cứu đã đề xuất phƣơng pháp homotopy và các biến thể để giải quyết bài toán [2.25], [2.26], [2.2], [2.27], [2.28]. Sử dụng thuộc tính tuyến tính từng khúc của đƣờng chuẩn tắc, phƣơng pháp theo đƣờng (path-following method) có thể tính toán hiệu quả toàn bộ đƣờng giải pháp trong bài toán . Khi giải pháp (13) rất thƣa, giải pháp này có thể rất nhanh, vì số lƣợng các nút mà phƣơng pháp cần để tìm là vừa phải [2.25]. Mặt khác, phƣơng pháp theo đƣờng có thể chậm, nó thƣờng sử dụng trong bài toán quy mô lớn. Các phƣơng pháp tính toán khác đƣợc phát triển gần đây cho bài toán , bao gồm coordinate-wise descent method [2.29], một phƣơng pháp cố định điểm tiếp [2.30], Bregman phƣơng pháp dựa trên quy tắc lặp đi lặp lại [2.31], [2.32], phƣơng pháp tối ƣu không gian con tuần tự (sequential subspace optimization method) [2.33], phƣơng pháp tối ƣu đƣờng bao (bound optimization method) [2.34], phƣơng pháp co lặp (iterated shrinkage method) [2.35], [2.36], phƣơng pháp gradient [2.37], và thuật toán chiếu gradient 32 (gradient projection algorithm) [2.38]. Một số trong các phƣơng pháp này,bao gồm cả thuật toán chiếu gradient [2.38] có thể xử lý hiệu quả bài toán lớn. 33 Chƣơng 3: Mô phỏng và kết quả 3.1. Mô hình phƣơng pháp lặp vi phân Born (DBIM). Phƣơng trình sóng trong môi trƣờng không đồng nhất chứa đối tƣợng 𝑂 Sử dụng phƣơng pháp xấp xỉ Born để tìm mối quan hệ tuyến tính giữa 𝛥𝑝 𝑠𝑐 và 𝛥𝑂 Sử dụng hàm Green tìm phƣơng trình liên tục tính 𝑝 𝑠𝑐 Rời rạc phƣơng trình sóng, sử dụng phƣơng pháp moment (MoM) Sử dụng phƣơng pháp Tikhonov để tìm 𝛥𝑂 Tính đƣợc áp suất tại các điểm bên trong và bên ngoài (tán xạ) đối tƣợng là 𝑝, 𝑝 𝑠𝑐 Sử dụng phƣơng pháp lặp để tìm đối tƣợng 𝑂 Tính ma trận B, C 3.2. Chi tiết tính toán phƣơng pháp lặp vi phân Born (DBIM). Đối tƣợng cần khảo sát chính là vật thể hình trụ tròn O(r) có kích thƣớc rất nhỏ (môi trƣờng B1) nằm trong môi trƣờng B2 (tƣơng ứng nhƣ khối u ở trong môi trƣờng nào đó). Mục tiêu của chúng ta là dựng đƣợc ảnh của vật thể trụ tròn, đó chính là vùng cần quan tâm ROI (Region Of Interest). Vùng diện tích quan tâm này đƣợc chia thành N×N ô vuông (mỗi ô vuông gọi là một pixel) có kích thƣớc là h. Số lƣợng máy phát là Nt và máy thu là Nr. Theo lí thuyết về sóng âm, hàm mục tiêu O(r) (vật thể hình trụ tròn) đƣợc tính bởi công thức: 34 Receivers h Meshing area Transmitter Hình 3.1. Cấu hình hệ đo    ω2  1 - 1  if   c2 c2  Οr =   1 0    0 if r > R Với và r R (3.1) là tốc độ truyền sóng trong đối tƣợng và tốc độ truyền trong nƣớc, f là tần số sóng siêu âm, là tần số góc ( là bán kính của đ i tư ng. Sử dụng sơ đồ cấu hình hệ đo nhƣ trong hình 3.1, bằng cách sử dụng DBIM để tái tạo lại độ tƣơng phản âm thanh tán xạ để xác định khối u trong môi trƣờng. Giả sử có một không gian vô hạn chứa môi trƣờng đồng nhất chẳng hạn là nƣớc, số sóng là . Trong môi trƣờng đó có vật với số sóng là phụ thuộc vào không gian trong vật. Phƣơng trình truyền sóng của hệ thống có thể đƣợc cho nhƣ phƣơng trình (3.2). ( ) (3.2) Viết lại dƣới dạng tích phân ta có: (3.3) ∬  ⃗⃗⃗ ⃗⃗⃗  |⃗ ⃗⃗⃗| ⃗⃗⃗ (3.4) Ở đó p sc r  là sóng tán xạ, p inc r  là sóng tới và G(.) là hàm Green. 35 Hàm mục tiêu cần đƣợc khôi phục từ dữ liệu tán xạ đƣợc xác định bởi: ⃗ ⃗ (3.5) Bằng phƣơng pháp moment (MoM) áp suất của các điểm bên trong đối tƣợng có thể đƣợc tính nhƣ sau: ̅ ( ̅ ̅ ) (3.6) Áp suất của các điểm bên ngoài đối tƣợng (áp suất tán xạ) là: ̅ Hai biến chƣa biết là ̅ và (3.7) trong công thức (3.6) và (3.7), trong trƣờng hợp này áp dụng xấp xỉ Born loại 1 với phƣơng trình (3.4) và theo (3.6), (3.7) ta có: ̅ ̅ Với ̅ ̅ ; Ở đó các pixel tới máy thu, C là ma trận B (3.8) ứng với hệ số G0(r,r‟) từ là ma trận ứng với hệ số G0(r,r‟) giữa các pixel, I là ma trận đơn vị, và D(.) là toán tử chéo hóa. Với mỗi bộ phát và bộ thu, chúng ta có một ma trận ̅ và một giá trị vô hƣớng . Thấy rằng vector chƣa biết có giá trị bằng với số pixel của RIO. Hàm mục tiêu (Object function) có thể đƣợc tính bằng cách lặp: (3.9) Với trƣớc đó. và là giá trị của hàm mục tiêu ở bƣớc hiện tại và bƣớc có thể đƣợc tìm bằng quy tắc Tikhonov: ‖ Trong đó ̅ là ( ̅ ‖ ‖ (3.10) vector chứa giá trị sai khác gi a kết quả đo và kết quả tiên đoán tín hiệu siêu đư c tạo b i ‖ phép đo. 36 m tán ạ là ma trận 3.3. Các phƣơng pháp toán học khôi phục ảnh và chƣơng trình mô phỏng. Phƣơng pháp Công thức ‖ Moo-PenPenrose Psedoinverse ‖ Tikhonov regularization ‖ ‖ ‖ ‖ L1 regularization ‖ ‖ ‖ ‖ Các vấn đề tính toán: - Moo-PenPenrose Psedoinverse: - Tikhonov regularization: - L1 regularization: ⁄ 3.4. Chƣơng trình code của các thuật toán. 3.4.1. Chƣơng trình code của phƣơng pháp Moo-PenPenrose Psedoinverse %======Khôi phục dữ liệu sử dụng phƣơng pháp "Moore-Penrose inverse"========= Ý nghĩa Code SC1: Ma trận tán xạ SC1 = pinv(Mt)*p_sc_t; Mt: Ma trận M trong DBIM p_sc_t: Áp suất tán xạ SC1 = reshape(SC1,N,N); figure; surf(X,Y,abs(SC1)); Chuyển ma trận SC1 thành ma trận vuông NxN. Vẽ hình 3D độ lớn ma trận SC1 37 3.4.2. Chƣơng trình code của phƣơng pháp Tikhonov regularization 1. Chương trình khôi phục chính. Ý nghĩa Code Lỗi nền, RRE càng nhỏ, chất lƣợng RRE = 2^(-5); càng tốt gama = .5*(5.9303e-008)^2*1e-4; Tham số chuẩn tắc Tikhonov, càng nhỏ, càng chậm delta_sound = test_NCG(Mt,delta_sc_t,1e3,RRE,g ama); SC2 = SC1+reshape(delta_sound,N,N); Hàm khôi phục “test_NCG” Cập nhật sự tƣơng phản âm thanh 2. Chương trình con “test_NCG”. function[delta_sound]=test_NCG(Mt,delta_sc_t,ni,RRE,gama) 3.4.3. Chƣơng trình code của phƣơng pháp L1 regularization 1. Chương trình khôi phục chính. Code lambda = 1e-15; rel_tol =RRE; AA=[real(Mt) – imag(Mt);imag(Mt) real(Mt);]; yy=[real(delta_sc_t);imag(delta_sc_t)]; [xx,status]=l1_ls(AA,yy,lambda,rel_tol); delta_sound=xx(1:length(xx)/2)+j*xx(1+length(xx)/2:end); SC1=SC1+reshape(delta_sound,N,N); 2. Chương trình con “l1_ls”. 38 l1_ls(AA,yy,lambda,rel_tol); 3.5 . Kết quả mô phỏng. Tham số mô phỏng: Tần số 1MHz, N = 21, Nsum = 8. Đƣờng kính đối tƣợng 7.3mm, Độ tƣơng phản âm 7%, Nhiễu Gaussian 10%, Khoảng cách máy phát , máy thu đến tâm = 100mm. Ideal object function percent of the sound contrast 30 25 20 15 10 5 0 2 1 2 1 0 0 -1  -1 -2 -2  Hình 3.2: Hàm mục tiêu lí tư ng Hình 3.2 là hàm mục tiêu lí tƣởng trong kịch bản mô phỏng (N = 21) (trong thực tế, nó chính là khối u lạ trong môi trƣờng đồng nhất). Mục tiêu của chúng ta là khôi phục đƣợc đối tƣợng trên, sử dụng các mô hình, các kĩ thuật xử lí tín hiệu để khôi phục đƣợc ảnh với chất lƣợng tốt nhất và thời gian khôi phục nhanh nhất. 3.5.1. Mô phỏng sử dụng phƣơng pháp Tikhonov. Thay đổi số MP, Lỗi chuẩn hóa từ vòng lặp 1 đến vòng lặp 8 MT Thời gian NP = NT = 8 0.9490 0.9427 0.9424 0.9424 0.9424 0.9424 0.9424 0.9424 61.846577 NP = NT = 10 0.6207 0.5179 0.4872 0.4707 0.4600 0.4524 0.4470 0.4431 87.693626 NP = NT = 12 0.8259 0.7999 0.7943 0.7925 0.7916 0.7912 0.7911 0.7911 94.968234 NP = NT = 14 0.8000 0.7464 0.7145 0.7111 0.7087 0.7070 130.845553 0.7281 0.7195 39 NP = NT = 16 0.4290 0.2691 0.2382 0.2320 0.2302 0.2294 0.2291 0.2290 130.258239 NP = NT = 18 0.4017 0.2419 0.2081 0.1960 0.1900 0.1862 0.1834 0.1812 152.313615 NP = NT = 20 0.3548 0.2266 0.1822 0.1584 0.1449 0.1363 0.1302 0.1256 168.393346 NP = NT = 22 0.4038 0.1778 0.0949 0.0755 0.0668 0.0615 0.0576 0.0546 192.820992 NP = NT = 24 0.3179 0.1999 0.1457 0.1253 0.1125 0.1031 0.0959 0.0900 233.365111 NP = NT = 26 0.2677 0.0909 0.0425 0.0286 0.0220 0.0178 0.0150 0.0129 269.807922 NP = NT = 28 0.2545 0.1055 0.0401 0.0230 0.0161 0.0124 0.0101 0.0084 343.149005 NP = NT = 30 0.3551 0.1428 0.0667 0.0438 0.0318 0.0244 0.0194 0.0158 385.055147 Nhận xét: + Khi tăng số máy phát, máy thu thì lỗi chuẩn hóa giảm, nhƣng thời gian tạo ảnh tăng. + Số máy phát, máy thu NP = NT = 28 cho lỗi nhỏ nhất là 0.0084. 3.5.2. Mô phỏng sử dụng phƣơng pháp L1 (N2 = 484). Thay đổi số MP, MT Lỗi chuẩn hóa từ vòng lặp 1 đến vòng lặp 8 Thời gian NP = NT = 8 (NpNt = 64) 1.2559 1.2624 1.2624 1.2623 1.2623 1.2623 1.2623 1.2623 121.439561 NP = NT = 10 (NpNt = 100) 1.1440 1.1354 1.1353 1.1353 1.1353 1.1353 1.1353 1.1353 122.498515 NP = NT = 12 (NpNt = 144) 1.0836 1.0787 1.0786 1.0786 1.0786 1.0786 1.0786 1.0786 258.668851 NP = NT = 14 (NpNt = 196) 0.9686 0.9690 0.9681 0.9681 0.9681 0.9681 0.9681 0.9681 298.946565 NP = NT = 16 (NpNt = 256) 0.7962 0.7972 0.7978 0.7977 0.7977 0.7977 0.7977 0.7977 413.842807 NP = NT = 18 (NpNt = 324) 0.6470 0.6211 0.6221 0.6223 0.6223 0.6223 0.6223 0.6223 761.758941 NP = NT = 20 (NpNt = 400) 0.7664 0.6379 0.6375 0.6377 0.6376 0.6376 0.6376 0.6376 697.251724 NP = NT = 22 (NpNt = 484) 2.8511 0.7848 0.4247 0.3971 0.3946 0.3938 0.3934 0.3932 1124.067465 NP = NT = 24 (NpNt = 576) 0.5535 0.0570 0.0102 0.0080 0.0078 0.0077 0.0076 0.0075 474.090601 NP = NT = 26 (NpNt = 676) 0.3239 0.0450 0.0036 0.0017 0.0016 0.0016 0.0016 0.0016 424.798644 NP = NT = 28 (NpNt = 784) 0.8879 0.0157 0.0018 0.0014 0.0013 0.0013 0.0013 0.0013 445.144473 NP = NT = 30 (NpNt = 900) 0.1484 0.0180 0.0011 0.0005 0.0005 0.0005 0.0005 0.0005 562.230397 Thay đổi số MP, MT Lỗi chuẩn hóa từ vòng lặp 1 đến vòng lặp 8 Thời gian NP = NT = 16 (NpNt = 256) 0.7962 0.7972 0.7978 0.7977 0.7977 0.7977 0.7977 0.7977 413.842807 NP = 12; NT = 24 (NpNt = 288) 0.7493 0.7365 0.7364 648.272834 0.7364 0.7364 0.7364 0.7364 0.7364 40 NP = 24; NT = 12 (NpNt = 288) 0.8594 0.8364 0.8366 0.8366 0.8366 0.8366 0.8366 0.8366 469.800523 NP = NT = 22 (NpNt = 484) 2.8511 0.7848 0.4247 0.3971 0.3946 0.3938 0.3934 0.3932 1124.067465 NP = 30; NT = 16 (NpNt = 484) 2.7425 0.6821 0.4455 0.4191 0.4155 0.4148 0.4144 0.4141 1530.689987 NP = 16; NT = 30 (NpNt = 484) 2.5267 0.7306 0.5479 0.5372 0.5357 0.5351 0.5349 0.5342 1876.443748 NP = NT = 26 (NpNt = 676) 0.3239 0.0450 0.0036 0.0017 0.0016 0.0016 0.0016 0.0016 424.798644 NP = 21; NT = 32 (NpNt = 676) 0.5951 0.0462 0.0096 0.0079 0.0077 0.0076 0.0075 0.0074 676.611183 NP = 32; NT = 21 (NpNt = 676) 0.2649 0.0320 0.0025 0.0014 0.0013 0.0012 0.0012 0.0012 492.551895 Nhận xét: + Khi tăng số máy phát, máy thu thì lỗi chuẩn hóa giảm, nhƣng thời gian tạo ảnh tăng. + Đặc biệt với phƣơng pháp L1, số máy phát, máy thu nhỏ nhƣng vẫn khôi phục ảnh thành công. Trong khi đó, phƣơng pháp Tikhonov lại không thể. Vậy thì với phƣơng pháp L1, thì số máy phát, máy thu nhỏ nhất bằng 8 mà vẫn khôi phục ảnh thành công. + Khi sử dụng phƣơng pháp L1 thì số máy phát và máy thu bằng nhau cho kết quả khôi phục tốt (Np = Nt). 3.5.3. Đánh giá kết quả sử dụng phƣơng pháp Tikhonov và phƣơng pháp L1. Thay đổi số Lỗi chuẩn hóa từ vòng lặp 1 đến vòng lặp 8 MP, MT NP = NT = 8 NP = NT = 10 NP = NT = 12 NP = NT = 14 NP = NT = 16 Thời gian Tikhonov 0.9490 0.9427 0.9424 0.9424 0.9424 0.9424 0.9424 0.9424 61.846577 L1 1.2559 1.2624 1.2624 1.2623 1.2623 1.2623 1.2623 1.2623 121.439561 % Sai lệch 24.44% 25.32% 25.34% 25.34% 25.34% 25.34% 25.34% 25.34% Tikhonov 0.6207 0.5179 0.4872 0.4707 0.4600 0.4524 0.4470 0.4431 87.693626 L1 1.1440 1.1354 1.1353 1.1353 1.1353 1.1353 1.1353 1.1353 122.4985 15 49.10% % Sai lệch 45.74% 54.38% 57.08% 58.54% 59.48% 60.15% 60.62% 60.97% Tikhonov 0.8259 0.7999 0.7943 0.7925 0.7916 0.7912 0.7911 0.7911 94.968234 L1 1.0836 1.0787 1.0786 1.0786 1.0786 1.0786 1.0786 1.0786 258.668851 28.41% % Sai lệch 23.78% 25.84% 26.35% 26.52% 26.60% 26.64% 26.65% 26.65% Tikhonov 0.8000 0.7464 0.7281 0.7195 0.7145 0.7111 0.7087 0.7070 130.845553 L1 0.9686 0.9690 0.9681 0.9681 0.9681 0.9681 0.9681 298.946565 0.9681 63.28% % Sai lệch 17.4% 22.97% 24.79% 25.67% 26.19% 26.54% 26.79% 26.97% Tikhonov 0.4290 0.2691 0.2382 0.2320 0.2302 0.2294 0.2291 0.2290 130.258239 L1 0.7962 0.7972 0.7978 413.842807 0.7977 0.7977 0.7977 0.7977 0.7977 41 56.23% % Sai lệch 46.11% 66.24% 70.14% 70.91% 70.91% 71.24% 71.27% 71.29% Tikhonov 0.4017 0.2419 0.2081 0.1960 0.1900 0.1862 0.1834 0.1812 152.313615 0.6470 0.6211 0.6221 0.6223 0.6223 0.6223 0.6223 0.6223 761.758941 NP = NT = 18 L1 68.52% % Sai lệch 37.91% 61.05% 66.54% 68.50% 69.46% 70.07% 70.52% 70.88% Tikhonov 0.3548 0.2266 0.1822 0.1584 0.1449 0.1363 0.1302 0.1256 168.393346 L1 0.7664 0.6379 0.6375 0.6377 0.6376 0.6376 0.6376 0.6376 697.251724 NP = NT = 20 80% % Sai lệch 53.70% 64.47% 71.41% 75.16% 77.27% 78.62% 79.57% 80.3% Tikhonov 0.4038 0.1778 0.0949 0.0755 0.0668 0.0615 0.0576 0.0546 192.820992 L1 2.8511 0.7848 0.4247 0.3971 0.3946 0.3938 0.3934 0.3932 1124.067465 NP = NT = 22 75.84% % Sai lệch 85.83% 77.34% 77.65% 80.98% 83.07% 84.38% 85.35% 86.11% Tikhonov 0.3179 0.1999 0.1457 0.1253 0.1125 0.1031 0.0959 0.0900 233.365111 L1 0.5535 0.0570 0.0102 0.0080 0.0078 0.0077 0.0076 0.0075 474.090601 NP = NT = 24 82.84% % Sai lệch 42.56% 71.48% 92.99% 93.61% 93.06% 92.53% 92.07% 91.66% Tikhonov 0.2677 0.0909 0.0425 0.0286 0.0220 0.0178 0.0150 0.0129 269.807922 L1 0.3239 0.0450 0.0036 0.0017 0.0016 0.0016 0.0016 0.0016 424.798644 NP = NT = 26 50.77%S % Sai lệch 17.35% 50.49% 91.52% 94.05% 92.72% 91.01% 89.33% 87.59% Tikhonov 0.2545 0.1055 0.0401 0.0230 0.0161 0.0124 0.0101 0.0084 343.149005 L1 0.8879 0.0157 0.0018 0.0014 0.0013 0.0013 0.0013 445.144473 NP = NT = 28 36.48% 0.0013 % Sai lệch 71.33% 85.11% 95.51% 93.91% 91.92% 89.51% 87.12% 84.52% Tikhonov 0.3551 0.1428 0.0667 0.0438 0.0318 0.0244 0.0194 0.0158 385.055147 L1 0.1484 0.0180 0.0011 562.230397 NP = NT = 30 % Sai lệch 22.91% 0.0005 0.0005 0.0005 0.0005 0.0005 58.2% 87.39% 98.35% 98.85% 98.42% 97.95% 97.42% 96.83% 31.51% 3.6. Kết quả mô phỏng sử dụng phƣơng pháp Tikhonov regularization. ……….P P. NP = NT = 8 NP = NT = 10 NP = NT = 12 NP = NT = 14 Nsum 25 14 26 25 8 6 4 22 20 18 16 20 § é t- ¬ng ph¶n ©m (%) 10 24 § é t- ¬ng ph¶n ©m (%) m (%) § é t- ¬ng ph¶n © 1 m (%) § é t- ¬ng ph¶n © 12 15 10 5 2 20 15 10 5 14 22 22 20 18 16 14 12 10 8 6 4 2 6 4 2  14 12 10 8 16 20 18 20 18 22 16 14 12 10 8 6 4 2 2 4 6 12 14 16 18 20 20 20 15 20 15 15 10 10 5 5   15 10 10 5   10 8 20 22 5    30 16 30 25 10 8 6 4 § é t- ¬ng ph¶n ©m (%) m (%) § é t- ¬ng ph¶n © m (%) § é t- ¬ng ph¶n © 2 12 25 20 15 § é t- ¬ng ph¶n ©m (%) 25 14 20 15 10 2 5 15 10 5 10 22 20 20 18 16 14 12 10 8 6  4 2 2 4 6 10 8 12 14 16 18 20 22 22 20 18 20 16 14 12 10 8 6   4 2 2 4 6 10 8 12 14 16 18 20 20 22 20 15 20 15 15 10 15 10 10 5   42 10 5 5   5  30 30 16 12 m (%) § é t- ¬ng ph¶n © 10 8 6 4 3 § é t- ¬ng ph¶n ©m (%) m (%) § é t- ¬ng ph¶n © 30 2 25 20 § é t- ¬ng ph¶n ©m (%) 25 14 20 15 10 15 5 25 20 15 10 5 10 22 20 18 16 14 12 10 8 6 4 2 4 2 8 6 22 22 20 18 16 14 12 10 20 15 20 18 16 14 12 10 8 6  20 20 4  2 2 4 6 10 8  12 14 16 18 22 20 20 15 15 10 15 10 10 10 5 5 5  5     30 16 30 30 10 8 6 4 25 20 15 20 15 10 5 10 2 22 § é t- ¬ng ph¶n ©m (%) m (%) § é t- ¬ng ph¶n © m (%) § é t- ¬ng ph¶n © 4 12 22 16 14 12 10 8 6 4 2 6 4 2  20 18 16 14 12 10 8 18 22 16 14 12 10 8 6 4 2 2 4 6 12 14 16 18 20 20 15 10 20 22 20 20 15 20 15 15 10 10 5 5   15 10 10 5   10 8 25 5 20 20 18 § é t- ¬ng ph¶n ©m (%) 25 14 5    30 16 30 30 10 8 6 4 § é t- ¬ng ph¶n ©m (%) m (%) § é t- ¬ng ph¶n © m (%) § é t- ¬ng ph¶n © 5 12 25 20 15 20 15 10 10 5 2 22 22 16 14 12 10 8 6 4 2 6 4 2  18 22 20 18 16 14 12 10 8 25 20 15 10 5 20 20 18 § é t- ¬ng ph¶n ©m (%) 25 14 16 14 12 10 8 6 4 2 2 4 6 12 14 16 18 20 20 20 15 20 15 15 10 15 10 10 5   10 8 20 22 5   10 5 5    35 30 16 30 8 6 4 25 20 15 20 15 10 10 2 22 5 22 20 18 16 14 12 10 8 6 4 2 6 4 2  18 16 14 12 10 8 6 4 2 2 4 6 8 12 14 16 18 20 20 15 10 20 20 22 20 15 20 15 15 10 10 5 5   15 10 10 5   10 25 5 20 22 20 18 16 14 12 10 8 § é t- ¬ng ph¶n ©m (%) 10 § é t- ¬ng ph¶n ©m (%) m (%) § é t- ¬ng ph¶n © m (%) § é t- ¬ng ph¶n © 6 12 30 25 14 5    35 30 16 30 30 10 8 6 4 25 20 15 10 25 20 15 10 5 2 22 22 20 18 16 14 12 10 8 6 4 2 2 4 6 10 8  12 14 16 18 20 18 22 20 § é t- ¬ng ph¶n ©m (%) 12 § é t- ¬ng ph¶n ©m (%). m (%) § é t- ¬ng ph¶n © 7 m (%) § é t- ¬ng ph¶n © 14 16 14 12 10 8 6 4 2 2 4 6 12 14 16 18 20 20 15 10 5 20 22 20 20 15 20 15 15 10 15 10 10 5   10 8 25 5   10 5 5    35 30 16 30 10 8 6 4 25 20 15 10 20 15 10 5 2 22 § é t- ¬ng ph¶n ©m (%) 12 § é t- ¬ng ph¶n ©m (%) m (%) § é t- ¬ng ph¶n © m (%) § é t- ¬ng ph¶n © 8 30 25 14 5 22 20 18 16 14 12 10 8 6  4 2 2 4 6 10 8  12 14 16 18 20 22 25 20 15 10 5 20 18 16 14 12 10 8 6  4 2 2 4 6 10 8 12 14 16 18 20 22 20 20 20 15 20 15 15 10 5   43 15 10 10 10 5 5   5  ……….P P. NP = NT = 16 NP = NT = 18 NP = NT = 20 NP = NT = 22 30 25 20 15 10 30 25 20 15 10 20 15 10 5 5 5 20 20 20 5 35 35 30 30 5 10   5 5 10 25 20 15 10 20 15 10 5 20 15 10 25 20 15 10 20 30 30 25 25 20 15 10 20 5 35 30 30 20 5   10 25 20 15 10 10 5  20 15 20 15 10 5 35 30 30 10 20 20 15 15 10 15 10 10 5 5   35 15 20 15 10 5  20 20 15 10 10 5 25 5 20 15 15 10  30 25 20 20 5  5 5 5 15 10 § é t- ¬ng ph¶n ©m (%) 15 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 4 20 20 15 5 30 25 10 10 5   35 15 15 10 10 5  20 20 15 15 10  5 20 15 15 5   20 10 5 5 5 20 15 15 10 5   5 5 20 15 10 § é t- ¬ng ph¶n ©m (%) 25 5 § é t- ¬ng ph¶n ©m (%) 30 § é t- ¬ng ph¶n ©m (%) 35 10 20 10 5   30 10 15 10 10 35 15 20 15 15 10 5  20 5 20 15 10 5 25 20 15 10 § é t- ¬ng ph¶n ©m (%) 15 20 20 3 20 5 5 5 30 25 § é t- ¬ng ph¶n ©m (%) 15  35 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 2 20 5   30 25 15 10 10 5   20 15 15 10 10 5  15 20 15 15 10 10 5 20 20 15 10 25 10 20 15 20 15 30 25 § é t- ¬ng ph¶n ©m (%) 35 30 § é t- ¬ng ph¶n ©m (%) 35 § é t- ¬ng ph¶n ©m (%) 1 § é t- ¬ng ph¶n ©m (%) Nsum   10 5 5 5    15 10 5 25 20 15 10 25 30 20 25 § é t- ¬ng ph¶n ©m (%) 20 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 5 § é t- ¬ng ph¶n ©m (%) 30 25 15 10 5 5 20 15 10 5 20 20 20 20 15 20 15 15 10 10 10 5 10 10  5 5  20 15 10 5 5  20 15 15 20 15 10   15 5  10 5 5 30 25 20 15 10 20 15 10 20 15 20 15 15 10  10 5  25 20 15 10 5 20 20 15 20 15 15 10 15 10 10 10 5  15 15 10 10 5 20 20 20 20 25 5 5 5  30 30 25 § é t- ¬ng ph¶n ©m (%) 35 30 § é t- ¬ng ph¶n ©m (%) 35 § é t- ¬ng ph¶n ©m (%) 6 § é t- ¬ng ph¶n ©m (%)  5 5   44 10 5 5   5  35 35 30 30 30 15 10 25 20 15 10 10 5 25 20 15 10 25 20 15 10 20 15 30 25 25 20 15 10 ……….P P. 20 NP = NT = 24 15 10 10 5 5   20 15 15 10 10 5 5  10 20 15 15 10 10 5 15 5 20 15  20 20 15 5   30 20 20 10 5 5 5 5 15 10 5   § é t- ¬ng ph¶n ©m (%) 30 § é t- ¬ng ph¶n ©m (%) 35 30 20 15 10 5 5   10 20 10 5 35 10 15 10 § é t- ¬ng ph¶n ©m (%) 5 15 20 15 15 10 10  20 5 20 15 10 25 20 15 20 15 § é t- ¬ng ph¶n ©m (%) 15 20 20 8 20 5 5 5 25 § é t- ¬ng ph¶n ©m (%) 20 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 7 § é t- ¬ng ph¶n ©m (%) 30 25   NP = NT = 26 10 5 5 5   NP = NT = 28  NP = NT = 30 Nsum 35 30 30 30 15 10 25 20 15 10 5 5 15 10 5 20 15 5 5 20 15 10 20 20 15 10 15 10 20 15 10 10 5 5   20 15 15 10 10 5 5  20 20 15 15 10 10 5 25 5 20 15  30 20 15 5   20 20 15 10 5 5 5 5 15 10 § é t- ¬ng ph¶n ©m (%) 25 § é t- ¬ng ph¶n ©m (%) 30 25 § é t- ¬ng ph¶n ©m (%) 30 25 10 20 15 5   30 10 20 10 5   15 10 15 10 10 20 15 20 15 15 10 5  20 5 20 15 10 5 25 20 15 10 § é t- ¬ng ph¶n ©m (%) 20 20 20 2 25 § é t- ¬ng ph¶n ©m (%) 20 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 1 § é t- ¬ng ph¶n ©m (%) 30 25   10 5 5 5   30 30 30 25 25 25  20 15 10 20 15 10 20 20 20 15 5 5  10  15 10 20 20 15 20 15 15 10 10 5 20 5 15 10 10  15 20 20 15 15 10 20 5 5 5 § é t- ¬ng ph¶n ©m (%) 25 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 3 § é t- ¬ng ph¶n ©m (%) 30 15 10 10 10 5 5   45 5 5   5  30 30 30 25 25 25 15 10 20 15 10 20 20 15 10 5 5 5 20 20 5 15 10 10 5 5   20 15 15 10 10 5  10 20 15 15 10 10 5 15 5 20 15 15 10 20 20 20 15 § é t- ¬ng ph¶n ©m (%) 20 § é t- ¬ng ph¶n ©m (%) 25 § é t- ¬ng ph¶n ©m (%) 4 § é t- ¬ng ph¶n ©m (%) 30 5   10 5 5   30 30 30 25 25 25  15 10 20 15 10 20 20 15 10 5 5 5 20 20 15 10 20 20 15 15 10 15 10 10 10 5 5   20 15 15 10 10 5 5  15 5 20 15 10 5 20 20 15 10 § é t- ¬ng ph¶n ©m (%) 20 § é t- ¬ng ph¶n ©m (%) 25 § é t- ¬ng ph¶n ©m (%) 5 § é t- ¬ng ph¶n ©m (%) 30   5 5 5   30 30 30 25 25 25  15 10 20 15 10 5 5 20 15 10 5 20 20 20 15 5 15 10 20 20 20 15 15 10 5 5 15 10 10 10 5 5   20 15 15 10 10 10  20 5 20 15 15 10 § é t- ¬ng ph¶n ©m (%) 20 § é t- ¬ng ph¶n ©m (%) 25 § é t- ¬ng ph¶n ©m (%) 6 § é t- ¬ng ph¶n ©m (%) 30 5   5 5   30 30 30 25 25 25  15 10 20 15 10 5 5 20 15 10 15 10 20 15 10 10 10 5 5   20 15 15 10 10 5 5  10 20 15 15 10 10 5 15 20 20 15 20 15 20 5 5 20 20 § é t- ¬ng ph¶n ©m (%) 20 § é t- ¬ng ph¶n ©m (%) 25 § é t- ¬ng ph¶n ©m (%) 7 § é t- ¬ng ph¶n ©m (%) 30 5   5 5   30 30 30 25 25 25  15 10 20 15 10 5 5 20 15  5  20 15 10 5 20 20 15 20 15 15 10 10 5  10 15 10 10 5 15 20 20 15 15 10 20 5 20 20 § é t- ¬ng ph¶n ©m (%) 20 § é t- ¬ng ph¶n ©m (%) 25 § é t- ¬ng ph¶n ©m (%) 8 § é t- ¬ng ph¶n ©m (%) 30 5   46 15 10 10 5 10 5 5   5  3.7. Kết quả mô phỏng sử dụng phƣơng pháp L1 regularization. ……….P P. NP = NT = 8 NP = NT = 10 NP = NT = 12 NP = NT = 14 Nsum 70 60 60 50 50 40 30 20 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 1 50 50 40 30 20 40 30 20 10 10 10 20 20 20 15 20 20 20 15 15 10 10 5 5   20 15 15 10 10 5 5  30 20 15 10 10 5 40 10 20 15 15 10 § é t- ¬ng ph¶n ©m (%) 60 60 5 5   70 10 5   60 60 50 50  40 30 20 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 2 50 50 40 30 20 40 30 20 10 10 10 20 20 5 70 10 5 5   15 10 10 5   20 15 15 10 10 5 5  20 20 15 15 10 10 5 30 10 20 15 15 10 40 20 20 20 15 § é t- ¬ng ph¶n ©m (%) 60 60 5   60 60 50 50  40 30 20 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 3 50 50 40 30 20 40 30 20 10 10 10 20 20 20 15 20 20 20 15 15 10 70 10 5 5   15 10 10 5 5   20 15 15 10 10 5 5  30 10 20 15 10 5 40 20 15 10 § é t- ¬ng ph¶n ©m (%) 60 60 5   60 60 50 50  40 30 20 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) p§ é t- ¬ng ph¶n ©m (%) 4 50 50 40 30 20 10 10 40 30 20 15 10 20 15 10 10 10 5 5   20 15 15 10 10 5 5  20 20 15 15 10 10 5 30 20 20 15 20 15 40 10 10 20 20 § é t- ¬ng ph¶n ©m (%) 60 60   70 5 5 5   60 60 50 50  40 30 20 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 5 50 50 40 30 20 20 20 20 15 5 5  20  30 20 20 20 15 20 15 15 10 10 5 40 10 15 10 10  30 20 20 15 15 10 40 10 10 10 § é t- ¬ng ph¶n ©m (%) 60 60 5   47 15 10 10 5 10 5 5   5  70 60 60 50 50 40 30 20 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 6 50 50 40 30 20 40 30 20 10 10 10 20 20 20 10 5 5   15 10 10 5 5   20 15 15 10 10 5 5  20 20 15 15 10 10 5 30 10 20 15 10 40 20 15 20 15 § é t- ¬ng ph¶n ©m (%) 60 60 5    60 70 60 50 60 40 30 20 50 40 30 20 10 10 § é t- ¬ng ph¶n ©m (%) 50 50 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 7 § é t- ¬ng ph¶n ©m (%) 60 40 30 40 30 20 10 20 10 20 20 20 15 20 20 15 15 10 5 5  10 20 15 5   15 10 10 5 20 15 20 15 10 10 5 15 10  70 5  10 5  5   60 60 50 50 40 30 20 50 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 8 50 40 30 20 40 30 20 10 10 10 § é t- ¬ng ph¶n ©m (%) 60 60 20 15 20 15 ……….P P. NP = NT = 16 15 10 10 5 5   20 15 15 10 10 5 5  20 20 15 15 10 10 5 20 20 15 10 30 10 20 20 40   NP = NT = 18 10 5 5 5   NP = NT = 20  NP = NT = 22 Nsum 70 45 50 30 30 20 10 60 35 30 25 20 15 10 25 20 15 10 20 20 15 20 15 5 20 5 10 5 5   10 35 30 25 20 15 10 45 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 20  50 40 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 2 5   30 45 30 15 10 50 40 20 15 10 5   50 20 15 10 10 5  30 20 15 15 10 10 5 40 20 15 10 50 10 5 5 20 § é t- ¬ng ph¶n ©m (%) 40 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 1 § é t- ¬ng ph¶n ©m (%) 40 25 20 15 10 40 35 30 25 20 15 10 5 5 5 20 20 20 20 15 20 15 15 10 5 5  5  20 15 15 10 10 10  20 20 15 15 10 5   48 15 10 10 5 10 5 5   5  50 40 30 45 30 20 10 § é t- ¬ng ph¶n ©m (%) 40 35 30 25 20 15 10 25 20 15 10 20 15 20 20   10 5   35 35 30 25 20 15 10 25 20 15 10 5 5 20 20 10 5 40 35 35 30 25 20 15 10 25 20 15 10 5 5 20 20 10 5 10 40 35 30 25 20 15 10 25 20 15 10 20 15 20 5 20 10 5 5   35 § é t- ¬ng ph¶n ©m (%) 35 30 25 20 15 10 25 20 15 10 5 5 20 20 10 5 35 35 30 25 20 15 10 20 20 15 15 10  10 5  30 25 20 15 10 5 20 20 15 20 15 15 10 15 10 10 10 10 5  15 15 10 10 5 20 20 20 15 25 5 5 20 § é t- ¬ng ph¶n ©m (%) 10  40 § é t- ¬ng ph¶n ©m (%) 20 5   30 40 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 8 15 10 5   45 30 20 15 10 5 50 40 10 20 5   50 15 15 10 10 5 5  20 20 15 15 10 10 5 25 5 20 15 15 10 30 20 20 15 § é t- ¬ng ph¶n ©m (%) 10  40 40 20 5   30 45 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 7 15 10 50 30 20 15 10 5 5   40 10 15 10 10 5 50 15 20 15 15 10 10 5 20 5 15  25 20 20 10 30 5 5 15 § é t- ¬ng ph¶n ©m (%) 35 20  30 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 20 5   40 6 15 10 5   45 30 20 15 10 5 50 40 10 20 5   50 15 15 10 10 5 5  20 20 15 15 10 10 5 25 5 20 15 15 10 30 20 20 15 § é t- ¬ng ph¶n ©m (%) 10  30 § é t- ¬ng ph¶n ©m (%) 20 5   40 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 5 15 10 5   45 30 20 15 10 5 50 40 10 20 5   50 15 15 10 10 5 5  20 20 15 15 10 10 5 25 5 20 15 15 10 30 20 20 15 § é t- ¬ng ph¶n ©m (%) 10 § é t- ¬ng ph¶n ©m (%) 20  40 40 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 4 5 30 45 30 15 10 5 50 40 20 15 10 5 5   50 10 15 10 10 5 5  15 20 15 15 10 10 5 20 5 15 10 25 20 20 15 30 5 5 20 § é t- ¬ng ph¶n ©m (%) 35 40 § é t- ¬ng ph¶n ©m (%) 3 § é t- ¬ng ph¶n ©m (%) 50 5 5   49 5 5   5  ……….P P. NP = NT = 24 NP = NT = 26 NP = NT = 28 NP = NT = 30 Nsum 45 40 45 40 30 25 20 15 10 5 50 35 30 25 20 15 10 20 15 5 10 5   5 25 10 15 10 5 20 15 10 5 20 15 15 10 20 20 15 15 10 5   10 5 25 15 10 15 10 5 5 20 15 10 20 20 10 20 5 10 5 5   25 15 10 5 15 10 5 20 20 15 10 20 10 20 5 10 5 5   25 15 10 5 15 10 5 20 20 15 10 20 10 20 5 15 10 10 10 5 5   20 15 15 10 10 5  15 20 15 15 10 10 5 20 20 20 15 15 10  5 5 20 15 § é t- ¬ng ph¶n ©m (%) 30 25 § é t- ¬ng ph¶n ©m (%) 30 25 § é t- ¬ng ph¶n ©m (%) 30 25 20 5   30 20 15 10 10 5 5   20 15 15 10 10 5  15 20 15 15 10 10 5 20 20 20 15 15 10  5 5 20 15 § é t- ¬ng ph¶n ©m (%) 30 25 § é t- ¬ng ph¶n ©m (%) 30 25 § é t- ¬ng ph¶n ©m (%) 30 25 20 5   30 20 15 10 10 5 5   20 15 15 10 10 5  15 20 15 15 10 10 5 20 20 20 15 15 10  5 5 20 15 § é t- ¬ng ph¶n ©m (%) 30 25 § é t- ¬ng ph¶n ©m (%) 30 25 § é t- ¬ng ph¶n ©m (%) 30 25 20 5   30 20 15 10 10 5 5   20 15 15 10 10 5 5  20 20 20 20 10  5 5 15 10 § é t- ¬ng ph¶n ©m (%) 30 25 § é t- ¬ng ph¶n ©m (%) 30 25 20 5   30 15 15 10 25 20 20 15 10 5 30 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 20 5   15 § é t- ¬ng ph¶n ©m (%) 10 15 10 10 5 20 § é t- ¬ng ph¶n ©m (%) 15 20 15 15 10 5 § é t- ¬ng ph¶n ©m (%) 20 20 10  25 5 20 5 5 20 30 10 15 10 4 30 20 15 3 40 5 20 2 35 § é t- ¬ng ph¶n ©m (%) 35 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 1 § é t- ¬ng ph¶n ©m (%) 40   30 30 30 25 25 25 5 5 5    15 10 20 15 10 5 5 25 § é t- ¬ng ph¶n ©m (%) 20 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 6 § é t- ¬ng ph¶n ©m (%) 30 20 15 10 20 15 10 5 5 20 20 15 20 20 15 15 10  15 15 10 10 5 5  10 5 5   50 15 10 10 20 15 10 10 5  20 15 20 20 5  5  5  30 30 25 25 30 15 10 20 25 15 10 § é t- ¬ng ph¶n ©m (%) 20 25 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 7 § é t- ¬ng ph¶n ©m (%) 30 20 15 10 5 15 10 5 5 5 20 20 20 20 15 20 30 25 25 10 5 20 15 10 15 10 20 5 NP = 12; NT = 24 15 10 10 5 5   20 15 15 10 10 5  10 20 15 15 10 10 5 15 5 20 15 15 10  20 20 20 20 15 ……….P P. 20 5 5 20 § é t- ¬ng ph¶n ©m (%) 30 25 § é t- ¬ng ph¶n ©m (%) 30 15 5   25 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 8 10 5 30 20 15 10  5   20 15 5  10 5 5  5 15 10 10 5 10 20 15 15 10 20 15 10 20 15   NP = 16; NT = 30 10 5 5 5   NP = 21; NT = 32  NP = 24; NT = 12 Nsum 70 50 50 50 20 10 50 40 30 20 § é t- ¬ng ph¶n ©m (%) 30 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 1 § é t- ¬ng ph¶n ©m (%) 45 60 40 40 30 20 20 10 5 5   45 10 35 30 25 20 15 § é t- ¬ng ph¶n ©m (%) 20 25 40 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 2 20 15 10 20 20 20 15 5 5 5 35 30 25 20 15 10 10 45 20 15 10 20 20 15 5 5  30 25 20 15 20 20 15 15 10 5  20 15 15 10 10 10  35 5 20 15 10 40 10 5 20 15  50 5 20 5   25 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 20 10 5 30 40 3 15 10 5   45 30 20 15 10 5   40 15 20 10 50 20 15 10 § é t- ¬ng ph¶n ©m (%) 5 25 20 15 15 10 10  30 20 15 10 35 5 5 15 40 10 5 10 20  50 45 30 5   30 50 40 15 10 10 5 5   20 15 15 10 10 5 50 15 20 15 10 5  20 20 15 20 15 10 5 25 5 15 10 30 20 20 15 35 10 10 10 20 40 15 10 10 10 5 5   51 5 5   5  30 45 30 20 10 50 45 25 35 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 4 § é t- ¬ng ph¶n ©m (%) 40 40 30 25 20 15 10 § é t- ¬ng ph¶n ©m (%) 50 20 15 10 20 20 10 5   10 45 25 20 15 10 § é t- ¬ng ph¶n ©m (%) 20 30 20 15 10 20 20 15 10 5 45 25 20 15 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 10 30 20 15 10 10 20 20 15 5 10 5 45 25 20 15 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 10 30 20 15 10 40 35 30 25 20 15 10 5 10  50 25 35 5   30 20 15 10 5   40 7 20 15 10 5 45 30 15 20 5   40 20 15 10 10 10 50 25 20 15 15 10 5  30 20 15 5 35 5 20 20 10 40 10 5 5 15  50 25 35 5   30 40 6 15 10 5   45 20 20 15 10 5 50 30 15 20 5   40 20 15 10 10 5 5  25 20 15 15 10 10 5 30 20 15 10 35 5 20 15 40 10 5 5 20  50 25 35 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 40 5   30 45 5 15 10 5 50 30 20 15 10 5 5   40 15 15 10 10 5 5  20 20 15 15 10 10 5 25 20 20 15 15 10 30 5 20 15 35 10 5 5 20 40 5 5 20 20 15 10 10 5 5   50 10 30 25 20 15 10 § é t- ¬ng ph¶n ©m (%) 20 45 25 35 § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) § é t- ¬ng ph¶n ©m (%) 40 8 20 15 10 20 20 15  10 25 20 15  20 15 15 10 10 5 5  20 15 15 10 5 30 20 20 15 10 35 5 20 15 40 10 5 5 20  30 45 30 5   50 40 15 10 10 5 5   20 15 15 10 5 5  15 10 10 5 20 15 20 15 15 10 20 20 20   52 5  15 10 10 10 5 5 5  5  KẾT LUẬN Qua thời gian tìm hiểu và nghiên cứu hoàn thành khóa luận dƣới sự hƣớng dẫn chỉ bảo của thầy giáo hƣớng dẫn, sự giúp đỡ nhiệt tình của thầy cô, bạn bè. Em đã hoàn thành bài khóa luận này và thu đƣợc kết quả nhƣ sau: - Nắm đƣợc một số kiến thức toán cơ bản ứng dụng trong kỹ thuật siêu âm cắt lớp. - Nghiên cứu các phƣơng pháp toán học nhằm nâng cao chất lƣợng khôi phục ảnh y sinh, cụ thể là phƣơng pháp Moo-PenPenrose Psedoinverse, phƣơng pháp Tikhonov regularization, phƣơng pháp L1 regularization. - Mô phỏng phƣơng pháp lặp vi phân Born sử dụng phƣơng pháp Tikhonov và phƣơng pháp L1. Kết quả mô phỏng chỉ ra rằng chất lƣợng khôi phục của phƣơng pháp L1 tốt hơn nhiều so với phƣơng pháp Tikhonov. Tuy nhiên, thời gian tạo ảnh của L1 lại lớn hơn đáng kể so với phƣơng pháp Tikhonov. Nếu có thể áp dụng các kĩ thuật xử lí tín hiệu để tăng tốc quá trình tạo ảnh, thì phƣơng pháp L1 có thể áp dụng trong thực tiễn y khoa. - Biết đƣợc trình tự làm một nghiên cứu khoa học. Hạn chế của khóa luận là, một số các phƣơng pháp mới để khôi phục ảnh y sinh chƣa đƣợc khai thác hết, chẳng hạn nhƣ phƣơng pháp L1 homotopy, L1 magic. Cuối cùng tôi rất mong muốn đƣợc sự đóng góp ý kiến, giúp đỡ, cộng tác nghiên cứu để đề tài có ý nghĩa hơn và ứng dụng vào đời sống xã hội. 53 TÀI LIỆU THAM KHẢO [2.1] A. Neumaier, “Solving ill-conditioned and singular linear systems: A tutorial on regularization,” SIAM Rev., vol. 40, no. 3, pp. 636–666, 1998. [2.2] B. Efron, T. Hastie, I. Johnstone, and R. Tibshirani, “Least angle regression,” Ann. Statist., vol. 32, no. 2, pp. 407–499, 2004. [2.3] T. Hastie, R. Tibshirani, and J. Friedman, The Elements of Statistical Learning. New York: Springer-Verlag, 2001, Springer Series in Statistics. [2.4] R. Tibshirani, “Regression shrinkage and selection via the lasso,” J. Roy. Statist. Soc., ser. B, vol. 58, no. 1, pp. 267–288, 1996. [2.5] S. Chen, D. Donoho, and M. Saunders, “Atomic decomposition by basis pursuit,” SIAM Rev., vol. 43, no. 1, pp. 129–159, 2001. [2.6] E. Candès, “Compressive sampling,” Proc. Int. Congr. Mathematics, 2006. [2.7] E. Candès, J. Romberg, and T. Tao, “Robust uncertainty principles: Exact signal reconstruction from highly incomplete frequency information,” IEEE Trans. Inf. Theory, vol. 52, no. 2, pp. 489–509, Feb. 2006. [2.8] E. Candès, J. Romberg, and T. Tao, “Stable signal recovery from incomplete and inaccurate measurements,” Commun. Pure Appl. Math., vol. 59, no. 8, pp. 1207–1223, 2005. [2.9] D. Donoho, “Compressed sensing,” IEEE Trans. Inf. Theory, vol. 52, no. 4, pp. 1289–1306, Apr. 2006. [2.10] D. Donoho, M. Elad, and V. Temlyakov, “Stable recovery of sparse overcomplete representations in the presence of noise,” IEEE Trans. Inf. Theory, vol. 52, no. 1, pp. 6–18, Jan. 2006. [2.11] Y. Tsaig and D. Donoho, “Extensions of compressed sensing,” Signal Process., vol. 86, no. 3, pp. 549–571, 2006. 54 [2.12] J. Tropp, “Just relax: Convex programming methods for identifying sparse signals in noise,” IEEE Trans. Inf. Theory, vol. 52, no. 3, pp. 1030– 1051, Mar. 2006. [2.13] H. Zou and T. Hastie, “Regularization and variable selection via the elastic net,” Journal of the Roy. Statist. Soc., ser. B, vol. 67, no. 2, pp. 301– 320, 2005. [2.14] N. Z. Shor, “Minimization methods for non-differentiable functions,” Springer Series in Computational Mathematics, 1985, Springer. [2.15] B. Polyak, “Introduction to optimization,” Optimization Software, 1987, Translated from Russian. [2.16] D. Luenberger, Linear and Nonlinear Programming, 2nd ed. Reading, MA: Addison-Wesley, 1984. [2.17] Y. Nesterov and A. Nemirovsky, “Interior-point polynomial methods in convex programming,” Studies in Applied Mathematics, vol. 13, 1994, SIAM: Philadelphia, PA. [2.18] S. Wright, “Primal-dual interior-point methods,” Society for Industrial and Applied Mathematics, 1997, SIAM: Philadelphia, PA. [2.19] Y. Ye, Interior Point Algorithms: Theory and Analysis. New York: Wiley, 1997. [2.20] The MOSEK Optimization Tools Version 2.5. User‟s Manual and Reference 2002 [Online]. Available: www.mosek.com, MOSEK ApS Available from [2.21] C. Johnson, J. Seidel, and A. Sofer, “Interior point methodology for 3-D PET reconstruction,” IEEE Trans. Med. Imag., vol. 19, no. 4, pp. 271– 285, 2000. [2.22] E. Candès and J. Romberg, l -magic: A Collection of MATLAB Routines for Solving the Convex Optimization Programs Central to 55 Compressive Sampling 2006 [Online]. Available: www.acm.caltech. edu/l1magic/ [2.23] M. Saunders, PDCO: Primal-Dual Interior Method for Convex Objectives 2002 [Online]. Available: http://www.stanford.edu/group/SOL/ software/pdco.html [2.24] C. Paige and M. Saunders, “LSQR: An algorithm for sparse linear equations and sparse least squares,” ACM Trans. Mathemat. Software, vol. 8, no. 1, pp. 43–71, 1982. [2.25] D. Donoho and Y. Tsaig, “Fast solution of l -norm minimization problems when the solution may be sparse,” Manuscript 2006 [Online]. Available: http://www.stanford.edu/ [2.26] T. Hastie, S. Rosset, R. Tibshirani, and J. Zhu, “The entire regularization path for the support vector machine,” J. Mach. Learning Res., vol.5, pp. 1391–1415, 2004. [2.27] S. Rosset, , L. Saul, Y. Weiss, and L. Bottou, Eds., “Tracking curved regularized optimization solution paths,” in Advances in Neural Information Processing Systems 17. Cambridge, MA: MIT Press, 2005. [2.28] M. Osborne, B. Presnell, and B. Turlach, “A new approach to variable selection in least squares problems,” IMA J. Numer. Anal., vol. 20, no. 3, pp. 389–403, 2000. [2.29] J. Friedman, T. Hastie T, and R. Tibshirani, Pathwise Coordinate Optimization 2007 [Online]. Available: www-stat.stanford. edu/hastie/pub.htm [2.30] E. Hale, W. Yin, and Y. Zhang, “A fixed-point continuation method for L1 regularized minimization with applications to compressed sensing,” Manuscript 2007 [Online]. Available: http://www.dsp.ece.rice.edu/cs/ 56 [2.31] S. Osher,M. Burger, D. Goldfarb, J. Xu, and W. Yin, “An iterative regularization method for total variation based image restoration,” SIAM J. Multiscale Modeling and Simulation, vol. 4, no. 2, pp. 460–489, 2005. [2.32] W. Yin, S. Osher, J. Darbon, and D. Goldfarb, Bregman Iterative Algorithms for Compessed Sensing and Related Problems 2007 [Online]. Available: http://www.math.ucla.edu/applied/cam/index.shtml [2.33] G. Narkiss and M. Zibulevsky, Sequential Subspace Optimization Method for Large-Scale Unconstrained Problems The Technion, Haifa, Israel, Tech. Rep. CCIT No 559, 2005. [2.34] M. Figueiredo and R. Nowak, “A bound optimization approach to wavelet-based image deconvolution,” in Proc. IEEE Int. Conf. Image Processing (ICIP), 2005, pp. 782–785. [2.35] I. Daubechies, M. Defrise, and C. De Mol, “An iterative thresholding algorithm for linear inverse problems with a sparsity constraint,” Commun. Pure Appl. Mathe., vol. 57, pp. 1413–1541, 2004. [2.36] M. Elad, B. Matalon, and M. Zibulevsky, “Image denoising with shrinkage and redundant representations,” in Proc. IEEE Computer Society Conf. Computer Vision and Pattern Recognition (CVPR), 2006, vol. 2, pp. 1924–1931. [2.37] Y. Nesterov, “Gradient methods for minimizing composite objective function,” 2007, CORE Discussion Paper 2007/76 [Online]. Available: http://www.optimization-online.org/DB_HTML/2007/09/1784.html. [2.38] M. Figueiredo, R. Nowak, and S. Wright, “Gradient projection for sparse reconstruction: Application to compressed sensing and other inverse problems,” IEEE J. Select. Topics Signal Process., 2007. 57 [...]... nâng cao chất lượng khôi phục ảnh y sinh 2 Mục đích nghiên cứu Tìm hiểu các phƣơng pháp toán học tiên tiến nhằm nâng cao chất lƣợng khôi phục ảnh y sinh, cụ thể là ảnh siêu âm cắt lớp 3 Giả thuyết khoa học Nếu nắm đƣợc các phƣơng pháp toán học tiên tiến thì đã bƣớc đầu tiếp cận đƣợc việc nâng cao chất lƣợng khôi phục ảnh y sinh 3 Đối tƣợng và phạm vi nghiên cứu - Đối tƣợng: Các phƣơng pháp toán học tiên. .. tiên tiến ứng dụng trong y sinh - Phạm vi nghiên cứu: Xử lí tín hiệu y sinh 4 Nhiệm vụ nghiên cứu - Nghiên cứu một số kiến thức toán cơ bản ứng dụng trong khôi phục ảnh y sinh 2 - Nghiên cứu các phƣơng pháp toán học nâng cao chất lƣợng khôi phục ảnh y sinh 5 Phƣơng pháp nghiên cứu Sử dụng các phƣơng pháp nghiên cứu lí thuyết kết hợp với mô phỏng 6 Cấu trúc luận văn Chƣơng 1: Một số kiến thức toán cơ... suy hao, đƣợc ứng dụng để tìm ra các đối tƣợng có kích thƣớc nhỏ Hai phƣơng pháp lặp Born (Born Iterative Method - BIM) và lặp vi phân Born (Distorted Born Iterative Method - DBIM) là hai phƣơng pháp đƣợc cho là tốt nhất hiện nay để tạo ảnh tán xạ Vì v y, sau một thời gian học tập và nghiên cứu, chúng tôi đã lựa chọn và nghiên cứu đề tài: Nghiên cứu các phương pháp toán học tiên tiến trong việc nâng. .. luận văn Chƣơng 1: Một số kiến thức toán cơ bản ứng dụng trong kĩ thuật siêu âm cắt lớp Chƣơng 2: Các phƣơng pháp toán học nâng cao chất lƣợng khôi phục ảnh y sinh Chƣơng 3: Mô phỏng và kết quả 3 Chƣơng 1: Một số kiến thức toán cơ bản ứng dụng trong kĩ thuật siêu âm cắt lớp 1.1 Chuẩn ma trận, vectơ 1.1.1 Ma trận Trong phần n y, chúng tôi giới thiệu các khái niệm cơ bản về ma trận: Ma trận vuông, ma trận... Giải pháp đối với vấn đề n y (tức là, phân bố mật độ phù hợp với dữ liệu nhất) là rất cần thiết bởi vì nó chỉ cho chúng ta biết về tham số vật lí mà chúng ta không thể quan sát trực tiếp Vì v y, bài toán ngƣợc là một trong những bài toán đƣợc nghiên cứu sâu và quan trọng nhất trong khoa học và toán học Bài toán ngƣợc phát triển trong nhiều ngành, bao gồm, thị lực m y tính, xử lí ngôn ngữ tự nhiên, học. .. giá trị xác định của x 1.4 Bài toán giả định đúng và bài toán giả định sai Bài toán giả định đúng đƣợc đề xƣớng bởi Jacques Hadamard Ông cho rằng, mô hình toán học của hiện tƣợng vật lí có các tính chất sau: + Tồn tại một giải pháp 12 + Giải pháp là duy nhất + Hoạt động của giải pháp thay đổi liên tục theo điều kiện ban đầu Các ví dụ về bài toán giả định đúng bao gồm bài toán Dirichlet cho phƣơng trình... noise) Trong bất kì trƣờng hợp nào, sai số ở dữ liệu quan sát sẽ tạo ra sai số ở tham số mô hình khôi phục, mà chúng ta thu đƣợc bằng cách giải bài toán ngƣợc Để tránh các sai số n y, chúng ta muốn hạn chế các giải pháp có thể để nhấn mạnh các đặc điểm có thể nhất định trong mô hình của chúng ta Loại hạn chế n y đƣợc gọi là chuẩn tắc (Regularization) 1.6 Chuẩn tắc (Regularization) Chuẩn tắc, trong toán học, ... ứng unwrapped phase, nó là hàm liên tục của t 20 Chƣơng 2: Các phƣơng pháp toán học nâng cao chất lƣợng khôi phục ảnh y sinh 2.1 Phƣơng pháp Moo-PenPenrose Psedoinverse Giả sử chúng ta cần giải một hệ phƣơng trình tuyến tính, với số phƣơng trình nhiều hơn ẩn số Phƣơng trình tổng quát của hệ thống có dạng: ⃗ ⃗ chúng ta cần tìm⃗⃗⃗ nếu biết A và ⃗ Trong đó: ⃗ là một vector; ⃗⃗⃗⃗ là một vector; A là một ma... bài toán giả định đúng vì giải pháp n y có sự nh y cao với sự thay đổi ở dữ liệu cuối cùng Thông thƣờng, mô hình liên tục phải đƣợc rời rạc hóa để có thể tính toán bằng phƣơng pháp số (numerical solution) Trong khi các giải pháp có thể liên tục tƣơng ứng với điều kiện ban đầu, chúng có thể gặp phải tính không ổn định số khi đƣợc giải quyết với độ chính xác có hạn, hoặc với lỗi trong dữ liệu Ngay cả... Trong các bối cảnh khác nhau, toán tử G đƣợc gọi là toán tử thuận, toán tử quan sát hay hàm quan sát Trong bối cảnh chung nhất, G đại diện cho phƣơng trình chi phối mà nó liên quan đến tham số mô hình đối với dữ liệu quan sát 1.5.4 Bài toán ngƣợc tuyến tính Trong trƣờng hợp bài toán ngƣợc tuyến tính rời rạc, mà nó mô tả hệ thống tuyến tính, d (dữ liệu) và m (mô hình tốt nhất) là vectơ, và bài toán có thể ... nghiên cứu - Nghiên cứu số kiến thức toán ứng dụng khôi phục ảnh y sinh - Nghiên cứu phƣơng pháp toán học nâng cao chất lƣợng khôi phục ảnh y sinh Phƣơng pháp nghiên cứu Sử dụng phƣơng pháp nghiên. .. pháp đƣợc cho tốt để tạo ảnh tán xạ Vì v y, sau thời gian học tập nghiên cứu, lựa chọn nghiên cứu đề tài: Nghiên cứu phương pháp toán học tiên tiến việc nâng cao chất lượng khôi phục ảnh y sinh ... cận đƣợc việc nâng cao chất lƣợng khôi phục ảnh y sinh Đối tƣợng phạm vi nghiên cứu - Đối tƣợng: Các phƣơng pháp toán học tiên tiến ứng dụng y sinh - Phạm vi nghiên cứu: Xử lí tín hiệu y sinh Nhiệm

Ngày đăng: 23/10/2015, 15:51

Từ khóa liên quan

Tài liệu cùng người dùng

Tài liệu liên quan