Thông tin tài liệu
TRƢỜNG ĐẠI HỌC SƢ PHẠM HÀ NỘI 2
KHOA VẬT LÝ
TRẦN THỊ DUYÊN
NGHIÊN CỨU CÁC PHƢƠNG PHÁP TOÁN HỌC TIÊN TIẾN TRONG
VIỆC NÂNG CAO CHẤT LƢỢNG KHÔI PHỤC ẢNH Y SINH
KHÓA LUẬN TỐT NGHIỆP ĐẠI HỌC
HÀ NỘI, 2015
TRƢỜNG ĐẠI HỌC SƢ PHẠM HÀ NỘI 2
KHOA VẬT LÝ
TRẦN THỊ DUYÊN
NGHIÊN CỨU CÁC PHƢƠNG PHÁP TOÁN HỌC TIÊN TIẾN TRONG
VIỆC NÂNG CAO CHẤT LƢỢNG KHÔI PHỤC ẢNH Y SINH
Chuyên ngành: Vật lý kỹ thuật
Ngƣời hƣớng dẫn khoa học: ThS. Trần Quang Huy
HÀ NỘI, 2015
LỜI CẢM ƠN
Trƣớc tiên, tôi xin chân thành cảm ơn ThS. Trần Quang Huy, ngƣời đã
hƣớng dẫn tận tình, giúp tôi hoàn thành khóa luận.
Tôi xin chân thành cảm ơn các thầy giáo, cô giáo trong khoa Vật Lý
trƣờng Đại học Sƣ Phạm Hà Nội 2 đã giúp đỡ tôi trong suốt quá trình học tập
và làm khóa luận.
Đặc biệt, tôi xin gửi lời cảm ơn sâu sắc tới PGS. TS. Trần Đức Tân,
Trƣờng Đại học Công nghệ, Đại học Quốc gia Hà Nội. Thầy đã giới thiệu
thầy hƣớng dẫn tôi đến lĩnh vực siêu âm cắt lớp (một lĩnh vực còn rất mới và
mang tính thời sự ở Việt Nam), và đã đóng góp nhiều ý kiến quí báu trong
quá trình tôi hoàn thiện khóa luận.
Đây là đề tài tôi dày công nghiên cứu cùng với thầy hƣớng dẫn, vì vậy,
tôi hy vọng rằng, nó sẽ là tài liệu bổ ích cho những ngƣời quan tâm về lĩnh
vực này, mọi chi tiết cần điều chỉnh, bổ xung xin liên hệ tới Trần Thị Duyên,
tranduyensp2@gmail.com; 01649635884.
Tôi xin cảm ơn bạn bè, ngƣời thân luôn cổ vũ, động viên, giúp đỡ tôi
hoàn thành khóa luận.
Hà Nội, tháng 5 năm 2015
Sinh viên
Trần Thị Duyên
LỜI CAM ĐOAN
Qua quá trình nghiên cứu khóa luận về đề tài: “Nghiên cứu các phƣơng
pháp toán học tiên tiến trong việc nâng cao chất lƣợng khôi phục ảnh y
sinh” tôi đã tiếp cận đƣợc một trong những lĩnh vực đang đƣợc phát triển
mạnh mẽ, đó là Kĩ thuật Y Sinh. Qua đây cũng giúp tôi bƣớc đầu làm quen
với công việc nghiên cứu khoa học.
Tôi xin cam đoan khóa luận này đƣợc hoàn thành do sự cố gắng tìm hiểu
nghiên cứu của bản thân cùng với sự hƣớng dẫn chỉ bảo tận tình và hiệu quả
của ThS. Trần Quang Huy cũng nhƣ các thầy cô giáo trong Khoa Vật lý,
Trƣờng Đại học Sƣ phạm Hà Nội 2. Đây là đề tài không trùng với các đề tài
khác và kết quả đạt đƣợc không trùng với kết quả của các tác giả khác.
Hà Nội, tháng 5 năm 2015
Sinh viên
Trần Thị Duyên
DANH MỤC CÁC TỪ VIẾT TẮT
Ultrasound/ Ultrasonography
Siêu âm
Tomography
Cắt lớp
Ultrasound tomography
Siêu âm cắt lớp
Least squared error
Lỗi bình phƣơng nhỏ nhất
Least Square Problem (LSP)
Bài toán bình phƣơng nhỏ nhất
Overdetermined System
Hệ có số phƣơng trình nhiều hơn số ẩn
Underdetermined System
Hệ có số phƣơng trình ít hơn số ẩn
Ill-posed problems
Bài toán giả định sai
Well-posed problems
Bài toán giả định đúng
Ill-conditioned matrix
Ma trận điều kiện xấu
Born Iterative Method - BIM
Phƣơng pháp lặp Born
Distorted Born Iterative Method DBIM
Phƣơng pháp lặp vi phân Born
Forward problems
Bài toán thuận
Inverse problems
Bài toán ngƣợc
Machine learning
Học máy
Singular Value Decomposition
(SVD)
Phân tích giá trị đơn
DANH MỤC HÌNH VẼ
Hình 1.1: Đồ thị phƣơng trình bậc nhất và các mẫu
........................... 11
Hình 2.1: Đồ thị mô tả 3 phƣơng trình của hệ ............................................ …24
Hình 3.1: Cấu hình hệ đo ................................................................................ 35
Hình 3.2: Hàm mục tiêu lí tƣởng .................................................................... 39
MỤC LỤC
Trang
MỞ ĐẦU ........................................................................................................ ..1
Chƣơng 1. Một số kiến thức toán cơ bản ứng dụng trong kĩ thuật siêu âm
cắt lớp ............................................................................................................. ..4
1.1. Chuẩn ma trận, vectơ ............................................................................ ..4
1.1.1. Ma trận .................................................................................................. ..4
1.1.2. Định thức của ma trận ........................................................................... ..5
1.1.2.1. Định nghĩa .......................................................................................... ..5
1.1.2.2. Phƣơng pháp tính định thức ............................................................... ..6
1.1.3. Ma trận nghịch đảo................................................................................ ..6
1.1.4. Chuẩn ma trận, vecto............................................................................. ..7
1.1.4.1. Chuẩn của vecto ................................................................................. ..7
1.1.4.2. Chuẩn của ma trận .............................................................................. ..9
1.2. Phƣơng pháp bình phƣơng nhỏ nhất ................................................... 11
1.3. Argument của một hàm ......................................................................... 12
1.4. Bài toán giả định đúng và Bài toán giả định sai ................................. 12
1.5. Bài toán ngƣợc ........................................................................................ 14
1.5.1. Giới thiệu chung .................................................................................... 14
1.5.2. Khái niệm ............................................................................................. 14
1.5.3. Bài toán ngƣợc ...................................................................................... 15
1.5.4. Bài toán ngƣợc tuyến tính ..................................................................... 15
1.5.5. Ví dụ (Trƣờng hấp dẫn của trái đất) ..................................................... 16
1.6. Chuẩn tắc (Regularization) ................................................................... 19
1.7. Hiện tƣợng Overfitting .......................................................................... 20
1.8. Hiện tƣợng Phase wrapping .................................................................. 20
Chƣơng 2. Các phƣơng pháp toán học nâng cao chất lƣợng khôi phục
ảnh y sinh ....................................................................................................... 21
2.1. Phƣơng pháp Moo-PenPenrose Psedoinverse ..................................... 21
2.2. Phƣơng pháp Tikhonov regulazation................................................... 24
2.2.1. Khái niệm .............................................................................................. 24
2.2.2. Chuẩn tắc Tikhonov tổng quát .............................................................. 25
2.2.3. Liên quan đến phân tích giá trị đơn (SVD) và bộ lọc Wiener .............. 26
2.2.4. Xác định hệ số Tikhonov ...................................................................... 27
2.3. Phƣơng pháp L1 regularation .............................................................. 28
2.3.1.
-Regularized Least squares ................................................................ 28
2.3.2. -Regularized Least Squares ................................................................ 29
Chƣơng 3: Mô phỏng và kết quả ................................................................. 34
3.1. Mô hình phƣơng pháp lặp vi phân Born (DBIM)............................... 34
3.2. Chi tiết tính toán phƣơng pháp lặp vi phân Born (DBIM) ................ 34
3.3. Các phƣơng pháp toán học khôi phục ảnh và chƣơng trình mô phỏng
……………………………………………………………………………….37
3.4. Chƣơng trình code của các thuật toán ................................................. 37
3.4.1. Chƣơng trình code của phƣơng pháp Moo-PenPenrose Psedoinverse . 37
3.4.2. Chƣơng trình code của phƣơng pháp Tikhonov regularization ............ 38
3.4.3. Chƣơng trình code của phƣơng pháp L1 regularization ..................... 38
3.5. Kết quả mô phỏng .................................................................................. 39
3.5.1. Mô phỏng sử dụng phƣơng pháp Tikhonov .......................................... 39
3.5.2. Mô phỏng sử dụng phƣơng pháp L1. N2 = 484
............................... 40
3.5.3. Đánh giá kết quả sử dụng phƣơng pháp Tikhonov và phƣơng pháp
L1…………………………………………………………………………….41
3.6. Kết quả mô phỏng sử dụng phƣơng pháp Tikhonov regularization.42
3.7. Kết quả mô phỏng sử dụng phƣơng pháp L1 regularization ........... 47
KẾT LUẬN .................................................................................................... 54
TÀI LIỆU THAM KHẢO ............................................................................ 55
MỞ ĐẦU
1. Lý do chọn đề tài
Kỹ thuật y sinh là một bộ môn khoa học ứng dụng dựa trên các nguyên
lý cơ bản trong kỹ thuật và các ý tƣởng về thiết kế để đƣa ra giải pháp trong y
học, y sinh. Kỹ thuật y sinh đã lấp đầy khoảng trống còn thiếu giữa các kỹ
thuật máy móc và y dƣợc học, nó là sự kết hợp của các thiết kế giúp giải
quyết các vấn đề còn vƣớng mắc về phƣơng pháp và kỹ thuật mà trƣớc đây y
học và sinh học chƣa thể chạm đến, sự kết hợp này đã nâng cao khả năng
chăm sóc sức khỏe, bao gồm công tác chẩn đoán, theo dõi, và điều trị. Kỹ
thuật y sinh là một lĩnh vực tƣơng đối mới mẻ, đa phần các thành tựu đạt
đƣợc chỉ mới dừng ở mức độ nghiên cứu, bao phủ nhiều lĩnh vực khác
nhau: tin sinh học, chẩn đoán hình ảnh, xử lý hình ảnh, xử lý tín hiệu sinh lý
học, cơ sinh học, vật liệu sinh học với kỹ thuật sinh học, phân tích hệ
thống, mô hình hóa 3 chiều …
Toán học đƣợc sử dụng trên khắp thế giới nhƣ một công cụ thiết yếu
trong nhiều lĩnh vực, bao gồm khoa học, kỹ thuật, y học, và tài chính.
Trong y học, chẩn đoán hình ảnh là một phƣơng pháp chẩn đoán cho
phép ngƣời bác sĩ có thể quan sát bằng hình ảnh các bộ phận của cơ thể một
cách trực quan nhất. Từ đó đƣa ra các chẩn đoán chính xác của bệnh lý để có
biện pháp điều trị hiệu quả. Khoa học hỗ trợ cho kĩ thuật chẩn đoán hình ảnh
chính là xử lý ảnh. Chẳng hạn nhƣ trong các phƣơng pháp: chụp X_quang,
chụp cắt lớp CT, MRI, siêu âm,… Ảnh sau khi đƣợc tái tạo chƣa thể rõ nét
đƣợc, ảnh hƣởng đến chất lƣợng, gây khó khăn cho việc chuẩn đoán bệnh. Do
vậy, mặc dù các thiết bị chụp y tế với công nghệ ngày càng nâng cao để hỗ trợ
cho việc phân tích và xử lý thông tin từ ảnh nhƣng vấn đề đặt ra cần phải giải
quyết song song là việc nâng cao chất lƣợng ảnh – đây là một khâu quan
trọng đƣợc coi là bƣớc tiền xử lý cho bƣớc tiếp theo là phân đoạn ảnh y học.
1
Hiện nay, tạo ảnh siêu âm là một công cụ an toàn, không bị iôn hoá để
chẩn đoán lâm sàng. So với phƣơng pháp X-ray, MRI, … thì phƣơng pháp
siêu âm cắt lớp cho phép tạo ảnh có lợi thế hơn nhiều. Hoạt động của nó dựa
trên sự tán xạ ngƣợc và có khả năng giải quyết những cấu trúc nhỏ hơn bƣớc
sóng của sóng tới, nó trái ngƣợc với phƣơng pháp tạo ảnh truyền thống sử
dụng phƣơng pháp phản hồi. Một số tính chất vật liệu, nhƣ độ tƣơng phản âm,
mật độ, độ suy hao, đƣợc ứng dụng để tìm ra các đối tƣợng có kích thƣớc nhỏ.
Hai phƣơng pháp lặp Born (Born Iterative Method - BIM) và lặp vi phân
Born (Distorted Born Iterative Method - DBIM) là hai phƣơng pháp đƣợc cho
là tốt nhất hiện nay để tạo ảnh tán xạ.
Vì vậy, sau một thời gian học tập và nghiên cứu, chúng tôi đã lựa chọn
và nghiên cứu đề tài:
“Nghiên cứu các phương pháp toán học tiên tiến trong việc nâng cao
chất lượng khôi phục ảnh y sinh”
2. Mục đích nghiên cứu
Tìm hiểu các phƣơng pháp toán học tiên tiến nhằm nâng cao chất lƣợng
khôi phục ảnh y sinh, cụ thể là ảnh siêu âm cắt lớp.
3. Giả thuyết khoa học
Nếu nắm đƣợc các phƣơng pháp toán học tiên tiến thì đã bƣớc đầu tiếp
cận đƣợc việc nâng cao chất lƣợng khôi phục ảnh y sinh.
3. Đối tƣợng và phạm vi nghiên cứu
- Đối tƣợng: Các phƣơng pháp toán học tiên tiến ứng dụng trong y sinh.
- Phạm vi nghiên cứu: Xử lí tín hiệu y sinh.
4. Nhiệm vụ nghiên cứu
- Nghiên cứu một số kiến thức toán cơ bản ứng dụng trong khôi phục
ảnh y sinh.
2
- Nghiên cứu các phƣơng pháp toán học nâng cao chất lƣợng khôi phục
ảnh y sinh.
5. Phƣơng pháp nghiên cứu
Sử dụng các phƣơng pháp nghiên cứu lí thuyết kết hợp với mô phỏng.
6. Cấu trúc luận văn
Chƣơng 1: Một số kiến thức toán cơ bản ứng dụng trong kĩ thuật siêu âm
cắt lớp.
Chƣơng 2: Các phƣơng pháp toán học nâng cao chất lƣợng khôi phục
ảnh y sinh.
Chƣơng 3: Mô phỏng và kết quả.
3
Chƣơng 1: Một số kiến thức toán cơ bản ứng dụng trong kĩ thuật siêu âm
cắt lớp
1.1. Chuẩn ma trận, vectơ
1.1.1. Ma trận
Trong phần này, chúng tôi giới thiệu các khái niệm cơ bản về ma trận:
Ma trận vuông, ma trận đƣờng chéo, ma trận đơn vị, ma trận tam giác trên,
ma trận tam giác dƣới, ma trận chuyển vị.
Cho ma trận chữ nhật A cấp
:
[
ở đây
]
là các số thực. Ma trận này có m hàng và n cột. Khi
trận cấp
ta có ma
và đƣợc gọi tắt là ma trận vuông cấp n.
Ma trận vuông cấp n mà mọi phần tử nằm ngoài đƣờng chéo chính bằng
0, tức là
đƣợc gọi là ma trận đường chéo. Nếu ma trận
với
đƣờng chéo có
thì ta gọi A là ma trận đơn vị và ta thƣờng ký hiệu là E
hoặc I.
Ma trận vuông A đƣợc gọi là ma trận tam giác trên, nếu A có dạng:
[
]
Tƣơng tự, ma trận vuông A đƣợc gọi là ma trận tam giác dưới, nếu A có
dạng:
[
Ma trận chữ nhật
cấp
]
đƣợc gọi là ma trận chuyển vị của ma trận
4
A cấp
nếu:
[
]
1.1.2. Định thức của ma trận
1.1.2.1. Định nghĩa
Trƣớc khi đƣa ra định nghĩa định thức của ma trận, chúng tôi giới
thiệu khái niệm hoán vị chẵn, hoán vị lẻ của một tập hợp n số nguyên{1, 2, ...
, n}.
là một hoán vị của tập {1,2,...,n}.Ta xét tất cả
Cho
các cặp
trong đó
ngƣợc, tức là các giá trị
ngƣợc là chẵn thì ta gọi
Nếu
thì ta gọi cặp
là cặp
đƣợc sắp xếp ngƣợc với k, h. Nếu trong
là hoán vị chẵn, ngƣợc lại thì ta gọi
số cặp
là hoán vị lẻ.
Với mỗi ma trận vuông A cấp n:
[
]
tồn tại một số thực đƣợc gọi là định thức của ma trận A, ký hiệu là det A,
đƣợc xác định bởi công thức:
∑
(1.1)
trong tập tất cả các hoán vị của tập {1,2,...,n},
với
{
Định thức của ma trận còn đƣợc ký hiệu là:
|
|
5
Với mỗi ma trận chữ nhật A cấp mxn bất kỳ ta có thể tính định thức
của tất cả các ma trận con vuông cấp k, với
. Nếu tồn tại một
số r sao cho có một ma trận con cấp r có định thức khác 0, còn mọi ma trận
con vuông cấp lớn hơn r đều bằng 0 thì ta nói rằng r là hạng của ma trận A.
Các phép biến đổi sơ cấp sau đây không làm biến đổi hạng của ma
trận:
- Đổi chỗ 2 hàng hoặc 2 cột bất kỳ.
- Nhân một hàng hay một cột bất kỳ với một số khác không.
- Cộng các thành phần tƣơng ứng của 2 hàng hoặc 2 cột bất kỳ.
Các phép biến đổi sơ cấp sẽ đƣợc sử dụng để tính định thức của ma
trận và tìm nghiệm của hệ phƣơng trình tuyến tính.
Ma trận E đƣợc gọi là ma trận đơn vị cấp n nếu E là ma trận vuông
cấp n và E có dạng:
[
]
1.1.2.2. Phƣơng pháp tính định thức
Tính định thức bằng cách chuyển ma trận về dạng tam giác trên.
Ta sẽ biến đổi để đƣa ma trận A về dạng ma trận tam giác trên:
[
]
Vậy
1.1.3. Ma trận nghịch đảo
Ma trận nghịch đảo của một ma trận vuông A cấp n là ma trận đƣợc ký
hiệu là
thoả mãn điều kiện:
6
Trong đó: E là ma trận đơn vị. Có thể chứng minh rằng để thỏa mãn
điều kiện trên thì bắt buộc
phải là ma trận vuông, và ma trận đảo nếu tồn
tại là duy nhất.
Điều kiện tồn tại của ma trận nghịch đảo: Ma trận vuông A cấp n có ma
trận nghịch đảo khi và chỉ khi
Cách tính ma trận nghịch đảo:
Gọi
là phần bù đại số của phần tử
khi đó ta có:
[
]
Tuy nhiên công thức này chỉ có ý nghĩa lý thuyết, không thể áp dụng để
tính trực tiếp ma trận đảo trên máy tính đƣợc vì số phép tính đòi hỏi quá lớn.
Chúng ta có thể áp dụng phƣơng pháp khử Gauss-Jordan để tính ma trận
3
nghịch đảo với số phép tính nhỏ hơn nhiều (khoảng n ).
1.1.4. Chuẩn ma trận, vecto
1.1.4.1. Chuẩn của vecto
Cho vecto , chuẩn của
kí hiệu là ‖ ‖ đƣợc định nghĩa là một số
không âm thỏa mãn các tính chất sau:
và ‖ ‖
1. ‖ ‖
2. ‖
‖
3. ‖
khi và chỉ khi
| |‖ ‖ với mọi
‖
‖ ‖
.
.
‖ ‖ (Bất đẳng thức tam giác).
. Trong thực tế ngƣời ta hay sử
Cho vecto
dụng một số dạng chuẩn sau:
Chuẩn-p
Cho
là số thực, chuẩn-p đƣợc định nghĩa là:
7
‖ ‖
(∑‖ ‖ )
ta đƣợc các dạng chuẩn Manhattan, Euclide và
Với
chuẩn cực đại, tƣơng ứng theo thứ tự đó.
, hàm khoảng cách này không thỏa bất đẳng thức
Với
tam giác nên nó không phải là một chuẩn.
Chuẩn Manhattan
Trong công thức chuẩn-p, cho
‖ ‖
ta đƣợc
∑| |
Chuẩn này còn đƣợc gọi là chuẩn Taxicab, chuẩn Manhattan hoặc
đơn giản là chuẩn
. Khoảng cách tƣơng ứng thƣờng đƣợc gọi là khoảng
cách Manhattan, khoảng cách
.
Chuẩn Euclide
Trong công thức chuẩn-p, cho
‖ ‖
(∑
)
ta đƣợc
√
√
Chuẩn Euclide còn đƣợc gọi là chuẩn
.
Chuẩn vô cực
Trong công thức chuẩn-p, khi
‖ ‖
| || |
ta đƣợc chuẩn cực đại
|
|
Ngoài ra ngƣời ta còn định nghĩa chuẩn cực tiểu, tƣơng ứng với
trƣờng hợp
:
‖ ‖
| || |
8
|
|
Tƣơng tự ở trên, lƣu ý rằng
đều
,
không phải là chuẩn.
Chuẩn khác
Kết hợp các dạng chuẩn trên, ta có thể có nhiều dạng chuẩn mới. Chẳng
hạn:
‖ ‖
| |
√ | |
| || |
cũng là một dạng chuẩn.
1.1.4.2. Chuẩn của ma trận
kích thƣớc
Cho ma trận
kí hiệu ‖ ‖ theo định
, chuẩn của
nghĩa là một số không âm thỏa mãn:
1. ‖ ‖
và‖ ‖
2. ‖
| |‖ ‖ với mọi .
3. ‖
‖
‖
‖ ‖
khi và chỉ khi
.
‖ ‖ (bất đẳng thức tam giác).
không giống nhƣ vecto, các dạng chuẩn đều đƣợc “phái sinh” từ một chuẩn
duy nhất là chuẩn-p, các dạng chuẩn của ma trận có thể xem nhƣ thuộc vào
một trong 3 “nguồn gốc” sau đây:
Chuẩn toán tử
thuộc không gian vecto
Nếu ma trận
thì chuẩn của
tƣơng ứng với chuẩn-p của vecto là
‖ ‖
‖ ‖
‖ ‖
với
.
Trƣờng hợp đặc biệt:
Với
thì chuẩn toán tử trở thành chuẩn cực đại theo cột:
‖ ‖
∑
9
|
|
để tìm chuẩn này, ta cộng giá trị tuyệt đối của các phần tử trong cùng một cột,
sau đó lấy kết quả lớn nhất.
, chuẩn toán tử trở thành chuẩn cực đại theo dòng:
Với
‖ ‖
∑
và
Với
|
|
, ta đƣợc dạng chuẩn Euclide của ma trận,
đƣợc tính bằng giá trị lớn nhất trong các singular value của .
‖ ‖
Chuẩn từng phần tử
Áp dụng một cách trực tiếp chuẩn-p của vecto đối với từng phần
tử của ma trận, ta đƣợc loại chuẩn tƣơng đối trực quan này
‖ ‖
(∑ ∑|
| )
để ý rằng ngƣời ta vẫn kí hiệu là ‖ ‖ mặc dù chuẩn này hoàn toàn khác với
chuẩn toán tử bên trên.
Trƣờng hợp đặc biệt
đƣợc gọi là chuẩn Frobenius, và
chính là chuẩn cực đại
Chuẩn Frobenius
Có nhều cách định nghĩa khác nhau:
‖ ‖
√∑
∑
|
|
√∑
√
với A* là ma trận conjugate transpose của A,
đƣờng chéo chính của
và
là các singular value của A.
Để ý sự tƣơng tự giữa √
vecto √
là tổng các phần tử trên
và công thức chuẩn Euclide của
.
10
Chuẩn Schatten
‖ ‖
(∑
)
1.2. Phƣơng pháp bình phƣơng nhỏ nhất
Giả sử có một tập các điểm dữ liệu xác định, chúng ta cần biểu diễn
đƣờng dữ liệu theo một hàm có dạng đã biết. Thông thƣờng, các mẫu dữ liệu
có ảnh hƣởng của nhiễu, vì vậy các tham số của hàm để mô tả chính xác tất cả
các mẫu không thể xác định đƣợc. Do đó, chúng ta cần tìm ra các tham số mà
nó mô tả các mẫu tốt nhất. Phƣơng pháp lỗi bình phƣơng nhỏ nhất “least
squared error” là một phƣơng pháp phổ biến để ƣớc tính tốt nhất. Lỗi bình
phƣơng là tổng bình phƣơng của sự sai khác giữa mỗi mẫu và giá trị kì vọng.
Tham số để lỗi bình phƣơng nhỏ nhất là tham số ƣớc tính tốt nhất.
Để đơn giản, chúng ta xét một ví dụ cụ thể sau: Cho n mẫu
, tìm
phƣơng trình đƣờng thẳng (có dạng của phƣơng trình bậc nhất) thỏa mãn các
mẫu cho trƣớc đó.
Giả sử phƣơng trình thỏa mãn các mẫu cho trƣớc có dạng y = ax + b.
Trong đó, x là đại lƣợng mà ta muốn ƣớc tính, y là các phép đo sử dụng các
sensors (chính là các mẫu), b là nhiễu hay lỗi của phép đo (giá trị của b
thƣờng rất nhỏ). Đồ thị phƣơng trình bậc nhất và các mẫu
đƣợc thể
hiện trên hình vẽ:
Hình 1.1: Đồ thị phương trình bậc nhất và các mẫu
Lỗi bình phƣơng nhỏ nhất E đƣợc định nghĩa nhƣ sau:
11
.
∑
cụ thể là:
∑
Phƣơng trình trên đƣợc biểu diễn dƣới dạng chuẩn Ơclit nhƣ sau:
‖
‖
giá trị nhiễu b là giá trị rất nhỏ không mong muốn. Trên thực tế, ta cần giảm
giá trị của b càng nhỏ càng tốt. Vì vậy, ta cần ƣớc tính ̂ sao cho ‖ ̂
‖
là nhỏ nhất.
Bài toán qui về tìm:
‖ ̂
‖
1.3. Argument của một hàm
Argument đƣợc gọi là đối số và nó đƣợc dùng trong khi chúng ta truyền
giá trị đầu vào khi gọi một hàm nào đó. Mỗi đối số ứng với một tham số nhất
định khi chúng ta khai báo hàm.
Arg min, đƣợc viết tắt từ argument of the minimum, và đƣợc kí hiệu:
arg min f ( x)
x
Biểu thức trên tính giá trị nhỏ nhất của hàm f(x), với giá trị xác định
của x.
Arg max, đƣợc viết tắt từ argument of the maximum, và đƣợc kí hiệu:
arg max f ( x)
x
Biểu thức trên tính giá trị lớn nhất của hàm f(x), với giá trị xác định của
x.
1.4. Bài toán giả định đúng và bài toán giả định sai
Bài toán giả định đúng đƣợc đề xƣớng bởi Jacques Hadamard. Ông cho
rằng, mô hình toán học của hiện tƣợng vật lí có các tính chất sau:
+ Tồn tại một giải pháp.
12
+ Giải pháp là duy nhất.
+ Hoạt động của giải pháp thay đổi liên tục theo điều kiện ban đầu.
Các ví dụ về bài toán giả định đúng bao gồm bài toán Dirichlet cho
phƣơng trình Laplace, phƣơng trình nhiệt với điều kiện ban đầu xác định. Đây
có thể đƣợc xem nhƣ các bài toán „tự nhiên‟ mà các quá trình vật lí đƣợc mô
hình bởi bài toán này.
Các bài toán không phải là bài toán giả định đúng theo đúng ý nghĩa
của Hadamard đƣợc định nghĩa bài toán giả định sai. Bài toán ngƣợc (Inverse
problem) thƣờng là bài toán giả định sai. Ví dụ, phƣơng trình nhiệt nghịch
đảo, có thể suy luận đƣợc sự phân bố nhiệt độ trƣớc đó từ dữ liệu cuối cùng,
không phải là bài toán giả định đúng vì giải pháp này có sự nhạy cao với sự
thay đổi ở dữ liệu cuối cùng.
Thông thƣờng, mô hình liên tục phải đƣợc rời rạc hóa để có thể tính
toán bằng phƣơng pháp số (numerical solution). Trong khi các giải pháp có
thể liên tục tƣơng ứng với điều kiện ban đầu, chúng có thể gặp phải tính
không ổn định số khi đƣợc giải quyết với độ chính xác có hạn, hoặc với lỗi
trong dữ liệu. Ngay cả với bài toán giả định đúng, nó vẫn có thể xảy ra điều
kiện yếu (ill-conditioned), nghĩa là khi có lỗi nhỏ trong dữ liệu ban đầu có thể
gây ra lỗi lớn hơn nhiều trong dữ liệu thu đƣợc. Bài toán điều kiện xấu đƣợc
biểu thị bởi số điều kiện lớn.
Nếu bài toán là giả định đúng, thì giải pháp có thể thực hiện tốt trên
máy tính sử dụng giải thuật ổn định (stable algorithm). Nếu bài toán là giả
định sai, chúng ta cần tính toán lại để điều trị số (numerical treatment). Đặc
biệt, vấn đề này bao gồm các giả định bổ sung, chẳng hạn nhƣ độ mƣợt của
giải pháp (smoothness of solution). Quá trình này đƣợc biết nhƣ là Chuẩn tắc
(regularization). Chuẩn tắc Tikhonov là một trong những giải pháp đƣợc sử
dụng rộng rãi nhất cho bài toán giả định sai tuyến tính.
13
1.5. Bài toán ngƣợc
1.5.1. Giới thiệu chung
Bài toán ngƣợc đƣợc sử dụng để biến đổi phép đo quan sát thành thông
tin về đối tƣợng hoặc hệ thống vật lí. Ví dụ, nếu chúng ta có phép đo về
trƣờng hấp dẫn của trái đất, thì chúng ta có thể đặt câu hỏi rằng: “nếu chúng
ta có dữ liệu, chúng ta có thể nói gì về sự phân bố mật độ của trái đất ở khu
vực đó?”. Giải pháp đối với vấn đề này (tức là, phân bố mật độ phù hợp với
dữ liệu nhất) là rất cần thiết bởi vì nó chỉ cho chúng ta biết về tham số vật lí
mà chúng ta không thể quan sát trực tiếp. Vì vậy, bài toán ngƣợc là một trong
những bài toán đƣợc nghiên cứu sâu và quan trọng nhất trong khoa học và
toán học. Bài toán ngƣợc phát triển trong nhiều ngành, bao gồm, thị lực máy
tính, xử lí ngôn ngữ tự nhiên, học máy, thống kê, luận thống kê, địa lí, tạo ảnh
y sinh (chẳng hạn nhƣ chụp cắt lớp điện toán, EEG/ERP), viễn thám, siêu âm
cắt lớp đại dƣơng, kiểm tra không phá hủy, thiên văn học, vật lí và nhiều lĩnh
vực khác.
1.5.2. Khái niệm
Bài toán ngƣợc có thể đƣợc xây dựng nhƣ sau
Dữ liệu → Tham số mô hình
Bài toán ngƣợc đƣợc xem xét là “ngƣợc” đối với bài toán thuận, nó liên
quan tham số mô hình đối với dữ liệu mà chúng ta quan sát:
Tham số mô hình → Dữ liệu
Sự biến đổi từ dữ liệu đến tham số mô hình (hoặc ngƣợc lại) là kết quả
của sự tƣơng tác của hệ thống vật lí với đối tƣợng mà chúng ta quan tâm đến
tính chất của nó.
Bảng dƣới đây chỉ ra một số ví dụ hệ thống vật lí, phƣơng trình chi
phối, đại lƣợng vật lí mà chúng ta quan tâm và những gì chúng ta thực sự
quan sát
14
Hệ thống vật lí
Phƣơng trình chi
phối
Đại lƣợng
vật lí
Dữ liệu quan
sát
Trƣờng hấp dẫn của
trái đất
Định luật vạn vật
hấp dẫn của Niutơn
Mật độ
Trƣờng hấp dẫn
Từ trƣờng của trái đất
(ở bề mặt)
Phƣơng trình
Maxwell
Độ cảm từ
Từ trƣờng
Phƣơng trình sóng
Tốc độ
sóng (mật
độ)
Vận tốc hạt
Sóng địa chấn (do
động đất)
Đại số tuyến tính là công cụ hiệu quả trong việc tìm hiểu quá trình xây
dựng toán lí của bài toán ngƣợc, bởi vì sự hiện diện của sự biến đổi hoặc ánh
xạ (mapping) của dữ liệu đến tham số mô hình.
1.5.3. Bài toán ngƣợc
Mục tiêu của bài toán ngƣợc là tìm ra mô hình m tốt nhất (hoặc ít nhất
là xấp xỉ) mà
Trong đó G là một toán tử mô tả mối quan hệ rõ ràng giữa dữ liệu quan
sát d và tham số mô hình. Trong các bối cảnh khác nhau, toán tử G đƣợc gọi
là toán tử thuận, toán tử quan sát hay hàm quan sát. Trong bối cảnh chung
nhất, G đại diện cho phƣơng trình chi phối mà nó liên quan đến tham số mô
hình đối với dữ liệu quan sát.
1.5.4. Bài toán ngƣợc tuyến tính
Trong trƣờng hợp bài toán ngƣợc tuyến tính rời rạc, mà nó mô tả hệ
thống tuyến tính, d (dữ liệu) và m (mô hình tốt nhất) là vectơ, và bài toán có
thể đƣợc biểu diễn nhƣ sau:
Trong đó: G là ma trận (toán tử), thƣờng đƣợc gọi là ma trận quan sát.
15
1.5.5. Ví dụ (Trƣờng hấp dẫn của trái đất)
Chỉ có một số ít hệ thống vật lí thực sự là tuyến tính với tham số mô
hình. Một hệ thống nhƣ vậy thuộc lĩnh vực địa vật lí là trƣờng hấp dẫn trái
đất. Trƣờng hấp dẫn trái đất đƣợc xác định bởi sự phân bố mật độ của trái đất
ở bên dƣới bề mặt. Vì khối thạch của trái đất thay đổi khá đáng kể, chúng ta
có thể quan sát sự khác biệt theo phút của trƣờng hấp dẫn trái đất trên bề mặt
trái đất. Từ sự hiểu biết về lực hấp dẫn (tức là, định luật vạn vật hấp dẫn của
Niutơn), biểu diễn toán học của lực hấp dẫn là
Trong đó a là phép đo của gia tốc trọng trƣờng địa phƣơng, K là hằng
số hấp dẫn, M là khối lƣợng địa phƣơng (nó liên quan đến mật độ) của khối
đá ở bên dƣới bề mặt và r là khoảng cách từ khối lƣợng đến điểm quan sát.
Bằng việc rời rạc phƣơng trình trên, chúng ta có thể tìm đƣợc mối liên
hệ giữa quan sát dữ liệu rời rạc trên bề mặt trái đất với tham số mô hình rời
rạc (mật độ) ở bên dƣới bề mặt mà chúng ta quan tâm. Ví dụ, xem xét trƣờng
hợp chúng ta có 5 phép đo ở bề mặt trái đất. Trong trƣờng hợp này, véctơ dữ
liệu của chúng ta d, nó là một véctơ cột có kích thƣớc 5x1. Chúng ta cũng biết
rằng, có 5 khối lƣợng chƣa biết ở bên dƣới bề mặt (nó không thực tế nhƣng
đƣợc dùng để chứng minh khái niệm). Vì vậy, ta có thể xây dựng hệ thống
tuyến tính, liên quan đến 5 khối lƣợng chƣa biết, đối với 5 điểm dữ liệu nhƣ
sau:
16
[
]
[
]
[
]
Chúng ta có thể thấy rằng, hệ thống có 5 phƣơng trình G, với 5 điểm
chƣa biết m. Để giải tham số mô hình mà nó phù hợp với dữ liệu, chúng ta có
thể đảo ma trận G để biến đổi trực tiếp phép đo vào tham số mô hình. Ví dụ:
Tuy nhiên, không phải tất cả các ma trận vuông có thể đảo đƣợc (G hầu
nhƣ không bao giờ có thể đảo đƣợc). Bởi vì chúng ta không đƣợc đảm bảo là
có đủ thông tin để xác định một giải pháp duy nhất đối với các phƣơng trình
đã cho trừ khi chúng ta có các phép đo độc lập (tức là mỗi phép đo cho biết
thông tin duy nhất về hệ thống). Quan trọng là, trong hầu hết các hệ thống vật
lí, chúng ta chƣa từng có đủ thông tin để hạn chế một giải pháp duy nhất, bởi
vì ma trận quan sát không chứa các phƣơng trình duy nhất. Từ quan điểm của
đại số tuyến tính, ma trận G bị khuyết hạng (tức là có giá trị riêng bằng 0),
nghĩa là nó không thể đảo đƣợc. Hơn nữa, nếu chúng ta bổ sung thêm các
quan sát vào ma trận (tức là thêm số phƣơng trình), thì ma trận G không còn
vuông nữa. Thậm chí khi đó, chúng ta không đƣợc đảm bảo có ma trận quan
sát hạng đầy đủ. Do đó, hầu hết các bài toán ngƣợc đƣợc xem là
underdeterminded, tức là ta không có giải pháp duy nhất cho bài toán ngƣợc.
Nếu ta có hệ thống hạng đầy đủ, thì giải pháp có thể là duy nhất. Hệ thống
overdetermined (số phƣơng trình nhiều hơn số biến) lại là một vấn đề khác.
17
Vì chúng ta không thể đảo trực tiếp ma trận quan sát, nên ta sử dụng
các phƣơng pháp của lí thuyết tối ƣu để giải bài toán ngƣợc. Để làm vậy, ta
xác định một mục tiêu, hay còn đƣợc gọi là hàm mục tiêu cho bài toán ngƣợc.
Mục tiêu là một hàm đo mức độ phù hợp (tƣơng đồng, sát) của dữ liệu dự
kiến từ mô hình khôi phục với dữ liệu quan sát. Trong trƣờng hợp, chúng ta
có dữ liệu hoàn hảo (tức là không có nhiễu) và hiểu biết về vật lí hoàn hảo
(tức là chúng ta biết về vật lí), thì dữ liệu khôi phục phù hợp với dữ liệu quan
sát một cách hoàn hảo. Hàm mục tiêu chuẩn, , thông thƣờng có dạng:
‖
‖
Biểu thức trên biểu diễn chuẩn L2 của sự không phù hợp (misfit) giữa
dữ liệu quan sát và dữ liệu dự kiến từ mô hình. Chúng ta sử dụng chuẩn L2 ở
đây nhƣ là một phép đo tổng quát về khoảng cách giữa dữ liệu quan sát và dữ
liệu dự kiến, tuy nhiên, các chuẩn khác cũng có thể sử dụng. Mục đích của
hàm mục tiêu là tối thiểu sự sai khác giữa dữ liệu dự kiến và dữ liệu quan sát.
Để tối ƣu hàm mục tiêu (tức là giải bài toán ngƣợc), ta tính toán
gradient của hàm mục tiêu, sử dụng lí do tƣơng tự nhƣ khi ta muốn tối thiểu
hàm chỉ có một biến. Gradient của hàm mục tiêu đƣợc tính bởi:
Trong đó GT là ma trận chuyển vị của G. Dạng đơn giản của phƣơng
trình này là:
Sau khi biến đổi, ta thu đƣợc:
Phƣơng trình trên đƣợc biết là phƣơng trình thông thƣờng và cho chúng
ta một giải pháp đối với bài toán ngƣợc. Nó tƣơng ứng với bài toán bình
phƣơng nhỏ nhất.
̂
18
Ngoài ra, chúng ta luôn biết rằng dữ liệu của chúng ta có những biến
động ngẫu nhiên, đƣợc gây bởi nhiễu ngẫu nhiên, hoặc tồi tệ hơn là nhiễu kết
hợp (coherent noise). Trong bất kì trƣờng hợp nào, sai số ở dữ liệu quan sát sẽ
tạo ra sai số ở tham số mô hình khôi phục, mà chúng ta thu đƣợc bằng cách
giải bài toán ngƣợc. Để tránh các sai số này, chúng ta muốn hạn chế các giải
pháp có thể để nhấn mạnh các đặc điểm có thể nhất định trong mô hình của
chúng ta. Loại hạn chế này đƣợc gọi là chuẩn tắc (Regularization).
1.6. Chuẩn tắc (Regularization).
Chuẩn tắc, trong toán học, thống kê và đặc biệt trong lĩnh vực học máy
(machine learning) và bài toán ngƣợc, đề cập đến quá trình giới thiệu thông
tin bổ sung để giải quyết bài toán giả định sai và tránh hiện tƣợng overfitting.
Thông thƣờng, thông tin này ở dạng penalty của độ phức tạp, chẳng hạn nhƣ
các hạn chế của độ mƣợt (smoothness) hoặc đƣờng bao trong chuẩn không
gian vector.
Việc chứng minh lí thuyết của chuẩn tắc là, nó cố gắng sử dụng
Occam’s razor vào giải pháp. Từ quan điểm Bayesian, nhiều kĩ thuật chuẩn
tắc tƣơng ứng việc vận dụng phân bố ƣu tiên xác định vào các tham số mô
hình.
Ý tƣởng tƣơng tự cũng đƣợc phát triển trong nhiều lĩnh vực khoa học.
Ví dụ, phƣơng pháp bình phƣơng nhỏ nhất có thể đƣợc xem nhƣ là một dạng
rất đơn giản của chuẩn tắc. Một dạng đơn giản của chuẩn tắc đƣợc ứng dụng
đối với phƣơng trình tích phân, gọi là chuẩn tắc Tikhonov, về bản chất là sự
thỏa hiệp giữa phù hợp dữ liệu và giảm mức chuẩn của giải pháp. Gần đây,
các phƣơng pháp chuẩn tắc không tuyến tính, cụ thể là Total variation
regularization đã trở nên phổ biến.
19
1.7. Hiện tƣợng Overfitting
Trong lĩnh vực thống kê và học máy, hiện tƣợng overfitting xảy ra khi
mô hình thống kê mô tả sai số ngẫu nhiên hoặc nhiễu thay vì mối quan hệ cơ
bản. Thông thƣờng, overfitting xảy ra khi mô hình quá phức tạp, chẳng hạn
nhƣ có quá nhiều tham số liên quan đến số quan sát (number of observations).
Mô hình có hiện tƣợng overfitting thƣờng có hiệu suất kém, vì nó có thể
phóng đại sự dao động nhỏ trong dữ liệu.
1.8. Hiện tƣợng Phase wrapping
Pha tức thời và tần số tức thời là hai khái niệm quan trọng trong lĩnh
vực xử lí tín hiệu, nó xảy ra khi biểu diễn và phân tích các hàm thay đổi theo
thời gian. Pha tức thời của hàm giá trị phức s(t) là hàm giá trị thực
[
]
Đối với hàm giá trị thực s(t), nó đƣợc xác định
[
]
Khi φ(t) bị hạn chế trong khoảng (-π, π] khoảng [0, 2π), nó đƣợc gọi là
hiệu ứng wrapped phase. Ngƣợc lại, gọi là hiệu ứng unwrapped phase, nó là
hàm liên tục của t.
20
Chƣơng 2: Các phƣơng pháp toán học nâng cao chất lƣợng khôi phục
ảnh y sinh
2.1. Phƣơng pháp Moo-PenPenrose Psedoinverse.
Giả sử chúng ta cần giải một hệ phƣơng trình tuyến tính, với số phƣơng
trình nhiều hơn ẩn số.
Phƣơng trình tổng quát của hệ thống có dạng:
⃗
⃗
chúng ta cần tìm⃗⃗⃗ nếu biết A và ⃗
Trong đó: ⃗ là một vector; ⃗⃗⃗⃗ là một vector; A là một ma trận.
Phƣơng trình tổng quát của hệ thống còn đƣợc viết dƣới dạng:
⃗⃗
⃗
Nếu A là ma trận vuông, chúng ta có thể tính toán đƣợc nhƣ sau:
⃗
⃗
⃗
⃗
⃗
⃗
⃗
⃗
Nếu A không phải là ma trận vuông, thì ta không tính đƣợc
nhiên, phƣơng pháp pseudoinverse có thể thực hiện đƣợc.
Hệ phƣơng trình này là:
⃗
Viết dƣới dạng ma trận, ta có:
21
⃗
; Tuy
[
][
]
[
[
Nếu
[ ]
]
[ ]
]
, tức là số hàng
số cột, hay số hàng
số biến. Khi đó, hệ
thống đƣợc gọi là hệ có số phƣơng trình nhiều hơn số ẩn “overdetermined”.
Có nhiều giải pháp để giải quyết vấn đề. Một trong những giải pháp hiệu quả
là sử dụng phƣơng pháp PseudoinverseMoore-Penrose.
Nhƣng
, trừ khi ma trận A có thể nghịch đảo.
Vì vậy, ta tiến hành giải nhƣ sau:
⃗
⃗
⃗
trong đó,
⃗
⃗
⃗
⃗
⃗
⃗
⃗
đƣợc tính là:
Vì vậy:
Ví dụ: Giải hệ phương trình gồm 3 phương trình tuyến tính.
22
Viết lại hệ phƣơng trình dƣới dạng ma trận, ta có:
][ ]
⏟
[
⏟
[ ]
⏟
⃗
⃗
Tìm pseudoinversecủa ma trận A.
[
]
Kiểm tra
[
][
[
]
]
Sử dụng phƣơng pháp Pseudoinverse, tính gần đúng phƣơng trình:
⃗
⃗⃗⃗⃗
⃗
⃗
⃗
[ ]
[
][
[ ]
kiểm tra kết quả
và
⃗
[
]
thu đƣợc.
Vậy kết quả của hệ phƣơng trình đã cho là:
23
]
[ ]
[
]
Ta chú ý rằng, phƣơng pháp Moore-Penrose Pseudoinverse giải quyết các
bài toán về mặt lỗi bình phƣơng tối thiểu (Least Squared Error). Nói chung,
không có giải pháp chính xác cho các bài toán có số phƣơng trình nhiều hơn
ẩn số “overdetermined system”.
Dƣới đây là đồ thị mô tả 3 phƣơng trình của hệ và giải pháp MoorePenrosePseudoinverse.
Hình 2.1: Đồ thị mô tả 3 phương trình của hệ
2.2. Phƣơng pháp Tikhonov regulazation
2.2.1. Khái niệm
Chuẩn tắc Tikhonov, đƣợc đặt tên bởi Andrey Tikhonov, là phƣơng
pháp đƣợc sử dụng phổ biến nhất của chuẩn tắc cho bài toán giả định sai.
Trong thống kê, phƣơng pháp này đƣợc gọi là ridge regression. Chúng ta xem
xét bài toán giả định sai, có dạng nhƣ sau:
,
24
Giải pháp chuẩn (đƣợc gọi là bình phƣơng nhỏ nhất) dẫn đến hệ thống
overdetermined, hoặc thông thƣờng là hệ thống underdetermined. Bài toán
bình phƣơng nhỏ nhất thông thƣờng tìm cách tối thiểu tổng của các thặng dƣ
bình phƣơng, nó đƣợc biểu diễn nhƣ sau:
‖
‖
Trong đó, ‖ ‖ là chuẩn Ơclit. Để ƣu tiên cho một giải pháp đặc biệt với
các tính chất mong muốn, vấn đề chuẩn tắc bao gồm cả việc tối thiểu hóa biểu
thức sau:
‖
‖
‖
‖
Đối với việc lựa chọn phù hợp ma trận Tikhonov . Trong nhiều trƣờng
hợp này, ma trận này đƣợc lựa chọn là bội số của ma trận đơn vị
, để
ƣu tiên cho giải pháp với chuẩn nhỏ hơn. Trong các trƣờng hợp khác, toán tử
thông thấp (lowpass) (tức là, toán tử sai khác hoặc toán tử Fourier trọng số)
có thể đƣợc sử dụng để thực thi tính mƣợt. Chuẩn tắc này cải thiện điều kiện
bài toán, vì vậy cho phép giải pháp tính số trực tiếp. Một giải pháp tƣờng
minh, ký hiệu là ̂, đƣợc tính bởi:
̂
(
)
Ảnh hƣởng của chuẩn tắc có thể đƣợc thay đổi thông qua tỉ lệ của ma
trận . Đối với
, vấn đề này làm giảm giải pháp bình phƣơng nhỏ nhất
không chuẩn tắc với điều kiện
tồn tại.
2.2.2. Chuẩn tắc Tikhonov tổng quát
Đối với sự phân bố đa biến thông thƣờng tổng quát của
và sai số dữ
liệu, ta có thể áp dụng một phép biến đổi của các biến để giảm đối với trƣờng
hợp trên. Một cách tƣơng đƣơng, ngƣời ta có thể tìm
‖
‖
‖
25
‖
để tối thiểu:
Trong đó, ta đã sử dụng ‖ ‖ thay cho chuẩn có trọng số
sự giải thích của Bayesian,
là giá trị kỳ vọng của , và
. Theo
là ma trận hiệp phƣơng sai nghịch đảo của b,
là ma trận hiệp phƣơng sai nghịch đảo của .
Sau đó, ma trận Tikhonov đƣợc đƣa ra nhƣ một nhân tử của ma trận
(tức là nhân tử Cholesky), và đƣợc coi là bộ lọc làm trắng (whitening filter).
Bài toán tổng quát này có một giải pháp tối ƣu
, nó có thể đƣợc giải
một cách rõ ràng bằng cách sử dụng công thức:
hoặc tƣơng đƣơng
2.2.3. Liên quan đến phân tích giá trị đơn (SVD) và bộ lọc Wiener.
Với
, giải pháp bình phƣơng tối thiểu có thể đƣợc phân tích theo
một cách đặc biệt dựa vào sự phân tích giá trị đơn (SVD). Cho sự phân tích
giá trị đơn của A
với các giá trị đơn
, giải pháp chuẩn tắc Tikhonov đƣợc biểu diễn bằng:
̂
trong đó D có giá trị chéo
và bên ngoài đƣờng chéo thì các giá trị bằng 0. Điều này chứng minh ảnh
hƣởng của tham số Tikhonov vào số điều kiện của bài toán chuẩn tắc. Trong
trƣờng hợp tổng quát, một đại diện tƣơng tự có thể đƣợc suy luận bằng cách
sử dụng phƣơng pháp phân tích giá trị đơn tổng quát.
Cuối cùng, nó liên quan đến bộ lọc Wiener:
26
̂
∑
trong đó các trọng số Wiener là
và
là hạng của .
2.2.4. Xác định hệ số Tikhonov
Tham số chuẩn tắc tối ƣu , luôn chƣa biết và thƣờng xuất hiện trong
bài toán thực tế, đƣợc xác định bằng phƣơng pháp ad-hoc. Một giải pháp có
thể dựa vào giải thích Bayesian đƣợc trình bày dƣới đây. Các giải pháp khác
bao gồm discrepancy principle, cross-validation, L-curve method, restricted
maximum likelihood và unbiased predictive risk estimator. Grace Wahba đã
chứng minh rằng tham số tối ƣu, theo ý nghĩa của leave-one-out crossvalidation tối ƣu:
‖ ̂
‖
[
]
Trong đó RSS là tổng thặng dƣ bình phƣơng và
là số bậc tự do hiệu
quả.
Sử dụng phƣơng pháp SVD trƣớc đó, chúng ta có thể đơn giản hóa các
biểu thức trên:
‖
∑
‖
‖∑
‖
‖∑
‖
Và
∑
∑
27
2.3. Phƣơng pháp L1 regularation
Chúng ta xét một mô hình tuyến tính có dạng
,
Trong đó
là vector của các ẩn số,
là nhiễu, và
Khi
là vector quan sát,
là ma trận dữ liệu.
và các cột của A độc lập tuyến tính, chúng ta có thể xác
định x bằng cách giải bài toán bình phƣơng nhỏ nhất, bởi việc tối thiểu ‖
‖ , trong đó ‖ ‖
(∑
)
là chuẩn
của u. Khi số quan sát m không
đủ lớn so với n, hồi qui bình phƣơng nhỏ nhất đơn giản dẫn đến hiện tƣợng
over-fit.
2.3.1.
-Regularized Least squares
Một kỹ thuật chuẩn đƣợc dùng để ngăn chặn hiện tƣợng over-fitting là
hoặc chuẩn tắc Tikhonov [2.1], nó đƣợc biểu diễn nhƣ sau:
‖
‖
‖ ‖
(2.1)
Trong đó λ> 0 là tham số chuẩn tắc. Bài toán chuẩn tắc Tikhonov hoặc
bài toán bình phƣơng nhỏ nhất chuẩn tắc
có giải pháp phân tích
(2.2)
Một số tính chất cơ bản của chuẩn tắc Tikhonov đƣợc liệt kê dƣới đây:
• Độ tuyến tính. Từ (2.2), chúng ta thấy rằng, giải pháp
đối với bài
toán chuẩn tắc Tikhonov là một hàm tuyến tính của y.
• Hạn chế hoạt động khi λ → 0. Khi λ → 0,
Moore-Penrose
, trong đó
Điểm giới hạn có chuẩn
hội tụ đến giải pháp
là pseudoinverse Moore-Penrose của A.
tối thiểu trong tất cả các điểm mà nó thỏa mãn
‖ ‖
28
• Hội tụ đến không khi λ → ∞. Giải pháp tối ƣu
có xu hƣớng tiến
đến không khi λ → ∞.
• Đƣờng chuẩn tắc. Giải pháp tối ƣu
là một hàm mƣợt (smooth
function) của tham số chuẩn tắc λ, khi nó thay đổi trong khoảng [0, ∞). Khi λ
giảm tới không,
hội tụ đến giải pháp Moore-Penrose; khi λ tăng,
hội tụ
đến không.
Giải pháp cho bài toán chuẩn tắc Tikhonov có thể đƣợc tính bằng
phƣơng pháp trực tiếp, nó yêu cầu
flops (giả sử m cùng bậc với n hoặc
nhỏ hơn). Giải pháp cũng có thể đƣợc tính bằng phƣơng pháp lặp (không trực
tiếp) (ví dụ, phƣơng pháp gradient liên hợp – conjugate gradient method) đối
với hệ phƣơng trình tuyến tính
. Phƣơng pháp lặp đặc
biệt hiệu quả khi có những thuật toán nhanh cho phép nhân ma trận – vectơ
với ma trận dữ liệu và ma trận chuyển vị
(tức là,
và
và
với
), đó là trƣờng hợp khi A thƣa hoặc có dạng đặc biệt nhƣ ma trận
Fourier và wavelet.
2.3.2.
-Regularized Least Squares
Trong bài toán bình phƣơng nhỏ nhất chuẩn tắc , chúng ta thay thế
tổng các giá trị tuyệt đối cho tổng bình phƣơng đƣợc sử dụng trong chuẩn tắc
Tikhonov, để có đƣợc:
‖
Trong đó ‖ ‖
∑ |
‖
biểu thị chuẩn
‖ ‖
(2.3)
của x, và λ là tham số chuẩn
tắc. Ta gọi (2.3) là một LSP chuẩn . Bài toán này luôn luôn có một giải
pháp, nhƣng nó không cần phải là duy nhất.
Một số tính chất cơ bản của chuẩn tắc
tƣơng đồng và khác biệt so với chuẩn tắc
29
.
đƣợc liệt kê ở đây, chỉ ra điểm
• Tính phi tuyến. Từ (2.2), chúng ta thấy rằng, trong chuẩn tắc
Tikhonov, vector x là một hàm tuyến tính của vector quan sát y. Ngƣợc lại,
trong chuẩn tắc , vector x không phải là tuyến tính với y.
• Hạn chế hoạt động khi λ → 0. Chuẩn tắc
khác biệt với chuẩn tắc
chỉ ra hạn chế hoạt động
khi λ → 0. Giải pháp cho chuẩn tắc
đến điểm trong tất cả các điểm thỏa mãn
(2.3) hội tụ
khi λ → 0.
• Sự hội tụ hữu hạn đến không khi λ → ∞. Nhƣ trong chuẩn tắc
Tikhonov, giải pháp tối ƣu có xu hƣớng tiến đến không khi λ → ∞. Tuy
nhiên, với chuẩn tắc , sự hội tụ xảy ra cho một giá trị hữu hạn của λ:
‖
Trong đó ‖ ‖
|
‖
(2.4)
ký hiệu chuẩn
của vector
. Đối với
, giải pháp tối ƣu là 0. Ngƣợc lại, giải pháp tối ƣu cho bài toán
Tikhonov bằng không chỉ trong giới hạn khi
• Đƣờng chuẩn tắc. Giải pháp
.
của bài toán Tikhonov thay đổi mƣợt
khi tham số chuẩn tắc thay đổi trong khoảng [0, ∞). Ngƣợc lại, đƣờng chuẩn
tắc của
(2.3), tức là, họ các giải pháp khi
thay đổi trên (0, ∞), có tính chất
đƣờng giải pháp tuyến tính từng khúc [2.2]: Có các giá trị
, với
, đƣờng chuẩn tắc là đƣờng cong tuyến tính từng
khúc trên
Trong đó
khi
giải bài toán
. (Vì vậy,
và
).
Quan trọng hơn, chuẩn tắc
tức là
(2.3) với
đặc biệt thực hiện đƣợc với vector
có tƣơng đối ít các hệ số khác không. (Khi
30
thƣa,
giảm, nó có xu hƣớng
thƣa hơn, nhƣng điều này không cần thiết thiết [2.3], [2.4].) Ngƣợc lại, chuẩn
tắc
của bài toán Tikhonov có tất cả các hệ số khác không.
Gần đây, ý tƣởng của chuẩn tắc
nhận đƣợc rất nhiều sự quan tâm
trong lĩnh vực xử lý tín hiệu và thống kê. Trong lĩnh vực xử lí tín hiệu, ý
tƣởng của chuẩn tắc
xuất hiện trong một vài bối cảnh, bao gồm Basis
pursuit denoising [2.5] và phƣơng pháp khôi phục tín hiệu từ các phép đo
không hoàn thiện (ví dụ, [2.6], [2.7], [2.8], [2.9], [2.10], [2.11], [2.12]). Trong
thống kê, ý tƣởng của chuẩn tắc
đƣợc sử dụng trong thuật toán nổi tiếng
Lasso [2.4] để lựa chọn tính chất và mở rộng của nó, bao gồm elastic net
[2.13].
Một trong những bài toán này không có dạng chuẩn (2.3) nhƣng nó có
một biểu diễn tổng quát hơn:
‖
trong đó
‖
là tham số chuẩn tắc (biến
∑ | |
(2.5)
tƣơng ứng với
là không
đƣợc chuẩn tắc).
Bây giờ, chúng ta xem xét khía cạnh tính toán của chuẩn tắc . Không
có một công thức phân tích hoặc biểu diễn nào cho bài toán tối ƣu đối với
chuẩn tắc
(2.3), tƣơng tự (2.2); giải pháp của nó phải đƣợc tính số. Hàm
mục tiêu trong
toán
(2.3) là lồi nhƣng không khả vi, do đó, giải quyết bài
là một thách thức tính toán hơn là giải quyết bài toán
(2.1).
Phƣơng pháp tổng quát cho bài toán lồi không khả vi, chẳng hạn
phƣơng pháp ellipsoid hay phƣơng pháp subgradient [2.14], [2.15], có thể
đƣợc sử dụng để giải quyết bài toán
(2.3). Các giải pháp này thƣờng rất
chậm.
Chuẩn tắc
(2.3) có thể đƣợc chuyển thành bài toán toàn phƣơng lồi
(Convex quadratic problem), với những hạn chế không cân bằng tuyến tính.
31
Bài toán toàn phƣơng (QP) tƣơng ứng có thể đƣợc giải bằng phƣơng pháp tối
ƣu lồi chuẩn, nhƣ phƣơng pháp điểm nội (interior-point method) [2.16],
[2.17], [2.18], [2.19]. Phƣơng pháp điểm nội chuẩn đƣợc thực hiện theo giải
pháp chung phổ quát, bao gồm MOSEK [2.20], nó có thể sẵn sàng thực thi
với bài toán có kích thƣớc vừa và nhỏ. Các phƣơng pháp chuẩn không thể
thực thi các bài toán lớn, trong đó có thuật toán nhanh cho toán tử ma trậnvector với A và
Phƣơng pháp điểm nội chuyên biệt, khai thác các thuật
toán nhƣ vậy, có thể mở rộng cho các bài toán lớn, nhƣ đƣợc chứng minh ở
[2.5], [2.21]. Việc thực thi chất lƣợng cao của phƣơng pháp điểm nội chuyên
biệt, bao gồm ll-magic [2.22] và PDC0 [2.23], chúng sử dụng thuật toán lặp,
chẳng hạn nhƣ conjugate gradient (CG) hoặc thuật toán LSQR [2.24], để tính
toán các bƣớc tìm kiếm.
Gần đây, một số nhà nghiên cứu đã đề xuất phƣơng pháp homotopy và
các biến thể để giải quyết bài toán
[2.25], [2.26], [2.2], [2.27], [2.28]. Sử
dụng thuộc tính tuyến tính từng khúc của đƣờng chuẩn tắc, phƣơng pháp theo
đƣờng (path-following method) có thể tính toán hiệu quả toàn bộ đƣờng giải
pháp trong bài toán . Khi giải pháp (13) rất thƣa, giải pháp này có thể rất
nhanh, vì số lƣợng các nút mà phƣơng pháp cần để tìm là vừa phải [2.25].
Mặt khác, phƣơng pháp theo đƣờng có thể chậm, nó thƣờng sử dụng trong bài
toán quy mô lớn. Các phƣơng pháp tính toán khác đƣợc phát triển gần đây
cho bài toán
, bao gồm coordinate-wise descent method [2.29], một phƣơng
pháp cố định điểm tiếp [2.30], Bregman phƣơng pháp dựa trên quy tắc lặp đi
lặp lại [2.31], [2.32], phƣơng pháp tối ƣu không gian con tuần tự (sequential
subspace optimization method) [2.33], phƣơng pháp tối ƣu đƣờng bao (bound
optimization method) [2.34], phƣơng pháp co lặp (iterated shrinkage method)
[2.35], [2.36], phƣơng pháp gradient [2.37], và thuật toán chiếu gradient
32
(gradient projection algorithm) [2.38]. Một số trong các phƣơng pháp này,bao
gồm cả thuật toán chiếu gradient [2.38] có thể xử lý hiệu quả bài toán lớn.
33
Chƣơng 3: Mô phỏng và kết quả
3.1. Mô hình phƣơng pháp lặp vi phân Born (DBIM).
Phƣơng trình sóng trong môi
trƣờng không đồng nhất chứa đối
tƣợng 𝑂
Sử dụng phƣơng pháp xấp xỉ
Born để tìm mối quan hệ tuyến
tính giữa 𝛥𝑝 𝑠𝑐 và 𝛥𝑂
Sử dụng hàm Green tìm phƣơng
trình liên tục tính 𝑝 𝑠𝑐
Rời rạc phƣơng trình sóng, sử dụng
phƣơng pháp moment (MoM)
Sử dụng phƣơng pháp Tikhonov
để tìm 𝛥𝑂
Tính đƣợc áp suất tại các điểm
bên trong và bên ngoài (tán xạ)
đối tƣợng là 𝑝, 𝑝 𝑠𝑐
Sử dụng phƣơng pháp lặp để tìm
đối tƣợng 𝑂
Tính ma trận B, C
3.2. Chi tiết tính toán phƣơng pháp lặp vi phân Born (DBIM).
Đối tƣợng cần khảo sát chính là vật thể hình trụ tròn O(r) có kích thƣớc
rất nhỏ (môi trƣờng B1) nằm trong môi trƣờng B2 (tƣơng ứng nhƣ khối u ở
trong môi trƣờng nào đó). Mục tiêu của chúng ta là dựng đƣợc ảnh của vật thể
trụ tròn, đó chính là vùng cần quan tâm ROI (Region Of Interest). Vùng diện
tích quan tâm này đƣợc chia thành N×N ô vuông (mỗi ô vuông gọi là một
pixel) có kích thƣớc là h. Số lƣợng máy phát là Nt và máy thu là Nr. Theo lí
thuyết về sóng âm, hàm mục tiêu O(r) (vật thể hình trụ tròn) đƣợc tính bởi
công thức:
34
Receivers
h
Meshing area
Transmitter
Hình 3.1. Cấu hình hệ đo
ω2 1 - 1 if
c2 c2
Οr = 1 0
0 if r > R
Với
và
r R
(3.1)
là tốc độ truyền sóng trong đối tƣợng và tốc độ truyền
trong nƣớc, f là tần số sóng siêu âm,
là tần số góc (
là bán
kính của đ i tư ng.
Sử dụng sơ đồ cấu hình hệ đo nhƣ trong hình 3.1, bằng cách sử dụng
DBIM để tái tạo lại độ tƣơng phản âm thanh tán xạ để xác định khối u trong
môi trƣờng. Giả sử có một không gian vô hạn chứa môi trƣờng đồng nhất
chẳng hạn là nƣớc, số sóng là
. Trong môi trƣờng đó có vật với số sóng là
phụ thuộc vào không gian trong vật. Phƣơng trình truyền sóng của hệ
thống có thể đƣợc cho nhƣ phƣơng trình (3.2).
(
)
(3.2)
Viết lại dƣới dạng tích phân ta có:
(3.3)
∬
⃗⃗⃗
⃗⃗⃗
|⃗
⃗⃗⃗|
⃗⃗⃗
(3.4)
Ở đó p sc r là sóng tán xạ, p inc r là sóng tới và G(.) là hàm Green.
35
Hàm mục tiêu cần đƣợc khôi phục từ dữ liệu tán xạ đƣợc xác định bởi:
⃗
⃗
(3.5)
Bằng phƣơng pháp moment (MoM) áp suất của các điểm bên trong đối
tƣợng có thể đƣợc tính nhƣ sau:
̅
( ̅
̅
)
(3.6)
Áp suất của các điểm bên ngoài đối tƣợng (áp suất tán xạ) là:
̅
Hai biến chƣa biết là
̅ và
(3.7)
trong công thức (3.6) và (3.7), trong
trƣờng hợp này áp dụng xấp xỉ Born loại 1 với phƣơng trình (3.4) và theo
(3.6), (3.7) ta có:
̅
̅
Với ̅
̅ ; Ở đó
các pixel tới máy thu,
C
là ma trận
B
(3.8)
ứng với hệ số G0(r,r‟) từ
là ma trận
ứng với hệ số G0(r,r‟) giữa các
pixel, I là ma trận đơn vị, và D(.) là toán tử chéo hóa.
Với mỗi bộ phát và bộ thu, chúng ta có một ma trận ̅ và một giá trị vô
hƣớng
. Thấy rằng vector chƣa biết
có
giá trị bằng với số pixel
của RIO. Hàm mục tiêu (Object function) có thể đƣợc tính bằng cách lặp:
(3.9)
Với
trƣớc đó.
và
là giá trị của hàm mục tiêu ở bƣớc hiện tại và bƣớc
có thể đƣợc tìm bằng quy tắc Tikhonov:
‖
Trong đó
̅
là (
̅
‖
‖
(3.10)
vector chứa giá trị sai khác gi a kết quả
đo và kết quả tiên đoán tín hiệu siêu
đư c tạo b i
‖
phép đo.
36
m tán ạ
là ma trận
3.3. Các phƣơng pháp toán học khôi phục ảnh và chƣơng trình mô
phỏng.
Phƣơng pháp
Công thức
‖
Moo-PenPenrose Psedoinverse
‖
Tikhonov regularization
‖
‖
‖ ‖
L1 regularization
‖
‖
‖ ‖
Các vấn đề tính toán:
- Moo-PenPenrose Psedoinverse:
- Tikhonov regularization:
- L1 regularization:
⁄
3.4. Chƣơng trình code của các thuật toán.
3.4.1.
Chƣơng
trình
code
của
phƣơng
pháp
Moo-PenPenrose
Psedoinverse
%======Khôi phục dữ liệu sử dụng phƣơng pháp "Moore-Penrose inverse"=========
Ý nghĩa
Code
SC1: Ma trận tán xạ
SC1 = pinv(Mt)*p_sc_t;
Mt: Ma trận M trong DBIM
p_sc_t: Áp suất tán xạ
SC1 = reshape(SC1,N,N);
figure;
surf(X,Y,abs(SC1));
Chuyển ma trận SC1 thành ma trận vuông
NxN.
Vẽ hình 3D độ lớn ma trận SC1
37
3.4.2. Chƣơng trình code của phƣơng pháp Tikhonov regularization
1. Chương trình khôi phục chính.
Ý nghĩa
Code
Lỗi nền, RRE càng nhỏ, chất lƣợng
RRE = 2^(-5);
càng tốt
gama = .5*(5.9303e-008)^2*1e-4;
Tham số chuẩn tắc Tikhonov, càng
nhỏ, càng chậm
delta_sound =
test_NCG(Mt,delta_sc_t,1e3,RRE,g
ama);
SC2 =
SC1+reshape(delta_sound,N,N);
Hàm khôi phục “test_NCG”
Cập nhật sự tƣơng phản âm thanh
2. Chương trình con “test_NCG”.
function[delta_sound]=test_NCG(Mt,delta_sc_t,ni,RRE,gama)
3.4.3. Chƣơng trình code của phƣơng pháp L1 regularization
1. Chương trình khôi phục chính.
Code
lambda = 1e-15;
rel_tol =RRE;
AA=[real(Mt) – imag(Mt);imag(Mt) real(Mt);];
yy=[real(delta_sc_t);imag(delta_sc_t)];
[xx,status]=l1_ls(AA,yy,lambda,rel_tol);
delta_sound=xx(1:length(xx)/2)+j*xx(1+length(xx)/2:end);
SC1=SC1+reshape(delta_sound,N,N);
2. Chương trình con “l1_ls”.
38
l1_ls(AA,yy,lambda,rel_tol);
3.5 . Kết quả mô phỏng.
Tham số mô phỏng: Tần số 1MHz, N = 21, Nsum = 8. Đƣờng kính đối
tƣợng 7.3mm, Độ tƣơng phản âm 7%, Nhiễu Gaussian 10%, Khoảng cách
máy phát , máy thu đến tâm = 100mm.
Ideal object function
percent of the sound contrast
30
25
20
15
10
5
0
2
1
2
1
0
0
-1
-1
-2
-2
Hình 3.2: Hàm mục tiêu lí tư ng
Hình 3.2 là hàm mục tiêu lí tƣởng trong kịch bản mô phỏng (N = 21)
(trong thực tế, nó chính là khối u lạ trong môi trƣờng đồng nhất). Mục tiêu
của chúng ta là khôi phục đƣợc đối tƣợng trên, sử dụng các mô hình, các kĩ
thuật xử lí tín hiệu để khôi phục đƣợc ảnh với chất lƣợng tốt nhất và thời gian
khôi phục nhanh nhất.
3.5.1. Mô phỏng sử dụng phƣơng pháp Tikhonov.
Thay đổi số MP,
Lỗi chuẩn hóa từ vòng lặp 1 đến vòng lặp 8
MT
Thời gian
NP = NT = 8
0.9490
0.9427 0.9424 0.9424
0.9424 0.9424
0.9424
0.9424
61.846577
NP = NT = 10
0.6207
0.5179 0.4872 0.4707
0.4600 0.4524
0.4470
0.4431
87.693626
NP = NT = 12
0.8259
0.7999 0.7943 0.7925
0.7916 0.7912
0.7911
0.7911
94.968234
NP = NT = 14
0.8000
0.7464
0.7145 0.7111
0.7087
0.7070
130.845553
0.7281 0.7195
39
NP = NT = 16
0.4290
0.2691 0.2382 0.2320
0.2302 0.2294
0.2291
0.2290
130.258239
NP = NT = 18
0.4017
0.2419 0.2081 0.1960
0.1900 0.1862
0.1834
0.1812
152.313615
NP = NT = 20
0.3548
0.2266 0.1822 0.1584
0.1449 0.1363
0.1302
0.1256
168.393346
NP = NT = 22
0.4038
0.1778 0.0949 0.0755
0.0668 0.0615
0.0576
0.0546
192.820992
NP = NT = 24
0.3179
0.1999
0.1457 0.1253
0.1125 0.1031
0.0959
0.0900
233.365111
NP = NT = 26
0.2677
0.0909 0.0425 0.0286
0.0220 0.0178
0.0150
0.0129
269.807922
NP = NT = 28
0.2545
0.1055 0.0401 0.0230
0.0161 0.0124
0.0101
0.0084
343.149005
NP = NT = 30
0.3551
0.1428 0.0667 0.0438
0.0318 0.0244
0.0194
0.0158
385.055147
Nhận xét:
+ Khi tăng số máy phát, máy thu thì lỗi chuẩn hóa giảm, nhƣng thời gian
tạo ảnh tăng.
+ Số máy phát, máy thu NP = NT = 28 cho lỗi nhỏ nhất là 0.0084.
3.5.2. Mô phỏng sử dụng phƣơng pháp L1 (N2 = 484).
Thay đổi số MP, MT
Lỗi chuẩn hóa từ vòng lặp 1 đến vòng lặp 8
Thời gian
NP = NT = 8 (NpNt = 64)
1.2559 1.2624
1.2624 1.2623 1.2623 1.2623 1.2623 1.2623
121.439561
NP = NT = 10 (NpNt = 100)
1.1440 1.1354
1.1353 1.1353 1.1353 1.1353 1.1353 1.1353
122.498515
NP = NT = 12 (NpNt = 144)
1.0836 1.0787
1.0786 1.0786 1.0786 1.0786 1.0786 1.0786
258.668851
NP = NT = 14 (NpNt = 196)
0.9686 0.9690
0.9681 0.9681 0.9681 0.9681 0.9681 0.9681
298.946565
NP = NT = 16 (NpNt = 256)
0.7962 0.7972
0.7978 0.7977 0.7977 0.7977 0.7977 0.7977
413.842807
NP = NT = 18 (NpNt = 324)
0.6470 0.6211
0.6221 0.6223 0.6223 0.6223 0.6223 0.6223
761.758941
NP = NT = 20 (NpNt = 400)
0.7664 0.6379
0.6375 0.6377 0.6376 0.6376 0.6376 0.6376
697.251724
NP = NT = 22 (NpNt = 484)
2.8511 0.7848
0.4247 0.3971
0.3946 0.3938 0.3934 0.3932
1124.067465
NP = NT = 24 (NpNt = 576)
0.5535 0.0570
0.0102 0.0080 0.0078 0.0077 0.0076 0.0075
474.090601
NP = NT = 26 (NpNt = 676)
0.3239 0.0450
0.0036 0.0017 0.0016 0.0016 0.0016 0.0016
424.798644
NP = NT = 28 (NpNt = 784)
0.8879 0.0157
0.0018 0.0014 0.0013 0.0013 0.0013 0.0013
445.144473
NP = NT = 30 (NpNt = 900)
0.1484 0.0180
0.0011 0.0005 0.0005 0.0005 0.0005 0.0005
562.230397
Thay đổi số MP, MT
Lỗi chuẩn hóa từ vòng lặp 1 đến vòng lặp 8
Thời gian
NP = NT = 16 (NpNt = 256)
0.7962 0.7972
0.7978 0.7977 0.7977 0.7977 0.7977 0.7977
413.842807
NP = 12; NT = 24 (NpNt = 288)
0.7493 0.7365
0.7364
648.272834
0.7364 0.7364 0.7364 0.7364 0.7364
40
NP = 24; NT = 12 (NpNt = 288)
0.8594 0.8364
0.8366 0.8366 0.8366 0.8366 0.8366 0.8366
469.800523
NP = NT = 22 (NpNt = 484)
2.8511 0.7848
0.4247 0.3971 0.3946
0.3938 0.3934 0.3932
1124.067465
NP = 30; NT = 16 (NpNt = 484)
2.7425 0.6821
0.4455 0.4191 0.4155 0.4148 0.4144 0.4141
1530.689987
NP = 16; NT = 30 (NpNt = 484)
2.5267 0.7306
0.5479 0.5372 0.5357 0.5351
0.5349 0.5342
1876.443748
NP = NT = 26 (NpNt = 676)
0.3239 0.0450
0.0036 0.0017 0.0016 0.0016 0.0016 0.0016
424.798644
NP = 21; NT = 32 (NpNt = 676)
0.5951 0.0462
0.0096 0.0079 0.0077 0.0076 0.0075 0.0074
676.611183
NP = 32; NT = 21 (NpNt = 676)
0.2649 0.0320
0.0025 0.0014 0.0013 0.0012 0.0012 0.0012
492.551895
Nhận xét:
+ Khi tăng số máy phát, máy thu thì lỗi chuẩn hóa giảm, nhƣng thời
gian tạo ảnh tăng.
+ Đặc biệt với phƣơng pháp L1, số máy phát, máy thu nhỏ nhƣng vẫn
khôi phục ảnh thành công. Trong khi đó, phƣơng pháp Tikhonov lại không
thể. Vậy thì với phƣơng pháp L1, thì số máy phát, máy thu nhỏ nhất bằng 8
mà vẫn khôi phục ảnh thành công.
+ Khi sử dụng phƣơng pháp L1 thì số máy phát và máy thu bằng nhau
cho kết quả khôi phục tốt (Np = Nt).
3.5.3. Đánh giá kết quả sử dụng phƣơng pháp Tikhonov và phƣơng pháp
L1.
Thay đổi số
Lỗi chuẩn hóa từ vòng lặp 1 đến vòng lặp 8
MP, MT
NP = NT = 8
NP = NT = 10
NP = NT = 12
NP = NT = 14
NP = NT = 16
Thời gian
Tikhonov
0.9490 0.9427
0.9424 0.9424 0.9424 0.9424 0.9424 0.9424
61.846577
L1
1.2559 1.2624
1.2624 1.2623 1.2623 1.2623 1.2623 1.2623
121.439561
% Sai lệch
24.44% 25.32% 25.34% 25.34% 25.34% 25.34% 25.34% 25.34%
Tikhonov
0.6207 0.5179
0.4872 0.4707 0.4600 0.4524 0.4470 0.4431
87.693626
L1
1.1440 1.1354
1.1353 1.1353 1.1353 1.1353 1.1353 1.1353
122.4985 15
49.10%
% Sai lệch
45.74% 54.38% 57.08% 58.54% 59.48% 60.15% 60.62% 60.97%
Tikhonov
0.8259 0.7999
0.7943 0.7925 0.7916 0.7912 0.7911 0.7911
94.968234
L1
1.0836 1.0787
1.0786 1.0786 1.0786 1.0786 1.0786 1.0786
258.668851
28.41%
% Sai lệch
23.78% 25.84% 26.35% 26.52% 26.60% 26.64% 26.65% 26.65%
Tikhonov
0.8000 0.7464
0.7281 0.7195 0.7145 0.7111 0.7087 0.7070
130.845553
L1
0.9686 0.9690
0.9681 0.9681 0.9681 0.9681 0.9681
298.946565
0.9681
63.28%
% Sai lệch
17.4% 22.97% 24.79% 25.67% 26.19% 26.54% 26.79% 26.97%
Tikhonov
0.4290 0.2691
0.2382 0.2320 0.2302 0.2294 0.2291 0.2290
130.258239
L1
0.7962 0.7972
0.7978
413.842807
0.7977 0.7977 0.7977 0.7977 0.7977
41
56.23%
% Sai lệch
46.11% 66.24% 70.14% 70.91% 70.91% 71.24% 71.27% 71.29%
Tikhonov
0.4017 0.2419
0.2081 0.1960 0.1900 0.1862 0.1834 0.1812
152.313615
0.6470 0.6211
0.6221 0.6223 0.6223 0.6223 0.6223 0.6223
761.758941
NP = NT = 18
L1
68.52%
% Sai lệch
37.91% 61.05% 66.54% 68.50% 69.46% 70.07% 70.52% 70.88%
Tikhonov
0.3548 0.2266
0.1822 0.1584 0.1449 0.1363
0.1302 0.1256
168.393346
L1
0.7664 0.6379
0.6375 0.6377 0.6376 0.6376 0.6376 0.6376
697.251724
NP = NT = 20
80%
% Sai lệch
53.70% 64.47% 71.41% 75.16% 77.27% 78.62% 79.57% 80.3%
Tikhonov
0.4038 0.1778
0.0949 0.0755 0.0668 0.0615 0.0576 0.0546
192.820992
L1
2.8511 0.7848
0.4247 0.3971 0.3946 0.3938 0.3934 0.3932
1124.067465
NP = NT = 22
75.84%
% Sai lệch
85.83% 77.34% 77.65% 80.98% 83.07% 84.38% 85.35% 86.11%
Tikhonov
0.3179 0.1999
0.1457 0.1253 0.1125 0.1031 0.0959 0.0900
233.365111
L1
0.5535 0.0570
0.0102 0.0080 0.0078 0.0077 0.0076 0.0075
474.090601
NP = NT = 24
82.84%
% Sai lệch
42.56% 71.48% 92.99% 93.61% 93.06% 92.53% 92.07% 91.66%
Tikhonov
0.2677 0.0909
0.0425 0.0286 0.0220 0.0178 0.0150 0.0129
269.807922
L1
0.3239 0.0450
0.0036 0.0017 0.0016 0.0016 0.0016 0.0016
424.798644
NP = NT = 26
50.77%S
% Sai lệch
17.35% 50.49% 91.52% 94.05% 92.72% 91.01% 89.33% 87.59%
Tikhonov
0.2545 0.1055
0.0401 0.0230 0.0161 0.0124 0.0101 0.0084
343.149005
L1
0.8879 0.0157
0.0018 0.0014 0.0013 0.0013 0.0013
445.144473
NP = NT = 28
36.48%
0.0013
% Sai lệch
71.33% 85.11% 95.51% 93.91% 91.92% 89.51% 87.12% 84.52%
Tikhonov
0.3551 0.1428
0.0667 0.0438 0.0318 0.0244 0.0194 0.0158
385.055147
L1
0.1484 0.0180
0.0011
562.230397
NP = NT = 30
% Sai lệch
22.91%
0.0005 0.0005 0.0005 0.0005 0.0005
58.2% 87.39% 98.35% 98.85% 98.42% 97.95% 97.42% 96.83%
31.51%
3.6. Kết quả mô phỏng sử dụng phƣơng pháp Tikhonov regularization.
……….P
P.
NP = NT = 8
NP = NT = 10
NP = NT = 12
NP = NT = 14
Nsum
25
14
26
25
8
6
4
22
20
18
16
20
§ é t- ¬ng ph¶n ©m (%)
10
24
§ é t- ¬ng ph¶n ©m (%)
m (%)
§ é t- ¬ng ph¶n ©
1
m (%)
§ é t- ¬ng ph¶n ©
12
15
10
5
2
20
15
10
5
14
22
22
20
18
16
14
12
10
8
6
4
2
6
4
2
14
12
10
8
16
20
18
20
18
22
16
14
12
10
8
6
4
2
2
4
6
12
14
16
18
20
20
20
15
20
15
15
10
10
5
5
15
10
10
5
10
8
20
22
5
30
16
30
25
10
8
6
4
§ é t- ¬ng ph¶n ©m (%)
m (%)
§ é t- ¬ng ph¶n ©
m (%)
§ é t- ¬ng ph¶n ©
2
12
25
20
15
§ é t- ¬ng ph¶n ©m (%)
25
14
20
15
10
2
5
15
10
5
10
22
20
20
18
16
14
12
10
8
6
4
2
2
4
6
10
8
12
14
16
18
20
22
22
20
18
20
16
14
12
10
8
6
4
2
2
4
6
10
8
12
14
16
18
20
20
22
20
15
20
15
15
10
15
10
10
5
42
10
5
5
5
30
30
16
12
m (%)
§ é t- ¬ng ph¶n ©
10
8
6
4
3
§ é t- ¬ng ph¶n ©m (%)
m (%)
§ é t- ¬ng ph¶n ©
30
2
25
20
§ é t- ¬ng ph¶n ©m (%)
25
14
20
15
10
15
5
25
20
15
10
5
10
22
20
18
16
14
12
10
8
6
4
2
4
2
8
6
22
22
20
18
16
14
12
10
20
15
20
18
16
14
12
10
8
6
20
20
4
2
2
4
6
10
8
12
14
16
18
22
20
20
15
15
10
15
10
10
10
5
5
5
5
30
16
30
30
10
8
6
4
25
20
15
20
15
10
5
10
2
22
§ é t- ¬ng ph¶n ©m (%)
m (%)
§ é t- ¬ng ph¶n ©
m (%)
§ é t- ¬ng ph¶n ©
4
12
22
16
14
12
10
8
6
4
2
6
4
2
20
18
16
14
12
10
8
18
22
16
14
12
10
8
6
4
2
2
4
6
12
14
16
18
20
20
15
10
20
22
20
20
15
20
15
15
10
10
5
5
15
10
10
5
10
8
25
5
20
20
18
§ é t- ¬ng ph¶n ©m (%)
25
14
5
30
16
30
30
10
8
6
4
§ é t- ¬ng ph¶n ©m (%)
m (%)
§ é t- ¬ng ph¶n ©
m (%)
§ é t- ¬ng ph¶n ©
5
12
25
20
15
20
15
10
10
5
2
22
22
16
14
12
10
8
6
4
2
6
4
2
18
22
20
18
16
14
12
10
8
25
20
15
10
5
20
20
18
§ é t- ¬ng ph¶n ©m (%)
25
14
16
14
12
10
8
6
4
2
2
4
6
12
14
16
18
20
20
20
15
20
15
15
10
15
10
10
5
10
8
20
22
5
10
5
5
35
30
16
30
8
6
4
25
20
15
20
15
10
10
2
22
5
22
20
18
16
14
12
10
8
6
4
2
6
4
2
18
16
14
12
10
8
6
4
2
2
4
6
8
12
14
16
18
20
20
15
10
20
20
22
20
15
20
15
15
10
10
5
5
15
10
10
5
10
25
5
20
22
20
18
16
14
12
10
8
§ é t- ¬ng ph¶n ©m (%)
10
§ é t- ¬ng ph¶n ©m (%)
m (%)
§ é t- ¬ng ph¶n ©
m (%)
§ é t- ¬ng ph¶n ©
6
12
30
25
14
5
35
30
16
30
30
10
8
6
4
25
20
15
10
25
20
15
10
5
2
22
22
20
18
16
14
12
10
8
6
4
2
2
4
6
10
8
12
14
16
18
20
18
22
20
§ é t- ¬ng ph¶n ©m (%)
12
§ é t- ¬ng ph¶n ©m (%).
m (%)
§ é t- ¬ng ph¶n ©
7
m (%)
§ é t- ¬ng ph¶n ©
14
16
14
12
10
8
6
4
2
2
4
6
12
14
16
18
20
20
15
10
5
20
22
20
20
15
20
15
15
10
15
10
10
5
10
8
25
5
10
5
5
35
30
16
30
10
8
6
4
25
20
15
10
20
15
10
5
2
22
§ é t- ¬ng ph¶n ©m (%)
12
§ é t- ¬ng ph¶n ©m (%)
m (%)
§ é t- ¬ng ph¶n ©
m (%)
§ é t- ¬ng ph¶n ©
8
30
25
14
5
22
20
18
16
14
12
10
8
6
4
2
2
4
6
10
8
12
14
16
18
20
22
25
20
15
10
5
20
18
16
14
12
10
8
6
4
2
2
4
6
10
8
12
14
16
18
20
22
20
20
20
15
20
15
15
10
5
43
15
10
10
10
5
5
5
……….P
P.
NP = NT = 16
NP = NT = 18
NP = NT = 20
NP = NT = 22
30
25
20
15
10
30
25
20
15
10
20
15
10
5
5
5
20
20
20
5
35
35
30
30
5
10
5
5
10
25
20
15
10
20
15
10
5
20
15
10
25
20
15
10
20
30
30
25
25
20
15
10
20
5
35
30
30
20
5
10
25
20
15
10
10
5
20
15
20
15
10
5
35
30
30
10
20
20
15
15
10
15
10
10
5
5
35
15
20
15
10
5
20
20
15
10
10
5
25
5
20
15
15
10
30
25
20
20
5
5
5
5
15
10
§ é t- ¬ng ph¶n ©m (%)
15
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
4
20
20
15
5
30
25
10
10
5
35
15
15
10
10
5
20
20
15
15
10
5
20
15
15
5
20
10
5
5
5
20
15
15
10
5
5
5
20
15
10
§ é t- ¬ng ph¶n ©m (%)
25
5
§ é t- ¬ng ph¶n ©m (%)
30
§ é t- ¬ng ph¶n ©m (%)
35
10
20
10
5
30
10
15
10
10
35
15
20
15
15
10
5
20
5
20
15
10
5
25
20
15
10
§ é t- ¬ng ph¶n ©m (%)
15
20
20
3
20
5
5
5
30
25
§ é t- ¬ng ph¶n ©m (%)
15
35
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
2
20
5
30
25
15
10
10
5
20
15
15
10
10
5
15
20
15
15
10
10
5
20
20
15
10
25
10
20
15
20
15
30
25
§ é t- ¬ng ph¶n ©m (%)
35
30
§ é t- ¬ng ph¶n ©m (%)
35
§ é t- ¬ng ph¶n ©m (%)
1
§ é t- ¬ng ph¶n ©m (%)
Nsum
10
5
5
5
15
10
5
25
20
15
10
25
30
20
25
§ é t- ¬ng ph¶n ©m (%)
20
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
5
§ é t- ¬ng ph¶n ©m (%)
30
25
15
10
5
5
20
15
10
5
20
20
20
20
15
20
15
15
10
10
10
5
10
10
5
5
20
15
10
5
5
20
15
15
20
15
10
15
5
10
5
5
30
25
20
15
10
20
15
10
20
15
20
15
15
10
10
5
25
20
15
10
5
20
20
15
20
15
15
10
15
10
10
10
5
15
15
10
10
5
20
20
20
20
25
5
5
5
30
30
25
§ é t- ¬ng ph¶n ©m (%)
35
30
§ é t- ¬ng ph¶n ©m (%)
35
§ é t- ¬ng ph¶n ©m (%)
6
§ é t- ¬ng ph¶n ©m (%)
5
5
44
10
5
5
5
35
35
30
30
30
15
10
25
20
15
10
10
5
25
20
15
10
25
20
15
10
20
15
30
25
25
20
15
10
……….P
P.
20
NP = NT = 24
15
10
10
5
5
20
15
15
10
10
5
5
10
20
15
15
10
10
5
15
5
20
15
20
20
15
5
30
20
20
10
5
5
5
5
15
10
5
§ é t- ¬ng ph¶n ©m (%)
30
§ é t- ¬ng ph¶n ©m (%)
35
30
20
15
10
5
5
10
20
10
5
35
10
15
10
§ é t- ¬ng ph¶n ©m (%)
5
15
20
15
15
10
10
20
5
20
15
10
25
20
15
20
15
§ é t- ¬ng ph¶n ©m (%)
15
20
20
8
20
5
5
5
25
§ é t- ¬ng ph¶n ©m (%)
20
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
7
§ é t- ¬ng ph¶n ©m (%)
30
25
NP = NT = 26
10
5
5
5
NP = NT = 28
NP = NT = 30
Nsum
35
30
30
30
15
10
25
20
15
10
5
5
15
10
5
20
15
5
5
20
15
10
20
20
15
10
15
10
20
15
10
10
5
5
20
15
15
10
10
5
5
20
20
15
15
10
10
5
25
5
20
15
30
20
15
5
20
20
15
10
5
5
5
5
15
10
§ é t- ¬ng ph¶n ©m (%)
25
§ é t- ¬ng ph¶n ©m (%)
30
25
§ é t- ¬ng ph¶n ©m (%)
30
25
10
20
15
5
30
10
20
10
5
15
10
15
10
10
20
15
20
15
15
10
5
20
5
20
15
10
5
25
20
15
10
§ é t- ¬ng ph¶n ©m (%)
20
20
20
2
25
§ é t- ¬ng ph¶n ©m (%)
20
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
1
§ é t- ¬ng ph¶n ©m (%)
30
25
10
5
5
5
30
30
30
25
25
25
20
15
10
20
15
10
20
20
20
15
5
5
10
15
10
20
20
15
20
15
15
10
10
5
20
5
15
10
10
15
20
20
15
15
10
20
5
5
5
§ é t- ¬ng ph¶n ©m (%)
25
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
3
§ é t- ¬ng ph¶n ©m (%)
30
15
10
10
10
5
5
45
5
5
5
30
30
30
25
25
25
15
10
20
15
10
20
20
15
10
5
5
5
20
20
5
15
10
10
5
5
20
15
15
10
10
5
10
20
15
15
10
10
5
15
5
20
15
15
10
20
20
20
15
§ é t- ¬ng ph¶n ©m (%)
20
§ é t- ¬ng ph¶n ©m (%)
25
§ é t- ¬ng ph¶n ©m (%)
4
§ é t- ¬ng ph¶n ©m (%)
30
5
10
5
5
30
30
30
25
25
25
15
10
20
15
10
20
20
15
10
5
5
5
20
20
15
10
20
20
15
15
10
15
10
10
10
5
5
20
15
15
10
10
5
5
15
5
20
15
10
5
20
20
15
10
§ é t- ¬ng ph¶n ©m (%)
20
§ é t- ¬ng ph¶n ©m (%)
25
§ é t- ¬ng ph¶n ©m (%)
5
§ é t- ¬ng ph¶n ©m (%)
30
5
5
5
30
30
30
25
25
25
15
10
20
15
10
5
5
20
15
10
5
20
20
20
15
5
15
10
20
20
20
15
15
10
5
5
15
10
10
10
5
5
20
15
15
10
10
10
20
5
20
15
15
10
§ é t- ¬ng ph¶n ©m (%)
20
§ é t- ¬ng ph¶n ©m (%)
25
§ é t- ¬ng ph¶n ©m (%)
6
§ é t- ¬ng ph¶n ©m (%)
30
5
5
5
30
30
30
25
25
25
15
10
20
15
10
5
5
20
15
10
15
10
20
15
10
10
10
5
5
20
15
15
10
10
5
5
10
20
15
15
10
10
5
15
20
20
15
20
15
20
5
5
20
20
§ é t- ¬ng ph¶n ©m (%)
20
§ é t- ¬ng ph¶n ©m (%)
25
§ é t- ¬ng ph¶n ©m (%)
7
§ é t- ¬ng ph¶n ©m (%)
30
5
5
5
30
30
30
25
25
25
15
10
20
15
10
5
5
20
15
5
20
15
10
5
20
20
15
20
15
15
10
10
5
10
15
10
10
5
15
20
20
15
15
10
20
5
20
20
§ é t- ¬ng ph¶n ©m (%)
20
§ é t- ¬ng ph¶n ©m (%)
25
§ é t- ¬ng ph¶n ©m (%)
8
§ é t- ¬ng ph¶n ©m (%)
30
5
46
15
10
10
5
10
5
5
5
3.7. Kết quả mô phỏng sử dụng phƣơng pháp L1 regularization.
……….P
P.
NP = NT = 8
NP = NT = 10
NP = NT = 12
NP = NT = 14
Nsum
70
60
60
50
50
40
30
20
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
1
50
50
40
30
20
40
30
20
10
10
10
20
20
20
15
20
20
20
15
15
10
10
5
5
20
15
15
10
10
5
5
30
20
15
10
10
5
40
10
20
15
15
10
§ é t- ¬ng ph¶n ©m (%)
60
60
5
5
70
10
5
60
60
50
50
40
30
20
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
2
50
50
40
30
20
40
30
20
10
10
10
20
20
5
70
10
5
5
15
10
10
5
20
15
15
10
10
5
5
20
20
15
15
10
10
5
30
10
20
15
15
10
40
20
20
20
15
§ é t- ¬ng ph¶n ©m (%)
60
60
5
60
60
50
50
40
30
20
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
3
50
50
40
30
20
40
30
20
10
10
10
20
20
20
15
20
20
20
15
15
10
70
10
5
5
15
10
10
5
5
20
15
15
10
10
5
5
30
10
20
15
10
5
40
20
15
10
§ é t- ¬ng ph¶n ©m (%)
60
60
5
60
60
50
50
40
30
20
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
p§ é t- ¬ng ph¶n ©m (%)
4
50
50
40
30
20
10
10
40
30
20
15
10
20
15
10
10
10
5
5
20
15
15
10
10
5
5
20
20
15
15
10
10
5
30
20
20
15
20
15
40
10
10
20
20
§ é t- ¬ng ph¶n ©m (%)
60
60
70
5
5
5
60
60
50
50
40
30
20
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
5
50
50
40
30
20
20
20
20
15
5
5
20
30
20
20
20
15
20
15
15
10
10
5
40
10
15
10
10
30
20
20
15
15
10
40
10
10
10
§ é t- ¬ng ph¶n ©m (%)
60
60
5
47
15
10
10
5
10
5
5
5
70
60
60
50
50
40
30
20
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
6
50
50
40
30
20
40
30
20
10
10
10
20
20
20
10
5
5
15
10
10
5
5
20
15
15
10
10
5
5
20
20
15
15
10
10
5
30
10
20
15
10
40
20
15
20
15
§ é t- ¬ng ph¶n ©m (%)
60
60
5
60
70
60
50
60
40
30
20
50
40
30
20
10
10
§ é t- ¬ng ph¶n ©m (%)
50
50
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
7
§ é t- ¬ng ph¶n ©m (%)
60
40
30
40
30
20
10
20
10
20
20
20
15
20
20
15
15
10
5
5
10
20
15
5
15
10
10
5
20
15
20
15
10
10
5
15
10
70
5
10
5
5
60
60
50
50
40
30
20
50
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
8
50
40
30
20
40
30
20
10
10
10
§ é t- ¬ng ph¶n ©m (%)
60
60
20
15
20
15
……….P
P.
NP = NT = 16
15
10
10
5
5
20
15
15
10
10
5
5
20
20
15
15
10
10
5
20
20
15
10
30
10
20
20
40
NP = NT = 18
10
5
5
5
NP = NT = 20
NP = NT = 22
Nsum
70
45
50
30
30
20
10
60
35
30
25
20
15
10
25
20
15
10
20
20
15
20
15
5
20
5
10
5
5
10
35
30
25
20
15
10
45
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
20
50
40
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
2
5
30
45
30
15
10
50
40
20
15
10
5
50
20
15
10
10
5
30
20
15
15
10
10
5
40
20
15
10
50
10
5
5
20
§ é t- ¬ng ph¶n ©m (%)
40
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
1
§ é t- ¬ng ph¶n ©m (%)
40
25
20
15
10
40
35
30
25
20
15
10
5
5
5
20
20
20
20
15
20
15
15
10
5
5
5
20
15
15
10
10
10
20
20
15
15
10
5
48
15
10
10
5
10
5
5
5
50
40
30
45
30
20
10
§ é t- ¬ng ph¶n ©m (%)
40
35
30
25
20
15
10
25
20
15
10
20
15
20
20
10
5
35
35
30
25
20
15
10
25
20
15
10
5
5
20
20
10
5
40
35
35
30
25
20
15
10
25
20
15
10
5
5
20
20
10
5
10
40
35
30
25
20
15
10
25
20
15
10
20
15
20
5
20
10
5
5
35
§ é t- ¬ng ph¶n ©m (%)
35
30
25
20
15
10
25
20
15
10
5
5
20
20
10
5
35
35
30
25
20
15
10
20
20
15
15
10
10
5
30
25
20
15
10
5
20
20
15
20
15
15
10
15
10
10
10
10
5
15
15
10
10
5
20
20
20
15
25
5
5
20
§ é t- ¬ng ph¶n ©m (%)
10
40
§ é t- ¬ng ph¶n ©m (%)
20
5
30
40
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
8
15
10
5
45
30
20
15
10
5
50
40
10
20
5
50
15
15
10
10
5
5
20
20
15
15
10
10
5
25
5
20
15
15
10
30
20
20
15
§ é t- ¬ng ph¶n ©m (%)
10
40
40
20
5
30
45
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
7
15
10
50
30
20
15
10
5
5
40
10
15
10
10
5
50
15
20
15
15
10
10
5
20
5
15
25
20
20
10
30
5
5
15
§ é t- ¬ng ph¶n ©m (%)
35
20
30
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
20
5
40
6
15
10
5
45
30
20
15
10
5
50
40
10
20
5
50
15
15
10
10
5
5
20
20
15
15
10
10
5
25
5
20
15
15
10
30
20
20
15
§ é t- ¬ng ph¶n ©m (%)
10
30
§ é t- ¬ng ph¶n ©m (%)
20
5
40
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
5
15
10
5
45
30
20
15
10
5
50
40
10
20
5
50
15
15
10
10
5
5
20
20
15
15
10
10
5
25
5
20
15
15
10
30
20
20
15
§ é t- ¬ng ph¶n ©m (%)
10
§ é t- ¬ng ph¶n ©m (%)
20
40
40
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
4
5
30
45
30
15
10
5
50
40
20
15
10
5
5
50
10
15
10
10
5
5
15
20
15
15
10
10
5
20
5
15
10
25
20
20
15
30
5
5
20
§ é t- ¬ng ph¶n ©m (%)
35
40
§ é t- ¬ng ph¶n ©m (%)
3
§ é t- ¬ng ph¶n ©m (%)
50
5
5
49
5
5
5
……….P
P.
NP = NT = 24
NP = NT = 26
NP = NT = 28
NP = NT = 30
Nsum
45
40
45
40
30
25
20
15
10
5
50
35
30
25
20
15
10
20
15
5
10
5
5
25
10
15
10
5
20
15
10
5
20
15
15
10
20
20
15
15
10
5
10
5
25
15
10
15
10
5
5
20
15
10
20
20
10
20
5
10
5
5
25
15
10
5
15
10
5
20
20
15
10
20
10
20
5
10
5
5
25
15
10
5
15
10
5
20
20
15
10
20
10
20
5
15
10
10
10
5
5
20
15
15
10
10
5
15
20
15
15
10
10
5
20
20
20
15
15
10
5
5
20
15
§ é t- ¬ng ph¶n ©m (%)
30
25
§ é t- ¬ng ph¶n ©m (%)
30
25
§ é t- ¬ng ph¶n ©m (%)
30
25
20
5
30
20
15
10
10
5
5
20
15
15
10
10
5
15
20
15
15
10
10
5
20
20
20
15
15
10
5
5
20
15
§ é t- ¬ng ph¶n ©m (%)
30
25
§ é t- ¬ng ph¶n ©m (%)
30
25
§ é t- ¬ng ph¶n ©m (%)
30
25
20
5
30
20
15
10
10
5
5
20
15
15
10
10
5
15
20
15
15
10
10
5
20
20
20
15
15
10
5
5
20
15
§ é t- ¬ng ph¶n ©m (%)
30
25
§ é t- ¬ng ph¶n ©m (%)
30
25
§ é t- ¬ng ph¶n ©m (%)
30
25
20
5
30
20
15
10
10
5
5
20
15
15
10
10
5
5
20
20
20
20
10
5
5
15
10
§ é t- ¬ng ph¶n ©m (%)
30
25
§ é t- ¬ng ph¶n ©m (%)
30
25
20
5
30
15
15
10
25
20
20
15
10
5
30
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
20
5
15
§ é t- ¬ng ph¶n ©m (%)
10
15
10
10
5
20
§ é t- ¬ng ph¶n ©m (%)
15
20
15
15
10
5
§ é t- ¬ng ph¶n ©m (%)
20
20
10
25
5
20
5
5
20
30
10
15
10
4
30
20
15
3
40
5
20
2
35
§ é t- ¬ng ph¶n ©m (%)
35
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
1
§ é t- ¬ng ph¶n ©m (%)
40
30
30
30
25
25
25
5
5
5
15
10
20
15
10
5
5
25
§ é t- ¬ng ph¶n ©m (%)
20
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
6
§ é t- ¬ng ph¶n ©m (%)
30
20
15
10
20
15
10
5
5
20
20
15
20
20
15
15
10
15
15
10
10
5
5
10
5
5
50
15
10
10
20
15
10
10
5
20
15
20
20
5
5
5
30
30
25
25
30
15
10
20
25
15
10
§ é t- ¬ng ph¶n ©m (%)
20
25
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
7
§ é t- ¬ng ph¶n ©m (%)
30
20
15
10
5
15
10
5
5
5
20
20
20
20
15
20
30
25
25
10
5
20
15
10
15
10
20
5
NP = 12; NT = 24
15
10
10
5
5
20
15
15
10
10
5
10
20
15
15
10
10
5
15
5
20
15
15
10
20
20
20
20
15
……….P
P.
20
5
5
20
§ é t- ¬ng ph¶n ©m (%)
30
25
§ é t- ¬ng ph¶n ©m (%)
30
15
5
25
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
8
10
5
30
20
15
10
5
20
15
5
10
5
5
5
15
10
10
5
10
20
15
15
10
20
15
10
20
15
NP = 16; NT = 30
10
5
5
5
NP = 21; NT = 32
NP = 24; NT = 12
Nsum
70
50
50
50
20
10
50
40
30
20
§ é t- ¬ng ph¶n ©m (%)
30
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
1
§ é t- ¬ng ph¶n ©m (%)
45
60
40
40
30
20
20
10
5
5
45
10
35
30
25
20
15
§ é t- ¬ng ph¶n ©m (%)
20
25
40
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
2
20
15
10
20
20
20
15
5
5
5
35
30
25
20
15
10
10
45
20
15
10
20
20
15
5
5
30
25
20
15
20
20
15
15
10
5
20
15
15
10
10
10
35
5
20
15
10
40
10
5
20
15
50
5
20
5
25
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
20
10
5
30
40
3
15
10
5
45
30
20
15
10
5
40
15
20
10
50
20
15
10
§ é t- ¬ng ph¶n ©m (%)
5
25
20
15
15
10
10
30
20
15
10
35
5
5
15
40
10
5
10
20
50
45
30
5
30
50
40
15
10
10
5
5
20
15
15
10
10
5
50
15
20
15
10
5
20
20
15
20
15
10
5
25
5
15
10
30
20
20
15
35
10
10
10
20
40
15
10
10
10
5
5
51
5
5
5
30
45
30
20
10
50
45
25
35
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
4
§ é t- ¬ng ph¶n ©m (%)
40
40
30
25
20
15
10
§ é t- ¬ng ph¶n ©m (%)
50
20
15
10
20
20
10
5
10
45
25
20
15
10
§ é t- ¬ng ph¶n ©m (%)
20
30
20
15
10
20
20
15
10
5
45
25
20
15
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
10
30
20
15
10
10
20
20
15
5
10
5
45
25
20
15
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
10
30
20
15
10
40
35
30
25
20
15
10
5
10
50
25
35
5
30
20
15
10
5
40
7
20
15
10
5
45
30
15
20
5
40
20
15
10
10
10
50
25
20
15
15
10
5
30
20
15
5
35
5
20
20
10
40
10
5
5
15
50
25
35
5
30
40
6
15
10
5
45
20
20
15
10
5
50
30
15
20
5
40
20
15
10
10
5
5
25
20
15
15
10
10
5
30
20
15
10
35
5
20
15
40
10
5
5
20
50
25
35
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
40
5
30
45
5
15
10
5
50
30
20
15
10
5
5
40
15
15
10
10
5
5
20
20
15
15
10
10
5
25
20
20
15
15
10
30
5
20
15
35
10
5
5
20
40
5
5
20
20
15
10
10
5
5
50
10
30
25
20
15
10
§ é t- ¬ng ph¶n ©m (%)
20
45
25
35
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
§ é t- ¬ng ph¶n ©m (%)
40
8
20
15
10
20
20
15
10
25
20
15
20
15
15
10
10
5
5
20
15
15
10
5
30
20
20
15
10
35
5
20
15
40
10
5
5
20
30
45
30
5
50
40
15
10
10
5
5
20
15
15
10
5
5
15
10
10
5
20
15
20
15
15
10
20
20
20
52
5
15
10
10
10
5
5
5
5
KẾT LUẬN
Qua thời gian tìm hiểu và nghiên cứu hoàn thành khóa luận dƣới sự
hƣớng dẫn chỉ bảo của thầy giáo hƣớng dẫn, sự giúp đỡ nhiệt tình của thầy cô,
bạn bè. Em đã hoàn thành bài khóa luận này và thu đƣợc kết quả nhƣ sau:
- Nắm đƣợc một số kiến thức toán cơ bản ứng dụng trong kỹ thuật siêu
âm cắt lớp.
- Nghiên cứu các phƣơng pháp toán học nhằm nâng cao chất lƣợng khôi
phục ảnh y sinh, cụ thể là phƣơng pháp Moo-PenPenrose Psedoinverse,
phƣơng pháp Tikhonov regularization, phƣơng pháp L1 regularization.
- Mô phỏng phƣơng pháp lặp vi phân Born sử dụng phƣơng pháp
Tikhonov và phƣơng pháp L1. Kết quả mô phỏng chỉ ra rằng chất lƣợng khôi
phục của phƣơng pháp L1 tốt hơn nhiều so với phƣơng pháp Tikhonov. Tuy
nhiên, thời gian tạo ảnh của L1 lại lớn hơn đáng kể so với phƣơng pháp
Tikhonov. Nếu có thể áp dụng các kĩ thuật xử lí tín hiệu để tăng tốc quá trình
tạo ảnh, thì phƣơng pháp L1 có thể áp dụng trong thực tiễn y khoa.
- Biết đƣợc trình tự làm một nghiên cứu khoa học.
Hạn chế của khóa luận là, một số các phƣơng pháp mới để khôi phục
ảnh y sinh chƣa đƣợc khai thác hết, chẳng hạn nhƣ phƣơng pháp L1
homotopy, L1 magic.
Cuối cùng tôi rất mong muốn đƣợc sự đóng góp ý kiến, giúp đỡ, cộng tác
nghiên cứu để đề tài có ý nghĩa hơn và ứng dụng vào đời sống xã hội.
53
TÀI LIỆU THAM KHẢO
[2.1] A. Neumaier, “Solving ill-conditioned and singular linear systems: A
tutorial on regularization,” SIAM Rev., vol. 40, no. 3, pp. 636–666, 1998.
[2.2] B. Efron, T. Hastie, I. Johnstone, and R. Tibshirani, “Least angle
regression,” Ann. Statist., vol. 32, no. 2, pp. 407–499, 2004.
[2.3] T. Hastie, R. Tibshirani, and J. Friedman, The Elements of Statistical
Learning. New York: Springer-Verlag, 2001, Springer Series in Statistics.
[2.4] R. Tibshirani, “Regression shrinkage and selection via the lasso,” J. Roy.
Statist. Soc., ser. B, vol. 58, no. 1, pp. 267–288, 1996.
[2.5] S. Chen, D. Donoho, and M. Saunders, “Atomic decomposition by basis
pursuit,” SIAM Rev., vol. 43, no. 1, pp. 129–159, 2001.
[2.6] E. Candès, “Compressive sampling,” Proc. Int. Congr. Mathematics,
2006.
[2.7] E. Candès, J. Romberg, and T. Tao, “Robust uncertainty principles:
Exact signal reconstruction from highly incomplete frequency information,”
IEEE Trans. Inf. Theory, vol. 52, no. 2, pp. 489–509, Feb. 2006.
[2.8] E. Candès, J. Romberg, and T. Tao, “Stable signal recovery from
incomplete and inaccurate measurements,” Commun. Pure Appl. Math., vol.
59, no. 8, pp. 1207–1223, 2005.
[2.9] D. Donoho, “Compressed sensing,” IEEE Trans. Inf. Theory, vol. 52,
no. 4, pp. 1289–1306, Apr. 2006.
[2.10] D. Donoho, M. Elad, and V. Temlyakov, “Stable recovery of sparse
overcomplete representations in the presence of noise,” IEEE Trans. Inf.
Theory, vol. 52, no. 1, pp. 6–18, Jan. 2006.
[2.11] Y. Tsaig and D. Donoho, “Extensions of compressed sensing,” Signal
Process., vol. 86, no. 3, pp. 549–571, 2006.
54
[2.12] J. Tropp, “Just relax: Convex programming methods for identifying
sparse signals in noise,” IEEE Trans. Inf. Theory, vol. 52, no. 3, pp. 1030–
1051, Mar. 2006.
[2.13] H. Zou and T. Hastie, “Regularization and variable selection via the
elastic net,” Journal of the Roy. Statist. Soc., ser. B, vol. 67, no. 2, pp. 301–
320, 2005.
[2.14] N. Z. Shor, “Minimization methods for non-differentiable functions,”
Springer Series in Computational Mathematics, 1985, Springer.
[2.15] B. Polyak, “Introduction to optimization,” Optimization Software,
1987, Translated from Russian.
[2.16] D. Luenberger, Linear and Nonlinear Programming, 2nd ed. Reading,
MA: Addison-Wesley, 1984.
[2.17] Y. Nesterov and A. Nemirovsky, “Interior-point polynomial methods
in convex programming,” Studies in Applied Mathematics, vol. 13, 1994,
SIAM: Philadelphia, PA.
[2.18] S. Wright, “Primal-dual interior-point methods,” Society for Industrial
and Applied Mathematics, 1997, SIAM: Philadelphia, PA.
[2.19] Y. Ye, Interior Point Algorithms: Theory and Analysis. New York:
Wiley, 1997.
[2.20] The MOSEK Optimization Tools Version 2.5. User‟s Manual and
Reference 2002 [Online]. Available: www.mosek.com, MOSEK ApS
Available from
[2.21] C. Johnson, J. Seidel, and A. Sofer, “Interior point methodology for
3-D PET reconstruction,” IEEE Trans. Med. Imag., vol. 19, no. 4, pp. 271–
285, 2000.
[2.22] E. Candès and J. Romberg, l -magic: A Collection of MATLAB
Routines for Solving the Convex Optimization Programs Central to
55
Compressive
Sampling
2006
[Online].
Available:
www.acm.caltech.
edu/l1magic/
[2.23] M. Saunders, PDCO: Primal-Dual Interior Method for Convex
Objectives 2002 [Online]. Available: http://www.stanford.edu/group/SOL/
software/pdco.html
[2.24] C. Paige and M. Saunders, “LSQR: An algorithm for sparse linear
equations and sparse least squares,” ACM Trans. Mathemat. Software, vol. 8,
no. 1, pp. 43–71, 1982.
[2.25] D. Donoho and Y. Tsaig, “Fast solution of l -norm minimization
problems when the solution may be sparse,” Manuscript 2006 [Online].
Available: http://www.stanford.edu/
[2.26] T. Hastie, S. Rosset, R. Tibshirani, and J. Zhu, “The entire
regularization path for the support vector machine,” J. Mach. Learning Res.,
vol.5, pp. 1391–1415, 2004.
[2.27] S. Rosset, , L. Saul, Y. Weiss, and L. Bottou, Eds., “Tracking curved
regularized optimization solution paths,” in Advances in Neural Information
Processing Systems 17. Cambridge, MA: MIT Press, 2005.
[2.28] M. Osborne, B. Presnell, and B. Turlach, “A new approach to variable
selection in least squares problems,” IMA J. Numer. Anal., vol. 20, no. 3, pp.
389–403, 2000.
[2.29] J. Friedman, T. Hastie T, and R. Tibshirani, Pathwise Coordinate
Optimization
2007
[Online].
Available:
www-stat.stanford.
edu/hastie/pub.htm
[2.30] E. Hale, W. Yin, and Y. Zhang, “A fixed-point continuation method for
L1 regularized minimization with applications to compressed sensing,”
Manuscript 2007 [Online]. Available: http://www.dsp.ece.rice.edu/cs/
56
[2.31] S. Osher,M. Burger, D. Goldfarb, J. Xu, and W. Yin, “An iterative
regularization method for total variation based image restoration,” SIAM J.
Multiscale Modeling and Simulation, vol. 4, no. 2, pp. 460–489, 2005.
[2.32] W. Yin, S. Osher, J. Darbon, and D. Goldfarb, Bregman Iterative
Algorithms for Compessed Sensing and Related Problems 2007 [Online].
Available: http://www.math.ucla.edu/applied/cam/index.shtml
[2.33] G. Narkiss and M. Zibulevsky, Sequential Subspace Optimization
Method for Large-Scale Unconstrained Problems The Technion, Haifa, Israel,
Tech. Rep. CCIT No 559, 2005.
[2.34] M. Figueiredo and R. Nowak, “A bound optimization approach to
wavelet-based image deconvolution,” in Proc. IEEE Int. Conf. Image
Processing (ICIP), 2005, pp. 782–785.
[2.35] I. Daubechies, M. Defrise, and C. De Mol, “An iterative thresholding
algorithm for linear inverse problems with a sparsity constraint,” Commun.
Pure Appl. Mathe., vol. 57, pp. 1413–1541, 2004.
[2.36] M. Elad, B. Matalon, and M. Zibulevsky, “Image denoising with
shrinkage and redundant representations,” in Proc. IEEE Computer Society
Conf. Computer Vision and Pattern Recognition (CVPR), 2006, vol. 2, pp.
1924–1931.
[2.37] Y. Nesterov, “Gradient methods for minimizing composite objective
function,” 2007, CORE Discussion Paper 2007/76 [Online]. Available:
http://www.optimization-online.org/DB_HTML/2007/09/1784.html.
[2.38] M. Figueiredo, R. Nowak, and S. Wright, “Gradient projection for
sparse reconstruction: Application to compressed sensing and other inverse
problems,” IEEE J. Select. Topics Signal Process., 2007.
57
[...]... nâng cao chất lượng khôi phục ảnh y sinh 2 Mục đích nghiên cứu Tìm hiểu các phƣơng pháp toán học tiên tiến nhằm nâng cao chất lƣợng khôi phục ảnh y sinh, cụ thể là ảnh siêu âm cắt lớp 3 Giả thuyết khoa học Nếu nắm đƣợc các phƣơng pháp toán học tiên tiến thì đã bƣớc đầu tiếp cận đƣợc việc nâng cao chất lƣợng khôi phục ảnh y sinh 3 Đối tƣợng và phạm vi nghiên cứu - Đối tƣợng: Các phƣơng pháp toán học tiên. .. tiên tiến ứng dụng trong y sinh - Phạm vi nghiên cứu: Xử lí tín hiệu y sinh 4 Nhiệm vụ nghiên cứu - Nghiên cứu một số kiến thức toán cơ bản ứng dụng trong khôi phục ảnh y sinh 2 - Nghiên cứu các phƣơng pháp toán học nâng cao chất lƣợng khôi phục ảnh y sinh 5 Phƣơng pháp nghiên cứu Sử dụng các phƣơng pháp nghiên cứu lí thuyết kết hợp với mô phỏng 6 Cấu trúc luận văn Chƣơng 1: Một số kiến thức toán cơ... suy hao, đƣợc ứng dụng để tìm ra các đối tƣợng có kích thƣớc nhỏ Hai phƣơng pháp lặp Born (Born Iterative Method - BIM) và lặp vi phân Born (Distorted Born Iterative Method - DBIM) là hai phƣơng pháp đƣợc cho là tốt nhất hiện nay để tạo ảnh tán xạ Vì v y, sau một thời gian học tập và nghiên cứu, chúng tôi đã lựa chọn và nghiên cứu đề tài: Nghiên cứu các phương pháp toán học tiên tiến trong việc nâng. .. luận văn Chƣơng 1: Một số kiến thức toán cơ bản ứng dụng trong kĩ thuật siêu âm cắt lớp Chƣơng 2: Các phƣơng pháp toán học nâng cao chất lƣợng khôi phục ảnh y sinh Chƣơng 3: Mô phỏng và kết quả 3 Chƣơng 1: Một số kiến thức toán cơ bản ứng dụng trong kĩ thuật siêu âm cắt lớp 1.1 Chuẩn ma trận, vectơ 1.1.1 Ma trận Trong phần n y, chúng tôi giới thiệu các khái niệm cơ bản về ma trận: Ma trận vuông, ma trận... Giải pháp đối với vấn đề n y (tức là, phân bố mật độ phù hợp với dữ liệu nhất) là rất cần thiết bởi vì nó chỉ cho chúng ta biết về tham số vật lí mà chúng ta không thể quan sát trực tiếp Vì v y, bài toán ngƣợc là một trong những bài toán đƣợc nghiên cứu sâu và quan trọng nhất trong khoa học và toán học Bài toán ngƣợc phát triển trong nhiều ngành, bao gồm, thị lực m y tính, xử lí ngôn ngữ tự nhiên, học. .. giá trị xác định của x 1.4 Bài toán giả định đúng và bài toán giả định sai Bài toán giả định đúng đƣợc đề xƣớng bởi Jacques Hadamard Ông cho rằng, mô hình toán học của hiện tƣợng vật lí có các tính chất sau: + Tồn tại một giải pháp 12 + Giải pháp là duy nhất + Hoạt động của giải pháp thay đổi liên tục theo điều kiện ban đầu Các ví dụ về bài toán giả định đúng bao gồm bài toán Dirichlet cho phƣơng trình... noise) Trong bất kì trƣờng hợp nào, sai số ở dữ liệu quan sát sẽ tạo ra sai số ở tham số mô hình khôi phục, mà chúng ta thu đƣợc bằng cách giải bài toán ngƣợc Để tránh các sai số n y, chúng ta muốn hạn chế các giải pháp có thể để nhấn mạnh các đặc điểm có thể nhất định trong mô hình của chúng ta Loại hạn chế n y đƣợc gọi là chuẩn tắc (Regularization) 1.6 Chuẩn tắc (Regularization) Chuẩn tắc, trong toán học, ... ứng unwrapped phase, nó là hàm liên tục của t 20 Chƣơng 2: Các phƣơng pháp toán học nâng cao chất lƣợng khôi phục ảnh y sinh 2.1 Phƣơng pháp Moo-PenPenrose Psedoinverse Giả sử chúng ta cần giải một hệ phƣơng trình tuyến tính, với số phƣơng trình nhiều hơn ẩn số Phƣơng trình tổng quát của hệ thống có dạng: ⃗ ⃗ chúng ta cần tìm⃗⃗⃗ nếu biết A và ⃗ Trong đó: ⃗ là một vector; ⃗⃗⃗⃗ là một vector; A là một ma... bài toán giả định đúng vì giải pháp n y có sự nh y cao với sự thay đổi ở dữ liệu cuối cùng Thông thƣờng, mô hình liên tục phải đƣợc rời rạc hóa để có thể tính toán bằng phƣơng pháp số (numerical solution) Trong khi các giải pháp có thể liên tục tƣơng ứng với điều kiện ban đầu, chúng có thể gặp phải tính không ổn định số khi đƣợc giải quyết với độ chính xác có hạn, hoặc với lỗi trong dữ liệu Ngay cả... Trong các bối cảnh khác nhau, toán tử G đƣợc gọi là toán tử thuận, toán tử quan sát hay hàm quan sát Trong bối cảnh chung nhất, G đại diện cho phƣơng trình chi phối mà nó liên quan đến tham số mô hình đối với dữ liệu quan sát 1.5.4 Bài toán ngƣợc tuyến tính Trong trƣờng hợp bài toán ngƣợc tuyến tính rời rạc, mà nó mô tả hệ thống tuyến tính, d (dữ liệu) và m (mô hình tốt nhất) là vectơ, và bài toán có thể ... nghiên cứu - Nghiên cứu số kiến thức toán ứng dụng khôi phục ảnh y sinh - Nghiên cứu phƣơng pháp toán học nâng cao chất lƣợng khôi phục ảnh y sinh Phƣơng pháp nghiên cứu Sử dụng phƣơng pháp nghiên. .. pháp đƣợc cho tốt để tạo ảnh tán xạ Vì v y, sau thời gian học tập nghiên cứu, lựa chọn nghiên cứu đề tài: Nghiên cứu phương pháp toán học tiên tiến việc nâng cao chất lượng khôi phục ảnh y sinh ... cận đƣợc việc nâng cao chất lƣợng khôi phục ảnh y sinh Đối tƣợng phạm vi nghiên cứu - Đối tƣợng: Các phƣơng pháp toán học tiên tiến ứng dụng y sinh - Phạm vi nghiên cứu: Xử lí tín hiệu y sinh Nhiệm
Ngày đăng: 23/10/2015, 15:51
Xem thêm: Nghiên cứu các phương pháp toán học tiên tiến trong việc nâng cao chất lượng khôi phục ảnh y sinh (KL07434), Nghiên cứu các phương pháp toán học tiên tiến trong việc nâng cao chất lượng khôi phục ảnh y sinh (KL07434)