查看“︁超解析度成像”︁的源代码
←
超解析度成像
跳转到导航
跳转到搜索
因为以下原因,您没有权限编辑该页面:
您请求的操作仅限属于该用户组的用户执行:
用户
您可以查看和复制此页面的源代码。
{{Expand language|en}} '''超解析度成像'''(Super-resolution imaging,縮寫SR),是一種提高影片解析度的技術。在一些稱為「光學SR」的SR技術中,系統的繞射極限被超越;而在其他所謂的「幾何SR」中,數位[[感光元件]]的分辨率因而提高。超解析度成像技術用於一般[[图像处理|圖像處理]]和超高解析度顯微鏡。 == 小波變換相關技術 == 在2000年以來,小波變換的技術被使用在提高影像的解析度。 === '''DASR'''<ref>{{Cite journal|title=Image Super Resolution Based on Interpolation of Wavelet Domain High Frequency Subbands and the Spatial Domain Input Image|author=Gholamreza Anbarjafari Hasan Demirel|url=https://onlinelibrary.wiley.com/doi/abs/10.4218/etrij.10.0109.0303|journal=ETRI Journal|issue=Volume 32|doi=|others=|year=2010|volume=|page=|pmid=|access-date=2020-01-15|archive-date=2020-01-15|archive-url=https://web.archive.org/web/20200115075505/https://onlinelibrary.wiley.com/doi/abs/10.4218/etrij.10.0109.0303|dead-url=no}}</ref> === DASR (Demirel-Anbarjafari Super Resolution)是使用[[離散小波變換]](Discrete wavelet transform)來進行超解析度成像的方法。當時,超解析度成像通常是以內插影像的像素值來完成,而作者認為,對影像中的高頻部份進行內插是造成品質降低的主要理由,因為內插高頻部份讓物體的邊界變得模糊且平滑,於是提出使用[[離散小波變換]]的算法來減輕這個問題。 影像可以表示成二維的訊號,經過二維的離散小波變換,可以被分解成四個不同頻段的影像,分別是:low-low (LL), low-high (LH), high-low (HL) 和 high-high (HH),各自代表在不同維度是高頻或低頻,舉例來說,LH就是在原影像的第一維(x軸)是低頻而在第二維(y軸)是高頻的分解後結果。 將原影像分解為LL, LH, HL和HH後,DASR會對高頻段的三張影像LH, HL和HH分別做內插,以產生高解析度的LH, HL和HH。這是由於作者認為,將不同的高頻影像各自做內插,能夠避免彼此干擾,進而保留更多的高頻資訊。DASR不會內插LL,而是內插原圖來當作高解析度的LL,因為原圖比LL含有更多資訊。取得四張高解析度的LL, LH, HL和HH後,DASR將四張影像經過逆離散小波變換(Inversed discrete wavelet transform),來生成最終的成像結果。 DASR當時在 Lena, Elaine, Pepper和Baboon上取得State-of-the-art的結果,並超越傳統使用內插和其它使用離散小波變換的方法。 == 深度神經網路相關技術 == 隨著神經網路的流行,相關技術也被應用在提高圖片解析度。 === SRCNN<ref>{{Cite arxiv|last=Chao|first=Dong|last2=Chen Change|first2=Loy|last3=Kaiming|first3=He|last4=Xiaoou|first4=Tang|date=2015-05-27|title=Image Super-Resolution Using Deep Convolutional Networks|arxiv=1501.00092}}</ref>=== SRCNN ( Super-resolution convolution neural network )是一個神經網路,輸入是一個低解析度(视觉上)的圖像,而輸出是一個高解析度的圖像,這裡需要注意的是,在將圖像餵進神經網路前,需要先經過一個預處理bicubic interpolation,將原始圖片變成跟想要的高解析度圖像一樣大小後,再餵進神經網路中。而神經網路做的事情,主要分成三個步驟區塊特徵抽取與表達(Patch extraction and representation)、非線性對應(non-linear mapping)以及重建(reconstruction)。 ==== 區塊特徵抽取與表達(Patch extraction and representation) ==== 這一步就如同一般的CNN ( convolution neural network ),只是沒有經過max-pooling,公式如下。 <center><math>F_1(Y) = \max(0, W_1 \ast Y + B_1)</math></center> <math>Y</math>代表已經經過bicubic interpolation的圖像,<math>F_1(Y)</math>則為這層神經網路的輸出,<math>W_1</math>代表<math>n_1</math>個<math>c \times f_1 \times f_1</math>的filter(<math>c</math>是圖像的channel數量,而<math>f_1</math>則為filter的大小),<math>\ast</math>代表卷積(convolution),<math>B_1</math>是偏移量(bias),最後的<math>\max</math>則代表激活函數RELU。 ==== 非線性對應(non-linear mapping) ==== 非線性對應,基本上就是持續利用一般CNN的方式將前一步每一塊的<math>n_1</math>維的特徵向量,分別轉換成<math>n_2</math>維的特徵向量,公式如下。 <center><math>F_2(Y) = \max(0, W_2 \ast F_1(Y) + B_2)</math></center> ==== 重建(reconstruction) ==== 在重建的步驟中,我們要考慮的是每一個像素所要的值是多少,這個步驟可以想成在多個相關的高維度的特徵向量中,取一個平均,很湊巧的,這剛好也很像一般的卷積層(convolution layer),公式如下。 <center><math>F(Y) = W_3 \ast F_2(Y) + B_3</math></center> ==== 訓練方法 ==== 在SRCNN中所採用的差異函數(Loss Function)是簡單的平均方根差(Mean Square Error),定義為重建後的相片每一個像素與真正的圖片的每一個像素的差異,公式如下。 <center><math>L(\theta)=\frac{1}{n}\sum_{i=1}^n \| F(Y_i; \theta) - X_i \|^2</math></center> <math>\theta</math>為SRCNN的參數,<math>F(Y_i;\theta)</math>為給定的SRCNN重建<math>Y_i</math>的圖像,<math>X_i</math>則為真正的高解析度圖像,<math>n</math>為拿來訓練神經網路的圖像數量或者是一個batch中所有的圖像數量。 === [https://arxiv.org/abs/1603.08155"Perceptual Losses for Real-Time Style Transfer and Super-Resolution"] {{Wayback|url=https://arxiv.org/abs/1603.08155 |date=20170511070701 }}<ref>{{Cite arxiv|last=Johnson|first=Justin|last2=Alahi|first2=Alexandre|last3=Fei-Fei|first3=Li|date=2016-03-26|title=Perceptual Losses for Real-Time Style Transfer and Super-Resolution|arxiv=1603.08155}}</ref>=== 這篇論文提供了一個做法,可以應用在圖像風格轉移(Style Transfer)以及超高解析度(Super-resolution)。 整個系統由兩個神經網路組成,其中一個是圖像轉移網路<math>f_W</math>,另一個則是可以用來定義各種差異的差異網路<math>\phi</math>。 ==== 圖像轉移網路<math>f_W</math> ==== 圖像轉移網路的輸入為一張圖像,輸出也是一張圖像,而這個網路的參數以<math>W</math>表示。 這個圖像轉移網路由5個residual block<ref>{{Cite arxiv|last=Kaiming|first=He|last2=Xiangyu|first2=Zhang|last3=Shaoqing|first3=Ren|last4=Jian|first4=Sun|date=2015-12-10|title=Deep Residual Learning for Image Recognition|arxiv=1512.03385}}</ref>所組成,而所有非residual的convolution layer後面都會接上batch normalization。激活函數(activation function)的部分,除了在最後的輸出層(output layer)使用scaled tanh使得輸出的數值在0到255之間,其他都是使用RELU。 convolution layer的filter(kernel)的數量上,第一層和最後一層使用<math>9 \times 9</math>個,其他層則是使用<math>3 \times 3</math>個。 ==== 差異網路<math>\phi</math> ==== 差異網路定義了各種[[差異函數]](loss function),輸入為兩張圖像,一張來自圖像轉移網路,一張則是真正的高解析度影像,輸出為一個實數(scalar)。 而這篇論文所使用的差異網路是16層的VGG網路<ref>{{Cite arxiv|last=Karen|first=Simonyan|last2=Andrew|first2=Zisserman|date=2014-09-04|title=Very Deep Convolutional Networks for Large-Scale Image Recognition|arxiv=1409.1556}}</ref>,並事先利用Image Net訓練過。差異函數的部分,使用了兩個不同於傳統簡單的差異函數。(CHW代表feature map各個維度的數值) ===== 特徵重建差異(Feature Reconstruction Loss)===== 這個差異函數的設計理念在於,當我們在看兩張圖片像不像時,我們並不是一個一個像素的比較,而是比較兩張圖片中的特徵像不像。因此,他拿差異網路中某一層的輸出,當作一個圖片特徵值,再以兩張圖片的特徵值的Euclidean Distance當作差異。 <center><math>l_{feat}^{\phi, j}(\hat{y},y)=\frac{1}{C_j H_j W_j}\| \phi_j(\hat{y}) - \phi_j(y)\|_2^2</math></center> ===== 風格重建差異(Style Reconstruction Loss)<ref>{{Cite arxiv|last=Leon A.|first=Gatys|last2=Alexander S.|first2=Ecker|last3=Matthias|first3=Bethge|date=2015-05-27|title=Texture Synthesis Using Convolutional Neural Networks|arxiv=1505.07376}}</ref><ref>{{Cite arxiv|last=Leon A.|first=Gatys|last2=Alexander S.|first2=Ecker|last3=Matthias|first3=Bethge|date=2015-05-27|title=A Neural Algorithm of Artistic Style|arxiv=1508.06576}}</ref>===== 除了一般的特徵以外,我們也會需要圖像轉移網路正確的重建顏色、材質等等的內容,因此必須再加上風格重建差異函數。 在定義風格重建差異之前,我們先定義Gram矩陣<math>G_j^{\phi}(x)_{c,c'}</math>。 <center><math>G_j^{\phi}(x)_{c,c'}=\frac{1}{C_j H_j W_j}\sum_{h=1}^{H_j}\sum_{w=1}^{W_j}\phi_j(x)_{h,w,c}\phi_j(x)_{h,w,c'}</math></center> 接著差異函數就可以定義為 <center><math>l_{style}^{\phi,j}(\hat{y},y)=\| G_j^{\phi}(\hat{y}) - G_j^{\phi}(y) \|_F^2</math></center> 而一般比較每一個像素差異的差異函數,則可以寫為 <center><math>l_{pixel}(\hat{y},y)=\|\hat{y}-y\|_2^2/CHW</math></center> 有了這兩個網路後,訓練圖像轉移網路的方法則是最小化各式差異函數的權重和(weighted sum),優化的方法是梯度下降法(Stochastic Gradient Descent(l()是差異函數(loss function)))。 <center><math>W^* = arg \min_W E_{x,\{y_i\}}[\sum_{i=1} \lambda_i l_i( f_W(x), y_i ) ]</math></center> 這篇論文在高解析度圖像這個傳統問題上,給了一個快速且有效的解法,快速的原因在於,在遇到一張新的圖片時,只需要把圖像餵進圖像轉移網路就好(一次forward pass)。而在結果上,也大大的超越了之前的做法(一樣使用深度神經網路)SRCNN。 == 立體圖像超解析度成像 == [[立体图|立體圖像]]超解析度成像(Stereo Image Super-Resolution,縮寫SSR)是一種利用多臺[[照相機|相機]]對同一場景進行拍攝的影像進行超解析度成像的技術。通常,SSR技術的目的是提高低[[分辨率]]的立體圖像對的空間解析度,從而獲得更加細緻、清晰的立體圖像。單張圖像超解析度成像(Single Image Super-Resolution)方法在單張圖像上進行超解析度處理,但當只有單張圖像時,無法從中獲得立體資訊。而SSR技術利用兩臺或多臺相機同時拍攝同一場景的影像,通過分析這些影像中的立體資訊,從而實現對低分辨率立體圖像對的超解析度成像。 SSR技術的關鍵是能夠對齊或是解析不同視角的立體圖像,並處理影像之間的[[视差|視差]],以便將它們結合在一起進行超解析度處理。一旦能夠取得視差資訊,可以使用多種超解析度技術,如[[插值]]、[[机器学习|機器學習]]等方法,來提高解析度。 === 應用 === * [[虚拟现实|虛擬實境]]和[[擴增實境]]:SSR技術可以提供更高品質的立體圖像,補足更多圖像細節和提供更高清晰度,改善虛擬實境和擴增實境應用中的視覺體驗,使使用者感受到更加真實的視覺效果。 * [[醫學影像]]:在醫學影像領域,SSR技術可以幫助醫生更準確地分析立體影像,提供更詳細的醫學診斷和手術規劃。例如,在醫學攝影中使用SSR技術可以提高醫學影像的解析度,幫助檢測病灶和細節。 === 基於深度學習的方法 === 由於[[机器学习|機器學習]]是一種能夠從[[数据|資料]]中自動分析獲得[[规律|規律]],並利用規律對未知資料進行預測的演算法,因此在超解析度領域可以藉由讓神經網路模型從大量的訓練數據中學習到高解析度圖像的統計特性和特徵,來獲得提高立體圖像的超解析度成像效果。 立體圖像超解析度成像作為單張圖像超解析度成像的延伸,在神經網路架構的設計上是可以沿用單張圖像超解析度成像的架構的,再加入圖像間特徵混合的作法來處理影像之間的[[视差|視差]],如此便可以有效利用不同視角的圖片間的資訊,將解析度提升至比單張圖像超解析度成像還要高的品質,如:NAFSSR<ref>{{Cite journal |last=Chu |first=Xiaojie |last2=Chen |first2=Liangyu |last3=Yu |first3=Wenqing |date=2022-06 |title=NAFSSR: Stereo Image Super-Resolution Using NAFNet |url=http://dx.doi.org/10.1109/cvprw56347.2022.00130 |journal=2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW) |publisher=IEEE |doi=10.1109/cvprw56347.2022.00130}}</ref>即是一個以此概念設計的神經網路。 由於立體圖像超解析度任務是很容易[[過適]]的,因此在訓練過程中,需要適當的加上[[數據擴充]]方法,常見的方法為隨機裁減訓練影像的部分區塊、隨機的水平或上下翻轉,以及隨機排列[[RGB色彩空間|RGB]]顏色通道的順序。 === 相關資料集 === * KITTI 2012<ref>{{Cite journal |last=Geiger |first=A. |last2=Lenz |first2=P. |last3=Urtasun |first3=R. |date=2012-06 |title=Are we ready for autonomous driving? The KITTI vision benchmark suite |url=http://dx.doi.org/10.1109/cvpr.2012.6248074 |journal=2012 IEEE Conference on Computer Vision and Pattern Recognition |publisher=IEEE |doi=10.1109/cvpr.2012.6248074}}</ref> * KITTI 2015<ref>{{Cite journal |last=Menze |first=Moritz |last2=Geiger |first2=Andreas |date=2015-06 |title=Object scene flow for autonomous vehicles |url=http://dx.doi.org/10.1109/cvpr.2015.7298925 |journal=2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR) |publisher=IEEE |doi=10.1109/cvpr.2015.7298925}}</ref> * Middlebury<ref>{{Cite book|chapter=High-Resolution Stereo Datasets with Subpixel-Accurate Ground Truth|title=Lecture Notes in Computer Science|url=http://dx.doi.org/10.1007/978-3-319-11752-2_3|publisher=Springer International Publishing|date=2014|location=Cham|isbn=978-3-319-11751-5|pages=31–42|first=Daniel|last=Scharstein|first2=Heiko|last2=Hirschmüller|first3=York|last3=Kitajima|first4=Greg|last4=Krathwohl|first5=Nera|last5=Nešić|first6=Xi|last6=Wang|first7=Porter|last7=Westling}}</ref> * Flickr1024<ref>{{Cite journal |last=Wang |first=Yingqian |last2=Wang |first2=Longguang |last3=Yang |first3=Jungang |last4=An |first4=Wei |last5=Guo |first5=Yulan |date=2019-10 |title=Flickr1024: A Large-Scale Dataset for Stereo Image Super-Resolution |url=http://dx.doi.org/10.1109/iccvw.2019.00478 |journal=2019 IEEE/CVF International Conference on Computer Vision Workshop (ICCVW) |publisher=IEEE |doi=10.1109/iccvw.2019.00478}}</ref> == 参见条目 == *{{le|超分辨率显微镜|Super-resolution microscopy}} *[[光學解析度]] *[[混疊]] *[[过采样]] *[[壓縮感知]] *[[核磁共振成像]](MRI) *[[迭代稀疏漸近最小方差算法]] == 參考資料 == {{reflist}} [[Category:图像处理]] [[Category:光學]] [[Category:信号处理]]
该页面使用的模板:
Template:Cite arxiv
(
查看源代码
)
Template:Cite book
(
查看源代码
)
Template:Cite journal
(
查看源代码
)
Template:Expand language
(
查看源代码
)
Template:Le
(
查看源代码
)
Template:Reflist
(
查看源代码
)
Template:Wayback
(
查看源代码
)
返回
超解析度成像
。
导航菜单
个人工具
登录
命名空间
页面
讨论
不转换
查看
阅读
查看源代码
查看历史
更多
搜索
导航
首页
最近更改
随机页面
MediaWiki帮助
特殊页面
工具
链入页面
相关更改
页面信息