查看“︁特徵提取”︁的源代码
←
特徵提取
跳转到导航
跳转到搜索
因为以下原因,您没有权限编辑该页面:
您请求的操作仅限属于该用户组的用户执行:
用户
您可以查看和复制此页面的源代码。
'''特征提取'''({{lang-en|Feature extraction}})在[[機器學習]]、[[模式识别]]和[[圖像處理]]中有很多的應用。特徵提取是從一個初始測量的[[資料]]集合中開始做,然後建構出富含資訊性而且不冗餘的導出值,稱為[[特徵 (机器学习)|特徵值]](feature)。它可以幫助接續的學習過程和歸納的步驟,在某些情況下可以讓人更容易對資料做出較好的詮釋。特徵提取是一個[[降維|降低維度]]的步驟,初始的資料集合被降到更容易管理的族群(特徵)以便於學習,同時保持描述原始資料集的精準性與完整性。<ref>{{Cite web|url=https://deepai.org/machine-learning-glossary-and-terms/feature-extraction|title=What is Feature Extraction?|last=|first=|date=|website=deepai.org|archive-url=https://web.archive.org/web/20210302194248/https://deepai.org/machine-learning-glossary-and-terms/feature-extraction|archive-date=2021-03-02|dead-url=no|access-date=}}</ref> 當一個演算法的輸入資料太過於龐大冗餘以至於不便處理(如:一樣的測量方法但是分別使用英尺和公尺表示,或是影像中像素的重複性),這些資料可以被轉換成化簡後的特徵集合,也稱作特徵向量(feature vector),決定這些原始資料子集的步驟稱為特徵提取<ref name="alpaydin">{{Cite book |author=Alpaydin, Ethem |title=Introduction to Machine Learning |url=https://books.google.com/books?id=7f5bBAAAQBAJ&printsec=frontcover#v=onepage&q=%22feature%20(extraction%20OR%20selection)%22&f=false |year=2010 |publisher=The MIT Press |place=London |page=110 |isbn=978-0-262-01243-0 |access-date=4 February 2017 |archive-date=2019-03-23 |archive-url=https://web.archive.org/web/20190323110004/https://books.google.com/books?id=7f5bBAAAQBAJ&printsec=frontcover#v=onepage&q=%22feature%20(extraction%20OR%20selection)%22&f=false |dead-url=no }}</ref> 。成功的情形下,被選擇的特徵包含跟輸入資料相關的資訊,因此這些被化簡後的特徵能夠被用來做理想的任務,而不使用原始完整的初始資料來做這個任務。 ==概論== 相較於原始龐大的資料集合需要很大量的資源來描述,特徵提取可以減少需要描述這些資料的資源。當我們分析複雜資料時,其中一個主要的問題是源自於變數的數量過多。分析很多個變數一般來說需要很大量的記憶體以及計算能力,同時太多變數也可能造成分類問題的演算法有過度擬合於訓練資料的現象,因此對新的採樣無法有效地歸納。特徵提取是處理變數組合並維持資料充足的準確性時,常通稱的術語。很多機器學習的實作者認為適當的特徵提取是有效模型構建的關鍵。<ref>Reality AI Blog, "Its all about the features," September 2017, https://reality.ai/it-is-all-about-the-features/ {{Wayback|url=https://reality.ai/it-is-all-about-the-features/ |date=20190818192158 }}</ref> 可以利用已經建構好的應用相關的特徵集合來改善結果,通常這樣的特徵集合是被專家所建構。其中一種此類處理被叫做特徵工程師。除此之外,我們也可以使用一般的降維技術,如下: * [[獨立成分分析]] * [[等距特徵映射]] * [[核主成分分析]] * [[潛在語義學]] * [[偏最小二乘迴歸]] * [[主成分分析]] * [[多因子降維法]] * [[非線性降維]] * [[多線性主成分分析]] * [[半定式嵌入]] * [[自編碼器]] ==圖像處理== 特徵提取其中一個非常重要的應用領域為[[圖像處理]],其中的演算法可以被用來偵測跟分離數位影像跟影片串流中,想要提取的部分或形狀(特徵),無論是哪種類型的圖像,二值圖像(binary image)、彩色圖像(colored image)或灰度圖像(gray image),圖像處理都可以通過特徵提取來進行,特徵提取可以應用於多種用途,像是識別(identification)、分類(classification)、診斷(diagnosis)、聚類(clustering)、認識(recognition)、檢測(detection)。而從初始的特徵提取原理說起,當中最為重要的幾個特徵提取方法又可以分為四種:幾何特徵、統計特徵、紋理特徵和色彩特徵。<ref>{{Cite web|url=https://iopscience.iop.org/article/10.1088/1742-6596/1591/1/012028|title=存档副本|access-date=2024-06-13|archive-date=2024-06-13|archive-url=https://web.archive.org/web/20240613144306/https://iopscience.iop.org/article/10.1088/1742-6596/1591/1/012028|dead-url=no}}</ref> ===色彩特徵=== 色彩特徵的定義:色彩特徵可以被定義為能夠根據圖像自身的顏色特徵來區分圖像的尺度(scales)。 '''色矩 (英語:Color Moments)''' 在圖像中,色彩矩被解釋為概率分佈(probability distribution)。色彩矩有三個主要部分:均值(Mean)、標準差(Standard Deviation)和偏度(Skewness)。 *'''均值 (Mean)''' 平均值可以被定義為影像中的平均色彩值,由以下方程式定義。 <math> M_j = \frac{1}{M} \sum_{i=1}^{m} P_{ji} </math> * '''標準差(Standard Deviation)''' 標準差是分佈變異的平方根,以下方程式解釋了標準差的定義。 <math>\sigma_j = \sqrt{\frac{1}{M} \sum_{i=1}^{M} (P_{ji} - M_j)^2} </math> * '''偏差 (Skewness)''' 將偏差解釋為分佈不對稱程度的量測。 <math>S_1 = \sqrt[3]{\frac{1}{M} \sum_{i=1}^{M} (P_{ji} - M_j)^3} </math> <ref>{{Cite web|url=https://www.semanticscholar.org/paper/Feature-Extraction-Technique-for-Robust-and-Fast-A-Kavya/2132b87331e6532bc7099ef63386750a96a73b2a}}</ref> '''色彩直方圖''' 顏色是最常見且廣泛使用的特徵,因為相較於其他特性,它更直觀且包含更多重要的信息。從圖像中提取顏色特徵非常容易,而且顏色直方圖將顏色分佈以一組方框呈現。 '''平均RGB值''' 使用此功能的目的是在使用各種功能時進行影像過濾。第二個原因 選擇這個特徵是因為使用少量資料來表示向量參數。<ref>{{Cite web|url=https://books.google.com.tw/books/about/Comparative_Analysis_of_Image_Search_Alg.html?id=B0z-jwEACAAJ&redir_esc=y|title=存档副本|access-date=2024-06-13|archive-date=2024-06-13|archive-url=https://web.archive.org/web/20240613144309/https://books.google.com.tw/books/about/Comparative_Analysis_of_Image_Search_Alg.html?id=B0z-jwEACAAJ&redir_esc=y|dead-url=no}}</ref> ===紋理特徵=== 紋理是自然界中隨處可見的許多類型影像的最重要特徵 例如醫學影像和感測器影像等。紋理定義為表面 人類視覺系統對自然物體的表現。很容易被大家肉眼辨識,但很難確定矩陣中的紋理,但它發生在分析的矩陣區域中透過定量和定性分析進行,其主要有兩種方法。 '''灰階共生矩陣 (Gray Level Co-occurrence Matrices (GLCM)) ''' 用於測量影像上給定偏移處出現的灰階值的直方圖。用於提取紋理 來自破碎的組織圖像。這些是 GLCM 熵、對比、相關性、能量和均勻性所特有的五種不同的紋理特徵。 * '''熵(Entropy)''' 利用隨機性的統計測量來區分輸入影像的紋理。 <math>\text{Entropy} = -\sum\sum{q(i,j)\log{q(i,j)}}</math> 其中 <math>q </math> 是GLCM中灰階共生矩陣的數量。 * '''對比''' 計算整個影像的像素和相鄰像素之間的密度對比。 <math>\text{Contrast} = \sum {(i, j)^2 q(i, j)} </math> 其中,<math>q(i,j) </math> 為位置 <math>(i,j) </math> 的像素。 * '''相關性''' 這個尺度的作用是衡量指定像素對中指定的機率。 <math>\text{Correlation} = \sum_{i=0}^{M-1} \sum_{j=0}^{M-1} \frac{(i - n_i)(j - n_j) q(i, j)}{\sigma_i \sigma_j}</math><ref>{{Cite web|title=Approximate calculation of multiple integrals [by] A. H. Stroud - Catalogue {{!}} National Library of Australia|url=https://catalogue.nla.gov.au/catalog/1142150|website=catalogue.nla.gov.au|language=en|access-date=2024-06-13|archive-date=2024-06-13|archive-url=https://web.archive.org/web/20240613144313/https://catalogue.nla.gov.au/catalog/1142150|dead-url=no}}</ref> * '''能量''' 是 GLCM 中元素的平方和。 <math>\text{Energy} = \sum\sum {q(i,j)^2}</math> * '''均勻性''' 它用於測量 GLCM 中元素分佈到 GLCM 對角線的近似程度,如下公式所定義。 <math>\text{Homogeneity} = \sum_{i,j} \frac{q(j,i)}{1+\left| {j-i} \right|} </math> '''Tamura''' * '''粗糙度(英語:Coarseness )''' 粗糙度主要是與灰度空間變化的距離相聯繫,這隱含地與構成紋理的原始元素的大小相關聯。它直接與尺度和重複的平均值以及最大主要紋理特徵相關。圖像在不同的尺度上包含迭代的紋理圖案,粗糙度試圖找到組織存在的最大尺寸,即使在較小的組織情況下,如下方程所示。 <math>R_M(x,y) = \sum_{i=x-2^{M-1}-1}^{x+2^{M-1}} \sum_{y-2^{M-1}-1}^{y+2^{M-1}} \frac{F(i,j)}{2^{2M}} </math> 其中,<math>2^{M*}2^M </math>大小為鄰域的平均值。 方程式如下表示計算對應於非重疊鄰域的一對平均值之間的差異。 <math>S_{M,h}(x,y) = \left|R_M(x+2^{M-1},y)-R_M(x-2^{M-1},y) \right| </math> * '''對比''' 灰階變化程度的測量分配是其分佈為黑色或白色。確定對比度,使用四階灰度和二階的中心矩。 <math>\text{Contrast} = \frac{\sigma} {\alpha_4} </math>, where <math>\alpha_4 = \frac{N_4}{\sigma^4} </math> where <math>N_4 </math> is the fourth moment about the mean and 2 is the variance. <math>m = 1/4 </math> to give the closest value according to Tamura. * '''方向性(英語:Directionality)''' '''方向性'''(Directionality)是衡量圖像中局部邊緣相對於方向角分佈頻率的方法。它是一個區域的全局屬性。這一特徵不能區分趨勢或模式,但通過方向性來測量圖像的整體方向性程度。在Tamura特徵中,方向性是最重要的特徵之一,它通過矩陣來區分圖像之間區域一致性的差異。 <math>\text{Directionality} = 1-rm_{peaks}\sum_{p=1}^{m_{peaks}}\sum_{b \in w_{p}}(b-b_p)^2H_{directionality}(b) </math> 其中: <math>m_p </math>:峰值的數量 <math>b_p</math>:峰值的位置 <math>w_p </math>:分配給第P個峰值的角度範圍 <math>r </math>:一個與角度的量化水平相關的歸一化因子 <math>b </math>:量化的方向角 <math>\mathrm{H_{directionality}} </math>:量化方向值的直方圖,由具有相應方向角的邊緣像素數量構成 * '''線條相似性(英語:Line-Likeness)''' '''線狀性'''(Line-likeness)僅指紋理基元的形狀。線狀紋理具有直線或波狀的基元,其方向可能不固定。通常,線狀紋理同時具有方向性。線狀性(flin)可以按如下方式計算: <math>flin = \sum\sum{PDd(i,j)njmicos^{f()}[(i-j)2\pi n}]\sum\sum{PDd(i,j)njmi} </math> 其中<math>PDd(i,j) </math>是距離 d 處的點的 n×n 局部方向共生矩陣。 * '''規律性(英語:Regularity)''' '''規律性'''(Regularity)衡量圖像中模式的恆定性或可比較性,其定義如下公式所示: <math>\text{Y}_{\text{Regularity}} = 1 - R(C_{\text{CRS}} + C_{\text{con}} + C_{\text{dir}} + C_{\text{lin}})</math> 其中: <math> R </math> 是一個歸一化因子。 <math> C_{\text{CRS}} </math> 是粗糙度指標,表示 <math> f_{\text{CRS}} </math> 的標準差。 <math> C_{\text{con}} </math> 是對比度指標,表示 <math> f_{\text{con}} </math> 的標準差。 <math> C_\text{dir} </math> 是方向性指標,表示 <math> f_\text{dir} </math> 的標準差。 <math> C_\text{line} </math> 是線狀性指標,表示 <math> f_\text{line} </math> 的標準差。 * 粗糙度(英語:Roughness) '''規律性'''(Regularity)衡量圖像中模式的恆定性或可比較性,其定義如下公式所示: <math>Roughness = Coarseness + contrast </math> 常見的影像處理相關的特徵處理如下: ===低階的特徵=== * [[邊緣檢測]] * [[角檢測]] * [[斑點檢測]] * [[脊檢測]] * [[尺度不變特徵轉換]] ===曲率=== * [[邊緣方向]] * [[改變強度]] * [[自相關]] ===影像動作=== * [[移動偵測]] * [[微分方法]] * [[光流法]] ===形狀相關=== * [[二值化]] * [[連通分量標記]] * [[模板匹配]] * [[霍夫變換]] * [[廣義霍夫變換]] ==軟體中的特徵提取== 很多資料分析的軟體包提供特徵提取以前資料降維。常見的數值編程環境有提供內建的指令來做一些較簡單而常用的特稱提取(例如:主成分分析)。更多特定的演算法可以在公開的腳本或第三方提供的擴充包中取得。另外,也有軟體包為了特定軟體機器學習應用,特別為其設計特徵提取。<ref>for example, https://reality.ai/ {{Wayback|url=https://reality.ai/ |date=20210325190924 }}</ref> ==深度學習的特徵提取== 以往[[主成分分析]]為特徵提取極常使用的降維方法,近來利用深度學習神經網路的[[自編碼器]]則相當常被使用。他可以跟[[深度學習]]中的各種技術(例如:[[深度神經網路]],[[卷積神經網路]])結合。其中,卷積神經網路能十分有效的擷取影像中的特徵,因此對於影像的資料降維擷取特徵的效果特別傑出。此外,[[卷積神經網路]]在大型資料庫中影像辨識相關的議題上(例如:物件分類)取得相當傑出的成果。<ref>ResNet https://arxiv.org/abs/1512.03385 {{Wayback|url=https://arxiv.org/abs/1512.03385 |date=20210417170807 }}</ref>。因此也有人使用在大型資料庫上預先訓練好的卷積神經網路來做特徵提取。 ==參考資料== {{Reflist}} [[Category:机器学习]]
该页面使用的模板:
Template:Cite book
(
查看源代码
)
Template:Cite web
(
查看源代码
)
Template:Lang-en
(
查看源代码
)
Template:Reflist
(
查看源代码
)
Template:Wayback
(
查看源代码
)
返回
特徵提取
。
导航菜单
个人工具
登录
命名空间
页面
讨论
不转换
查看
阅读
查看源代码
查看历史
更多
搜索
导航
首页
最近更改
随机页面
MediaWiki帮助
特殊页面
工具
链入页面
相关更改
页面信息