通用近似定理

来自testwiki
跳转到导航 跳转到搜索

人工神经网络数学理论中, 通用近似定理(或稱萬能近似定理)指出人工神經網络近似任意函數的能力[1]。 通常此定理所指的神經網路爲前饋神經網路,並且被近似的目標函數通常爲輸入輸出都在歐幾里得空間的連續函數。但亦有研究將此定理擴展至其他類型的神經網路,如卷積神經網路[2][3]放射狀基底函數網路[4]、或其他特殊神經網路[5]

此定理意味着神經網路可以用來近似任意的復雜函數,並且可以達到任意近似精準度。但它並沒有說明要如何選擇神經網絡參數(權重、神經元數量、神經層層數等等)來達到想近似的目標函數。

历史

1900年代

Template:Main

1950年代至60年代

苏联数学家安德烈·柯尔莫哥洛夫與學生弗拉基米尔·阿诺尔德在1950年代及60年代期間,證明多元函數可分解為以下形式(e.g. Template:Link-en):

f(𝐱)=f(x1,,xn)=q=02nΦq(p=1nϕq,p(xp)).

1980年代後

乔治·西本科于1989年证明了單一隱藏層、任意宽度、並使用S型函數作爲激勵函數前饋神經網路的通用近似定理[6]。科特·霍尼克(Template:Lang-en)在1991年证明 ,激勵函數的選擇不是關鍵,前饋神經網路的多層神經層及多神經元架構才是使神经网络有成为通用逼近器的關鍵[7]

2020 量子计算

量子神经网络可以用电路量子计算机的不同数学工具来表示,从量子感知器到变分量子电路,都基于量子逻辑门的组合。变分量子电路基于参数电路,不涉及神经网络。相反,量子感知器能够设计具有与前馈神经网络相同结构的量子神经网络,前提是每个节点的阈值行为不涉及量子态的崩溃,即没有测量过程。 2022 年,这种为量子神经网络提供激活函数行为的免测量构建模块已经被设计出来 [8]。 量子电路返回与量子比特相关的 -1 到 +1 区间内的压缩函数的任意近似值。这种设计任意量子激活函数的方法通常可以实现量子多感知器和量子前馈神经网络。

參見

参考文献

Template:Reflist

  1. Template:Cite book
  2. Zhou, Ding-Xuan (2020) Universality of deep convolutional neural networks; Applied and computational harmonic analysis 48.2 (2020): 787-794.
  3. A. Heinecke, J. Ho and W. Hwang (2020); Refinement and Universal Approximation via Sparsely Connected ReLU Convolution Nets; IEEE Signal Processing Letters, vol. 27, pp. 1175-1179.
  4. Park, Jooyoung, and Irwin W. Sandberg (1991); Universal approximation using radial-basis-function networks; Neural computation 3.2, 246-257.
  5. Yarotsky, Dmitry (2018); Universal approximations of invariant maps by neural networks.
  6. Cybenko, G. (1989) "Approximations by superpositions of sigmoidal functions" Template:Wayback, Mathematics of Control, Signals, and Systems, 2(4), 303–314. Template:Doi
  7. Kurt Hornik (1991) "", Neural Networks, 4(2), 251–257. Template:Doi
  8. Template:Cite journal