查看“︁线性映射”︁的源代码
←
线性映射
跳转到导航
跳转到搜索
因为以下原因,您没有权限编辑该页面:
您请求的操作仅限属于该用户组的用户执行:
用户
您可以查看和复制此页面的源代码。
{{NoteTA |G1 = Math |1=zh-cn:數學對象;zh-tw:數學物件; }} {{線性代數}} '''線性映射'''({{lang-en|linear map}})是[[向量空間|向量空間]]之間,保持向量加法和純量乘法的[[映射|函數]]。線性映射也是向量空間作為模的[[同態]]<ref>見{{Harvnb|Lax|2010|p=7}}(位於第2章“線性映射”第1節“線性映射生成的代數”)。</ref>。 '''線性算子'''({{lang-en|linear operator}})與'''線性轉換'''({{lang-en|linear transformation}},又稱'''線性變換''')是與線性映射相關的慣用名詞,但其實際意義存在許多分歧,詳見[[線性映射#相關名詞|相關名詞]]一節。 ==正式定義== 設 <math>V</math> 和 <math>W</math> 都是係數[[域 (數學)|體]]為 <math>K</math> 的向量空間, <math>f:V \to W</math> 是一個從 <math>V</math> 送到 <math>W</math> 的一個[[函數|映射]]。如果 <math>f</math> 具有以下兩個性質: # '''維持向量加法'''——對於任意兩個 <math>V</math> 中的向量 <math>x</math> 和 <math>y</math> :<math display="block">f(x+y)=f(x)+f(y)</math> # '''維持純量乘法'''——對於任何 <math>V</math> 中的向量 <math>x</math> 和任何純量 <math>a \in K</math> :<math display="block">f(a \cdot x)=a\cdot f(x)</math> 則稱 <math>f</math> 是一個 <math>K</math>'''-線性映射'''。在係數體不致混淆的情況下也經常簡稱'''線性映射。''' 這等價於要求 <math>f</math> 對任意向量 <math>x_1,\,\ldots,\,x_m\in V</math> 和任意純量 <math>a_1,\,\ldots,\,a_m\in K</math> :<math display="block">f(a_1 \cdot x_1+ \cdots + a_m \cdot x_m) = a_1 \cdot f(x_1)+\cdots + a_m \cdot f(x_m)</math> === 線性泛函 === 任何的[[域 (數學)|體]] <math>K</math> 本身就是一維的(係數為自身的)向量空間,所以可以考慮任何從係數[[域 (數學)|體]]同樣為 <math>K</math> 的向量空間 <math>V</math> 送往 <math>K</math> 的線性映射,這類線性映射被稱為'''[[線性泛函]]'''。研究線性泛函的學科是線性泛函分析,是[[泛函分析]]最成熟的分支。 === 注意事項 === * 線性映射中的「線性」與「函數圖形是直線」沒有任何關聯。 * 定義域和對應域相同的線性映射可以進行函數合成,合成的結果依然會是線性映射。但是如果改變合成的順序,那合成出來的結果通常不會相同。例如「把函數乘上 <math>x^2</math> 」和「對函數進行微分」都是線性算子,但是對一個函數「先乘上 <math>x^2</math> 再進行微分」和「先進行微分再乘上 <math>x^2</math> 」是不同的線性映射。<ref>見{{Harvnb|Axler|2009|p=41}}(位於第3章“線性映射”第1節“定義與例子”)。</ref> * 維持向量加法的映射可能不維持純量乘法;同樣地,維持純量乘法的映射也可能不維持向量加法。<ref>見{{Harvnb|Axler|2009|p=59}}(位於第3章“線性映射”末尾習題旁的說明)。</ref> == 相關名詞 == '''線性變換'''和'''線性算子'''這兩個名詞,與本條目的'''線性映射'''密切相關,但不同作者有不同的定義。而這種定義分歧的根源在於,如 <math>f:V\rightarrow V</math> 這樣,定義域和值域落在同個向量空間的'''特殊線性映射''',有些人為了凸顯而予之不同的稱呼。 比如[[谢尔顿·阿克斯勒|Axler]]和[[龔昇]]就稱這種特殊線性映射為'''線性算子'''<ref>見龔昇《線性代數五講》第1講第10頁。</ref><ref name="Axler_p38">見{{Harvnb|Axler|2009|p=38}}(位於第3章“線性映射”第1節“定義與例子”)。</ref>,但另一方面將'''線性映射'''和'''線性變換'''視為同義詞;李尚志則將這種特殊線性映射稱為'''線性變換'''<ref name="李尚志">{{cite book|url=|author=李尚志|title=線性代數|publisher=[[高等教育出版社]]|year=2006|edition=第1版|isbn=7-04-019870-3|chapter=第6章“線性變換”第4節“線性變換”|page=326|quote="則V到自身的線性映射稱為V的線性變換(linear transformation)。"}}</ref>;而[[泛函分析]]的書籍一般將三者都視為本條目所定義的「'''線性映射'''」,其他細節以函數的符號傳達<ref name="柯爾莫哥洛夫">{{cite book|url=|author=[[安德雷·柯爾莫哥洛夫|А·Н·柯爾莫哥洛夫]],佛明(С. В. Фомин)|others=段虞榮 (翻譯),鄭洪深 (翻譯),郭思旭 (翻譯)|title=Элементы теории функций и функционального анализа|trans-title=函數論與泛函分析初步|publisher=高等教育出版社|series=俄羅斯數學教材選譯|year=2006年|edition=原書第7版,中譯本第2版|isbn=7-04-018407-9|chapter=第4章“線性泛函與線性算子”第5節“線性算子”|page=162}}</ref><ref name="Lax">見{{Harvnb|Lax|2010|p=131}}(位於第15章“有界線性映射”的開頭部分)。原文為“線性映射也稱為線性算子或線性變換”。</ref>。 本條目採用泛函分析的習慣。 == 例子 == * [[恒等函數|恒等映射]]和[[零函數|零映射]]是線性的。<ref name="Axler_page38-39">見{{Harvnb|Axler|2009|p=38-39}}(位於第3章“線性映射”第1節“定義與例子”)。</ref> * 對於實數,映射<math>x\mapsto x^2</math>不是線性的。 * 如果''<math>A</math>''是<math>m\times n</math>實[[矩陣]],則''<math>A</math>''定義了一個從<math>R^n</math>到<math>R^m</math>的線性映射,這個映射將[[列向量]]<math>x\in R^n</math>映射到列向量<math>Ax\in R^m</math>。反過來說,在有限維向量空間之間的任何線性映射都可以用這種方式表示;參見後面章節。 * [[積分]]生成從在某個[[區間|區間]]上所有可積分實函數的空間到<math>R</math>的線性映射。這只是把積分的基本性質(“積分的可加性”和“可從積分號內提出常數倍數”)用另一種說法表述出來。<ref name="Axler_page38-39"/> * [[導數|微分]]是從所有可微分函數的空間到所有函數的空間的線性映射。<ref name="Axler_page38-39"/> * “給函數乘上<math>x^2</math>”是一種線性映射。<ref name="Axler_page38-39"/>設<math>C</math>是由全體連續函數所組成的函數空間,則此運算也是空間<math>C</math>中的算子。 * 後向移位(backward shift)運算是一種線性映射。即把無窮維向量<math>(x_1, x_2, x_3, x_4, ...)</math>的第一個坐標劃去:<math>\operatorname{T}(x_1, x_2, x_3, x_4, ...) = (x_2, x_3, x_4, ...)</math>。<ref name="Axler_page38-39"/> * 如果''<math>V</math>''和''<math>W</math>''為在體<math>F</math>上的有限維向量空間,則從線性映射<math>f:V\rightarrow W</math>到在後面所描述的<math>\dim_F(W)\times\dim_F(V)</math>矩陣的函數也是線性映射。<ref name="Axler_page38-39"/> * 一次函數<math>y=f(x)=x+b</math>僅在<math>b=0</math>時才是一種線性變換。容易驗證一次函數僅在<math>b=0</math>時,線性變換的基本性質<math>f(0)=0</math>才能成立。(盡管<math>b\neq 0</math>時其圖像也是一條直線,但'''這里所說的線性不是指函數圖像為直線'''。)同理,平移變換一般也不是線性變換(平移距離為零時才是線性變換)。<ref>見{{Harvnb|Artin|2010|p=156}}。(位於第6章“Symmetry”第1節“ Symmetry of the Plane Figures”)</ref><ref>{{cite book |url=https://archive.org/details/functionalanalys00rudi_008|author=[[沃爾特·魯丁|Walter Rudin]] |title=Functional Analysis |trans-title=泛函分析 |publisher=[[麥格勞-希爾集團|McGraw-Hill Book Company]] |series=Higher mathematics series |year=1973 |edition= |isbn= |chapter=第1章“Topological Vector Spaces”中的“Linear mappings”一節 |page=[https://archive.org/details/functionalanalys00rudi_008/page/n22 13] |quote= }}</ref> == 矩陣 == 若 ''<math>V</math>'' 和 ''<math>W</math>'' 是有限[[基 (線性代數)#維度|維]]的、有'''相同的'''係數[[域 (數學)|體]] <math>K</math> 的向量空間,則從 ''<math>V</math>'' 到 ''<math>W</math>'' 的線性映射可以用[[矩陣]]表示。 === 以矩陣表示線性映射 === 假設 <math>T:V \to W</math> 是個線性映射,且 :<math>\mathfrak{B}_V= \left\{ \alpha_1,\alpha_2,\,\ldots,\alpha_n \right\} </math> :<math>\mathfrak{B}_W=\left\{\beta_1,\beta_2,\,\ldots,\beta_m\right\} </math> 分別是 ''<math>V</math>'' 和 ''<math>W</math>'' 的[[基 (線性代數)#維度|基底]]。 根據基底 [[序列|<math>\mathfrak{B}_W</math>]] 的基本定義,對於每個基向量 [[序列|<math>\alpha_i \in \mathfrak{B}_V</math>]] ,存在唯一一組純量 [[序列|<math>t_{1i},\,t_{2i},\,\ldots,\,t_{mi}\in K</math>]] 使得 :<math>T(\alpha_i)=\sum^m_{j=1}t_{ji} \cdot \beta_j=t_{1i} \cdot \beta_1+t_{2i} \cdot \beta_2+\cdots+t_{mi} \cdot \beta_m </math> 直觀上,純量 [[序列|<math>t_{1i},\,t_{2i},\,\ldots,\,t_{mi}\in K</math>]] 就是對基向量 [[序列|<math>\alpha_i \in \mathfrak{B}_V</math>]] 的作用結果 <math>T(\alpha_i) \in W</math> ,在基底 [[序列|<math>\mathfrak{B}_W</math>]] 下的諸分量。 現在任取一個 ''<math>V</math>'' 裡的向量 ''<math>v \in V</math>'' ,因為基底 [[序列|<math>\mathfrak{B}_V</math>]] 的基本定義,存在唯一一組純量 [[序列|<math>v_1,\,v_2,\,\ldots,\,v_n\in K</math>]] 使得 :<math>v=\sum^n_{i=1}v_i \cdot \alpha_i </math> 這樣根據[[求和符號]]的性質,可以得到 :<math>T(v) =\sum^n_{i=1}v_i\cdot \left(\sum^m_{j=1}t_{ji} \cdot \beta_j\right) =\sum^n_{i=1}\sum^m_{j=1}(t_{ji} v_i) \cdot \beta_j =\sum^m_{j=1}\sum^n_{i=1}(t_{ji} v_i) \cdot \beta_j =\sum^m_{j=1}\left(\sum^n_{i=1}t_{ji} v_i \right)\cdot \beta_j </math> 然後考慮到 <math>T(v) \in W</math> ,所以根據基底 [[序列|<math>\mathfrak{B}_W</math>]] 的基本定義,存在唯一一組純量 [[序列|<math>\lambda_1,\,\lambda_2,\,\ldots,\,\lambda_m\in K</math>]] 使得 :<math>T(v)=\sum^m_{j=1}\lambda_j \cdot \beta_j </math> 因為這樣的純量 [[序列|<math>\lambda_{1},\,\lambda_{2},\,\ldots,\,\lambda_{M}\in K</math>]] 是唯一存在的,所以對 <math>j=1,\,2,\,\ldots,\,m</math> 有 :<math>\lambda_j = \sum^n_{i=1}t_{ji} v_i </math> 考慮到[[矩陣乘法]]的定義,上式可以改寫為 : <math> \begin{bmatrix} \lambda_1\\ \lambda_2 \\ \vdots \\ \lambda_m \end{bmatrix} = \begin{bmatrix} t_{11} & t_{12} & \dots & t_{1n} \\ t_{21} & t_{22} & \dots & t_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ t_{m1} & t_{m2} & \dots & t_{mn} \end{bmatrix} \begin{bmatrix} v_1 \\ v_2 \\ \vdots \\ v_n \end{bmatrix} </math> 也就是說,只要知道 <math>T(\alpha_i)</math> 在 [[序列|<math>\mathfrak{B}_W</math>]] 下的諸分量 <math>t_{ji} </math> ,任意向量 ''<math>v \in V</math> ''的作用結果 <math>T(v)</math> ,都可以表示為矩陣 <math>\mathbf{T}={[t_{ji}]}_{m\times n} </math> 與[[行向量與列向量|行向量]] <math>\mathbf{v}={[v_i]}_{n\times 1} </math> 的乘積。更直觀的來說,矩陣 <math>\mathbf{T}={[t_{ji}]}_{m\times n} </math> 就是把 <math>T(\alpha_i)</math> 的諸分量沿'''行'''('''column''')擺放所構成的。 由上面的推導可以知道,'''不同的基底''' [[序列|<math>\mathfrak{B}_V</math>]] 和 [[序列|<math>\mathfrak{B}_W</math>]] 下,矩陣 <math>\mathbf{T}={[t_{ji}]}_{m\times n} </math> 也'''不同''',為了強調這點,也會將矩陣 <math>\mathbf{T} </math> 記為 :<math>\mathbf{T}={[T]}^{\mathfrak{B}_V}_{\mathfrak{B}_W} </math> 來強調這種關聯性。 若 <math>T:V \to V</math> ,在同個向量空間 ''<math>V</math>'' 通常沒有取不同基底的必要,那上面的推導可以在 [[序列|<math>\mathfrak{B}_V = \mathfrak{B}_W</math>]] 的前提下進行。這時上式可以進一步簡寫為 :<math>\mathbf{T}={[T]}_{\mathfrak{B}_V} </math> === 以線性映射表示矩陣 === 若有由 <math>m \times n </math> 個純量構成的矩陣 <math>\mathbf{A}={[a_{ij}]}_{m \times n} \in K^{m \times n} </math> ,如果取 <math>f:K^{n \times 1} \to K^{m \times 1}</math> 為 :<math>f(\mathbf{x})=\mathbf{A}\mathbf{x} </math> 其中 :<math> \mathbf{x}= \begin{bmatrix} x_1\\ x_2 \\ \vdots \\ x_n \end{bmatrix} \in K^{n \times 1} </math> 因為[[矩陣乘法]]只有唯一的結果,上面的定義的確符合[[函數]]定義的基本要求。然後考慮 <math>K^{n \times 1}</math> 和 <math>K^{m \times 1}</math> 都可以視為定義在'''同個'''純量[[域 (數學)|體]] <math>K</math> 上的[[向量空間]],而且矩陣乘法是線性的,所以上述定義的函數 <math>f</math> 的確符合線性映射的基本定義。 === 用泛性质做矩阵表示 === 根据[[积 (范畴论)|积]]和[[余积 (范畴论)|余积]]的泛性质,我们有 :<math> \mathrm{Hom}\left(\bigoplus_{i \in I} U_i, \prod_{j \in J} V_j\right) \simeq \prod_{i \in I} \prod_{j \in J} \mathrm{Hom}\left(U_i, V_j\right). </math> 在 <math>K</math>-[[线性空间]]构成的[[范畴 (数学)|范畴]]中,有限个线性空间的余积和积是一回事。对于 <math>U, V</math> 的基 <math>\bold b_1, \dots, \bold b_n, \bold b'_1, \dots, \bold b'_m</math>,取 <math>U_i = \bold b_i K, V_i = \bold b'_i k</math>,我们有 <math>\mathrm{Hom}(U_i, V_j) \simeq K</math>,所以左边的线性映射 <math>\mathrm{Hom}(U, V)</math> 就被拆解为了 <math>nm</math> 个 <math>K</math> 中的元素,这就是线性映射的矩阵表示。 === 用矩陣表示線性映射的原因和好處 === # 把線性映射寫成具體而簡明的2維數陣形式後,就成了一種矩陣。進而由線性映射的加法規則和覆合規則來分別定義矩陣的加法規則和乘法規則是很自然的想法。<ref>見{{Harvnb|Axler|2009|p=51}}(位於第3章“線性映射”第3節“線性映射的矩陣”)。</ref>當空間的基變化(坐標系變換)時,線性映射的矩陣也會有規律地變化。在特定的基上研究線性映射,就轉化為對矩陣的研究。利用矩陣的乘法,可以把一些線性系統的方程表達得更緊湊(比如把線性方程組用矩陣表達和研究),也使幾何意義更明顯。矩陣可以[[分塊矩陣|分塊]]計算,可以通過適當的變換以“解耦”(把覆雜的變換分解為一些簡單變換的組合)。要求出一個線性變換的[[秩 (線性代數)|秩]],先寫出其矩陣形式幾乎是不可避免的一個步驟。 # 遇到<math>y=x+3</math>這樣的加上了1個常量的非線性映射可以通過增加1個維度的方法,把變換映射寫成2×2維的方形矩陣形式,從而在形式上把這一類特殊的非線性映射轉化為線性映射。這個辦法也適用於處理在高維線性變換上多加了一個常向量的情形。這在[[計算機圖形學]]和剛體理論(及其相關[[機械制造]]和[[機器人學]])中都有大量應用。 # 對角化的矩陣具有諸多優點。線性映射在寫成矩陣後可以進行[[對角化]](不能對角化的矩陣可以化簡成接近對角矩陣的[[準對角矩陣]]),從而可以獲得對角化矩陣擁有的獨特優勢(極大地簡化乘法運算,易於分塊,容易看出與基的選取無關的[[不變量]])。比如,對於作用於同一個空間的可對角化的方形矩陣''<math>A</math>'',要求出''<math>A</math>''自乘<math>n</math>次後的結果<math>A^n</math>,一個一個慢慢地乘是很麻煩的事情。而知道對角化技巧的人會發現,在將這矩陣對角化後,其乘法運算會變得格外簡單。實際應用中有很多有意思的問題或解題方法都會涉及到矩陣自乘n次的計算,如1階非齊次線性[[遞推關系式|遞推數列]][[通項公式]]的線性代數求解法和[[馬爾可夫鏈]]的極限狀態(極限分布)的求解。線性代數及矩陣論的一個主要問題就是尋找可使矩陣對角化的條件或者可使矩陣化簡到含很多個0的條件<ref>見{{Harvnb|Axler|2009|p=82}}(位於第5章“本征值與本征向量”第3節“上三角矩陣”)。</ref>,以便簡化計算(這是主要原因之一)。 == 線性映射的矩陣的例子== 二維空間<math>R^2</math>的線性變換的一些特殊情況有: * 逆時針[[旋轉]]90度: *:<math>A=\begin{bmatrix}0 & -1\\ 1 & 0\end{bmatrix}</math> * 逆時針[[旋轉]]<math>\theta</math>度<ref>其證明只需要用到[[三角函數]]的基礎知識,在網上很容易找到證明過程。也可參見{{Harvnb|Feynman}}第11章“Vectors”第3節“Rotations”。</ref>: *:<math>A=\begin{bmatrix}\cos(\theta) & -\sin(\theta)\\ \sin(\theta) & \cos(\theta)\end{bmatrix}</math> * 針對''y''軸[[反射 (數學)|反射]]: *:<math>A=\begin{bmatrix}1 & 0\\ 0 & -1\end{bmatrix}</math> * 在所有方向上[[縮放|放大]]2倍: *:<math>A=\begin{bmatrix}2 & 0\\ 0 & 2\end{bmatrix}</math> * [[錯切|水平錯切]]: *:<math>A=\begin{bmatrix}1 & m\\ 0 & 1\end{bmatrix}</math> * [[擠壓映射|擠壓]]: *:<math>A=\begin{bmatrix}k & 0\\ 0 & 1/k\end{bmatrix}</math> * 向''y''軸[[投影]]: *:<math>A=\begin{bmatrix}0 & 0\\ 0 & 1\end{bmatrix}</math> == 從給定線性映射構造新的線性映射 == 兩個線性映射的[[覆合映射]]是線性的:如果<math>f:V\rightarrow W</math>和<math>g:W\rightarrow Z</math>是線性的,則<math>g\circ f:V\rightarrow Z</math>也是線性的。 若線性映射[[反函數|可逆]],則該線性映射的[[反函數|逆]]也是線性映射。 如果<math>f_1:V\rightarrow W</math>和<math>f_2:V\rightarrow W</math>是線性的,則它們的和<math>f_1+f_2</math>也是線性的(這是由<math>\left ( f_1+f_2 \right )\left ( x \right )=f_1\left ( x \right )+f_2\left ( x \right )</math>定義的)。 如果<math>f:V\rightarrow W</math>是線性的,而''a''是基礎體''K''的一個元素,則定義自 (''af'')(''x'') = ''a'' (''f''(''x''))的映射''af''也是線性的。 所以從<math>V</math>到<math>W</math>的線性映射的集合<math>L\left ( V,W \right )</math>自身形成在<math>K</math>上的向量空間,有時指示為<math>\mathrm{Hom}\left ( V,W \right )</math>。進一步的說,在<math>V=W</math>的情況中,這個向量空間(指示為<math>\mathrm{End}(V)</math>)是在[[覆合函數|映射覆合]]下的[[結合代數]],因為兩個線性映射的覆合再次是線性映射,所以映射的覆合總是結合律的。 給定有限維的情況,如果基已經選擇好了,則線性映射的覆合對應於[[矩陣乘法]],線性映射的加法對應於[[矩陣加法]],而線性映射與純量的乘法對應於矩陣與純量的乘法。 == 自同態線性映射 == {{expand section|time=2016-6-2}} 自同態的線性映射在泛函分析和[[量子力學]]中都有很重要的地位。按前文約定,我們用“線性算子”來簡稱它。(注意泛函分析中所說的“線性算子”不一定是[[自同態]](endomorphism)映射,但我們為了照顧不同書籍的差異以及敘述的方便,暫用“線性算子”來稱呼這種自同態。) === 自同態和自同構 === [[自同態]]是一個[[數學對象]]到它本身的保持結構的映射([[同態]]),例如群<math>G</math>的自同態則是[[群同態]]<math>f:G \to G</math>。對於向量空間<math>V</math>,其自同態是線性算子<math>f:V\rightarrow V</math>;所有這種自同態的集合<math>\mathrm{End}(V)</math>與如上定義的加法、覆合和純量乘法一起形成一個[[結合代數]],帶有在體<math>K</math>上的單位元(特別是一個環)。這個代數的乘法單位元是[[恒等映射]]<math>\mathrm{id}:V\rightarrow V</math>。 若''<math>V</math>''的自同態也剛好是[[同構]]則稱之為[[自同構]]。兩個自同構的[[複合函數|覆合]]再次是自同構,所以''<math>V</math>''的所有的自同構的集合形成一個[[群]],''<math>V</math>''的[[自同構群]]可表為<math>\mathrm{Aut}(V)</math>或<math>\mathrm{GL}(V)</math>。因為自同構正好是那些在覆合運算下擁有逆元的自同態,所以<math>\mathrm{Aut}(V)</math>也就是在環<math>\mathrm{End}(V)</math>中的[[可逆元|可逆元群]]。 如果''<math>V</math>''之維度<math>n</math>有限<math>\mathrm{End}(V)</math>[[同構]]於帶有在''<math>K</math>''中元素的所有<math>n\times n</math>矩陣構成的[[結合代數]],且''<math>V</math>''的自同態群[[群同構|同構]]於帶有在''<math>K</math>''中元素的所有<math>n\times n</math>可逆矩陣構成的[[一般線性群|一般線性群]]<math>\mathrm{GL}(n,K)</math>。 === 自同态在基下矩阵的分类 === [[若尔当标准型]]叙述了代数闭域 <math>K</math> 上的线性空间 <math>V</math> 上的自同态 <math>\varphi</math> 在 <math>V</math> 的基上的矩阵表示的表现,[[有理标准型]]是将其推广到任意域上的方法。 == 核、像和秩-零化度定理 == 對於一個線性映射 <math>f:V\rightarrow W</math> ,可以考慮以下兩個: * '''核'''( Kernel )——送到零向量的那些向量:<math display="block">\mathrm{Ker}(f) := f^{-1}(\mathbf{0}) = \{ x \in V \mid f(x) = \mathbf{0} \} \subseteq V</math> * '''像'''( Image )——把整個空間送過去後的結果:<math display="block">\mathrm{Im}(f) := f(V) = \{ f(x) \in W \mid x \in V \} \subseteq W</math> 那麼 <math>\operatorname{Ker}(f)</math> 是 ''<math>V</math>'' 的[[線性子空間|子空間]],而 <math>\operatorname{Im}(f)</math> 是 ''<math>W</math>'' 的子空間。下面的叫做[[秩-零化度定理]]的維度公式經常是有用的: <math display="block">\dim(\mathrm{Ker}(f)) + \dim(\mathrm{Im}(f)) = \dim(V)</math> <math>\dim(\mathrm{Im}(f))</math>這個數稱做「 <math>f</math> 的秩」( rank )並寫成 <math>\mathrm{rk}(f)</math> ,有時也寫成 <math>\rho(f)</math> ;而 <math>\dim(\mathrm{Ker}(f))</math> 這個數則稱做「 <math>f</math> 的零化度」( nullity )並寫成 <math>v(f)</math> 。如果 ''<math>V</math>'' 和 ''<math>W</math>'' 是有限維的,那麼 ''<math>f</math>'' 的秩和零化度就是 ''<math>f</math>'' 的矩陣形式的[[矩陣的秩|秩]]和[[零空間#性質|零化度]]。 這個定理在抽象代數的推廣是[[同构基本定理|同構定理]]。 == 推廣 == [[多重線性映射|多重線性映射]]是線性映射最重要的推廣,它也是[[格拉斯曼代數]]和[[張量分析]]的數學基礎。其特例為[[雙線性映射|雙線性映射]]。 == 參見 == * [[線性方程|線性方程]] * [[反線性映射|反線性映射]] * [[變換矩陣|變換矩陣]] * [[連續線性算子|連續線性算子]] * [[人工神經網路]] * [[計算機圖形學]] * [[線性系統|線性系統]] == 腳注與參考資料 == === 腳注 === {{Reflist|2}} === 腳注所引資料 === * {{cite book |url= |author=[[邁克爾·阿廷|Michael Artin]] |title= ''Algebra'' |trans-title= 代數 |publisher=[[培生教育|Pearson]] |year=2010 |edition=2 |isbn=978-0132413770 |ref={{sfnref|Artin|2010}}}} * {{cite book |url= |author=[[謝爾頓·阿克斯勒|Sheldon Axler]] |others=杜現昆 (漢譯者); 馬晶 (漢譯者) |title= ''Linear Algebra Done Right'' |trans-title= 線性代數應該這樣學 |publisher=[[人民郵電出版社]] |series=圖靈數學•統計學叢書 |year=2009 |isbn=9787115206145 |volume= |language=zh-cn |ref={{sfnref|Axler|2009}}}} * {{cite book |url= |author=[[Peter David Lax|Peter D. Lax]] |others=侯成軍 (翻譯); 王利廣 (翻譯) |title=''Functional Analysis'' |trans-title=泛函分析 |publisher=人民郵電出版社 |series=圖靈數學·統計學叢書 |year=2010 |edition= |isbn=978-7-115-23174-1 |ref={{sfnref|Lax|2010}}}} * {{cite book |url= |author=[[理查·費曼|Richard Feynman]] |title= ''The Feynman Lectures on Physics'' |trans-title= [[費曼物理學講義]] |publisher=[[艾迪生韋斯利|Addison-Wesley]] |series= |year=1999 |isbn=978-0201021165 |volume=1 |ref={{sfnref|Feynman}} |quote=}} === 其它參考資料 === * [[Paul Halmos|Halmos, Paul R.]], ''Finite-Dimensional Vector Spaces'', Springer-Verlag, (1993). ISBN 0-387-90093-4. {{泛函分析}} {{線性代數的相關概念}} {{DEFAULTSORT:Linear map}} [[Category:函數|X]] [[Category:抽象代數|X]] [[Category:線性代數|X]] [[Category:線性算子]]
该页面使用的模板:
Template:Cite book
(
查看源代码
)
Template:Expand section
(
查看源代码
)
Template:Harvnb
(
查看源代码
)
Template:Lang-en
(
查看源代码
)
Template:NoteTA
(
查看源代码
)
Template:Reflist
(
查看源代码
)
Template:泛函分析
(
查看源代码
)
Template:線性代數
(
查看源代码
)
Template:線性代數的相關概念
(
查看源代码
)
返回
线性映射
。
导航菜单
个人工具
登录
命名空间
页面
讨论
不转换
查看
阅读
查看源代码
查看历史
更多
搜索
导航
首页
最近更改
随机页面
MediaWiki帮助
特殊页面
工具
链入页面
相关更改
页面信息