线性代数 
 
  
    
      
        
          A 
         
        = 
        
          
            [ 
            
              
                
                  1 
                 
                
                  2 
                 
               
              
                
                  3 
                 
                
                  4 
                 
               
             
            ] 
           
         
       
     
    {\displaystyle \mathbf {A} ={\begin{bmatrix}1&2\\3&4\end{bmatrix}}} 
   
  
向量  ·  向量空间  ·   基底   ·   行列式   ·   矩阵  
  
  
線性映射 (英語:linear map )是向量空間 之間,保持向量加法和純量乘法的函數 。線性映射也是向量空間作為模的同態 [ 1] 
線性算子 (英語:linear operator )與線性轉換 (英語:linear transformation ,又稱線性變換 )是與線性映射相關的慣用名詞,但其實際意義存在許多分歧,詳見相關名詞 一節。
設 
  
    
      
        V 
       
     
    {\displaystyle V} 
   
 
  
    
      
        W 
       
     
    {\displaystyle W} 
   
 體 為 
  
    
      
        K 
       
     
    {\displaystyle K} 
   
 
  
    
      
        f 
        : 
        V 
        → 
        W 
       
     
    {\displaystyle f:V\to W} 
   
 
  
    
      
        V 
       
     
    {\displaystyle V} 
   
 
  
    
      
        W 
       
     
    {\displaystyle W} 
   
 映射 。如果 
  
    
      
        f 
       
     
    {\displaystyle f} 
   
 
維持向量加法 ——對於任意兩個 
  
    
      
        V 
       
     
    {\displaystyle V} 
   
 
  
    
      
        x 
       
     
    {\displaystyle x} 
   
 
  
    
      
        y 
       
     
    {\displaystyle y} 
   
 
  
    
      
        f 
        ( 
        x 
        + 
        y 
        ) 
        = 
        f 
        ( 
        x 
        ) 
        + 
        f 
        ( 
        y 
        ) 
       
     
    {\displaystyle f(x+y)=f(x)+f(y)} 
   
 維持純量乘法 ——對於任何 
  
    
      
        V 
       
     
    {\displaystyle V} 
   
 
  
    
      
        x 
       
     
    {\displaystyle x} 
   
 
  
    
      
        a 
        ∈ 
        K 
       
     
    {\displaystyle a\in K} 
   
 
  
    
      
        f 
        ( 
        a 
        ⋅ 
        x 
        ) 
        = 
        a 
        ⋅ 
        f 
        ( 
        x 
        ) 
       
     
    {\displaystyle f(a\cdot x)=a\cdot f(x)} 
   
 則稱 
  
    
      
        f 
       
     
    {\displaystyle f} 
   
 
  
    
      
        K 
       
     
    {\displaystyle K} 
   
 -線性映射 。在係數體不致混淆的情況下也經常簡稱線性映射。 
這等價於要求 
  
    
      
        f 
       
     
    {\displaystyle f} 
   
 
  
    
      
        
          x 
          
            1 
           
         
        , 
        … 
        , 
        
          x 
          
            m 
           
         
        ∈ 
        V 
       
     
    {\displaystyle x_{1},\,\ldots ,\,x_{m}\in V} 
   
 
  
    
      
        
          a 
          
            1 
           
         
        , 
        … 
        , 
        
          a 
          
            m 
           
         
        ∈ 
        K 
       
     
    {\displaystyle a_{1},\,\ldots ,\,a_{m}\in K} 
   
 
  
    
      
        f 
        ( 
        
          a 
          
            1 
           
         
        ⋅ 
        
          x 
          
            1 
           
         
        + 
        ⋯ 
        + 
        
          a 
          
            m 
           
         
        ⋅ 
        
          x 
          
            m 
           
         
        ) 
        = 
        
          a 
          
            1 
           
         
        ⋅ 
        f 
        ( 
        
          x 
          
            1 
           
         
        ) 
        + 
        ⋯ 
        + 
        
          a 
          
            m 
           
         
        ⋅ 
        f 
        ( 
        
          x 
          
            m 
           
         
        ) 
       
     
    {\displaystyle f(a_{1}\cdot x_{1}+\cdots +a_{m}\cdot x_{m})=a_{1}\cdot f(x_{1})+\cdots +a_{m}\cdot f(x_{m})} 
   
 
任何的域  
  
    
      
        K 
       
     
    {\displaystyle K} 
   
 體 同樣為 
  
    
      
        K 
       
     
    {\displaystyle K} 
   
 
  
    
      
        V 
       
     
    {\displaystyle V} 
   
 
  
    
      
        K 
       
     
    {\displaystyle K} 
   
 線性泛函 泛函分析 最成熟的分支。
線性映射中的「線性」與「函數圖形是直線」沒有任何關聯。 
定義域和對應域相同的線性映射可以進行函數合成,合成的結果依然會是線性映射。但是如果改變合成的順序,那合成出來的結果通常不會相同。例如「把函數乘上 
  
    
      
        
          x 
          
            2 
           
         
       
     
    {\displaystyle x^{2}} 
   
 
  
    
      
        
          x 
          
            2 
           
         
       
     
    {\displaystyle x^{2}} 
   
 
  
    
      
        
          x 
          
            2 
           
         
       
     
    {\displaystyle x^{2}} 
   
 [ 2]  
維持向量加法的映射可能不維持純量乘法;同樣地,維持純量乘法的映射也可能不維持向量加法。[ 3]  線性變換 和線性算子 這兩個名詞,與本條目的線性映射 密切相關,但不同作者有不同的定義。而這種定義分歧的根源在於,如 
  
    
      
        f 
        : 
        V 
        → 
        V 
       
     
    {\displaystyle f:V\rightarrow V} 
   
 特殊線性映射 ,有些人為了凸顯而予之不同的稱呼。
比如Axler 和龔昇 就稱這種特殊線性映射為線性算子 [ 4] [ 5] 線性映射 和線性變換 視為同義詞;李尚志則將這種特殊線性映射稱為線性變換 [ 6] 泛函分析 的書籍一般將三者都視為本條目所定義的「線性映射 」,其他細節以函數的符號傳達[ 7] [ 8] 
本條目採用泛函分析的習慣。
恒等映射 和零映射 是線性的。[ 9] 對於實數,映射
  
    
      
        x 
        ↦ 
        
          x 
          
            2 
           
         
       
     
    {\displaystyle x\mapsto x^{2}} 
   
  
如果
  
    
      
        A 
       
     
    {\displaystyle A} 
   
 
  
    
      
        m 
        × 
        n 
       
     
    {\displaystyle m\times n} 
   
 矩陣 ,則
  
    
      
        A 
       
     
    {\displaystyle A} 
   
 
  
    
      
        
          R 
          
            n 
           
         
       
     
    {\displaystyle R^{n}} 
   
 
  
    
      
        
          R 
          
            m 
           
         
       
     
    {\displaystyle R^{m}} 
   
 列向量 
  
    
      
        x 
        ∈ 
        
          R 
          
            n 
           
         
       
     
    {\displaystyle x\in R^{n}} 
   
 
  
    
      
        A 
        x 
        ∈ 
        
          R 
          
            m 
           
         
       
     
    {\displaystyle Ax\in R^{m}} 
   
  
積分 生成從在某個區間 上所有可積分實函數的空間到
  
    
      
        R 
       
     
    {\displaystyle R} 
   
 [ 9] 微分 是從所有可微分函數的空間到所有函數的空間的線性映射。[ 9] “給函數乘上
  
    
      
        
          x 
          
            2 
           
         
       
     
    {\displaystyle x^{2}} 
   
 [ 9] 
  
    
      
        C 
       
     
    {\displaystyle C} 
   
 
  
    
      
        C 
       
     
    {\displaystyle C} 
   
  
後向移位(backward shift)運算是一種線性映射。即把無窮維向量
  
    
      
        ( 
        
          x 
          
            1 
           
         
        , 
        
          x 
          
            2 
           
         
        , 
        
          x 
          
            3 
           
         
        , 
        
          x 
          
            4 
           
         
        , 
        . 
        . 
        . 
        ) 
       
     
    {\displaystyle (x_{1},x_{2},x_{3},x_{4},...)} 
   
 
  
    
      
        T 
         
        ( 
        
          x 
          
            1 
           
         
        , 
        
          x 
          
            2 
           
         
        , 
        
          x 
          
            3 
           
         
        , 
        
          x 
          
            4 
           
         
        , 
        . 
        . 
        . 
        ) 
        = 
        ( 
        
          x 
          
            2 
           
         
        , 
        
          x 
          
            3 
           
         
        , 
        
          x 
          
            4 
           
         
        , 
        . 
        . 
        . 
        ) 
       
     
    {\displaystyle \operatorname {T} (x_{1},x_{2},x_{3},x_{4},...)=(x_{2},x_{3},x_{4},...)} 
   
 [ 9]  
如果
  
    
      
        V 
       
     
    {\displaystyle V} 
   
 
  
    
      
        W 
       
     
    {\displaystyle W} 
   
 
  
    
      
        F 
       
     
    {\displaystyle F} 
   
 
  
    
      
        f 
        : 
        V 
        → 
        W 
       
     
    {\displaystyle f:V\rightarrow W} 
   
 
  
    
      
        
          dim 
          
            F 
           
         
         
        ( 
        W 
        ) 
        × 
        
          dim 
          
            F 
           
         
         
        ( 
        V 
        ) 
       
     
    {\displaystyle \dim _{F}(W)\times \dim _{F}(V)} 
   
 [ 9]  
一次函數
  
    
      
        y 
        = 
        f 
        ( 
        x 
        ) 
        = 
        x 
        + 
        b 
       
     
    {\displaystyle y=f(x)=x+b} 
   
 
  
    
      
        b 
        = 
        0 
       
     
    {\displaystyle b=0} 
   
 
  
    
      
        b 
        = 
        0 
       
     
    {\displaystyle b=0} 
   
 
  
    
      
        f 
        ( 
        0 
        ) 
        = 
        0 
       
     
    {\displaystyle f(0)=0} 
   
 
  
    
      
        b 
        ≠ 
        0 
       
     
    {\displaystyle b\neq 0} 
   
 這里所說的線性不是指函數圖像為直線 。)同理,平移變換一般也不是線性變換(平移距離為零時才是線性變換)。[ 10] [ 11]  若 
  
    
      
        V 
       
     
    {\displaystyle V} 
   
 
  
    
      
        W 
       
     
    {\displaystyle W} 
   
 維 的、有相同的 係數體  
  
    
      
        K 
       
     
    {\displaystyle K} 
   
 
  
    
      
        V 
       
     
    {\displaystyle V} 
   
 
  
    
      
        W 
       
     
    {\displaystyle W} 
   
 矩陣 表示。
假設 
  
    
      
        T 
        : 
        V 
        → 
        W 
       
     
    {\displaystyle T:V\to W} 
   
 
  
    
      
        
          
            
              B 
             
           
          
            V 
           
         
        = 
        
          { 
          
            
              α 
              
                1 
               
             
            , 
            
              α 
              
                2 
               
             
            , 
            … 
            , 
            
              α 
              
                n 
               
             
           
          } 
         
       
     
    {\displaystyle {\mathfrak {B}}_{V}=\left\{\alpha _{1},\alpha _{2},\,\ldots ,\alpha _{n}\right\}} 
   
 
  
    
      
        
          
            
              B 
             
           
          
            W 
           
         
        = 
        
          { 
          
            
              β 
              
                1 
               
             
            , 
            
              β 
              
                2 
               
             
            , 
            … 
            , 
            
              β 
              
                m 
               
             
           
          } 
         
       
     
    {\displaystyle {\mathfrak {B}}_{W}=\left\{\beta _{1},\beta _{2},\,\ldots ,\beta _{m}\right\}} 
   
 分別是 
  
    
      
        V 
       
     
    {\displaystyle V} 
   
 
  
    
      
        W 
       
     
    {\displaystyle W} 
   
 基底 。
根據基底 
  
    
      
        
          
            
              B 
             
           
          
            W 
           
         
       
     
    {\displaystyle {\mathfrak {B}}_{W}} 
   
 
  
    
      
        
          α 
          
            i 
           
         
        ∈ 
        
          
            
              B 
             
           
          
            V 
           
         
       
     
    {\displaystyle \alpha _{i}\in {\mathfrak {B}}_{V}} 
   
 
  
    
      
        
          t 
          
            1 
            i 
           
         
        , 
        
          t 
          
            2 
            i 
           
         
        , 
        … 
        , 
        
          t 
          
            m 
            i 
           
         
        ∈ 
        K 
       
     
    {\displaystyle t_{1i},\,t_{2i},\,\ldots ,\,t_{mi}\in K} 
   
 
  
    
      
        T 
        ( 
        
          α 
          
            i 
           
         
        ) 
        = 
        
          ∑ 
          
            j 
            = 
            1 
           
          
            m 
           
         
        
          t 
          
            j 
            i 
           
         
        ⋅ 
        
          β 
          
            j 
           
         
        = 
        
          t 
          
            1 
            i 
           
         
        ⋅ 
        
          β 
          
            1 
           
         
        + 
        
          t 
          
            2 
            i 
           
         
        ⋅ 
        
          β 
          
            2 
           
         
        + 
        ⋯ 
        + 
        
          t 
          
            m 
            i 
           
         
        ⋅ 
        
          β 
          
            m 
           
         
       
     
    {\displaystyle T(\alpha _{i})=\sum _{j=1}^{m}t_{ji}\cdot \beta _{j}=t_{1i}\cdot \beta _{1}+t_{2i}\cdot \beta _{2}+\cdots +t_{mi}\cdot \beta _{m}} 
   
 直觀上,純量 
  
    
      
        
          t 
          
            1 
            i 
           
         
        , 
        
          t 
          
            2 
            i 
           
         
        , 
        … 
        , 
        
          t 
          
            m 
            i 
           
         
        ∈ 
        K 
       
     
    {\displaystyle t_{1i},\,t_{2i},\,\ldots ,\,t_{mi}\in K} 
   
 
  
    
      
        
          α 
          
            i 
           
         
        ∈ 
        
          
            
              B 
             
           
          
            V 
           
         
       
     
    {\displaystyle \alpha _{i}\in {\mathfrak {B}}_{V}} 
   
 
  
    
      
        T 
        ( 
        
          α 
          
            i 
           
         
        ) 
        ∈ 
        W 
       
     
    {\displaystyle T(\alpha _{i})\in W} 
   
 
  
    
      
        
          
            
              B 
             
           
          
            W 
           
         
       
     
    {\displaystyle {\mathfrak {B}}_{W}} 
   
 
現在任取一個 
  
    
      
        V 
       
     
    {\displaystyle V} 
   
 
  
    
      
        v 
        ∈ 
        V 
       
     
    {\displaystyle v\in V} 
   
 
  
    
      
        
          
            
              B 
             
           
          
            V 
           
         
       
     
    {\displaystyle {\mathfrak {B}}_{V}} 
   
 
  
    
      
        
          v 
          
            1 
           
         
        , 
        
          v 
          
            2 
           
         
        , 
        … 
        , 
        
          v 
          
            n 
           
         
        ∈ 
        K 
       
     
    {\displaystyle v_{1},\,v_{2},\,\ldots ,\,v_{n}\in K} 
   
 
  
    
      
        v 
        = 
        
          ∑ 
          
            i 
            = 
            1 
           
          
            n 
           
         
        
          v 
          
            i 
           
         
        ⋅ 
        
          α 
          
            i 
           
         
       
     
    {\displaystyle v=\sum _{i=1}^{n}v_{i}\cdot \alpha _{i}} 
   
 這樣根據求和符號 的性質,可以得到
  
    
      
        T 
        ( 
        v 
        ) 
        = 
        
          ∑ 
          
            i 
            = 
            1 
           
          
            n 
           
         
        
          v 
          
            i 
           
         
        ⋅ 
        
          ( 
          
            
              ∑ 
              
                j 
                = 
                1 
               
              
                m 
               
             
            
              t 
              
                j 
                i 
               
             
            ⋅ 
            
              β 
              
                j 
               
             
           
          ) 
         
        = 
        
          ∑ 
          
            i 
            = 
            1 
           
          
            n 
           
         
        
          ∑ 
          
            j 
            = 
            1 
           
          
            m 
           
         
        ( 
        
          t 
          
            j 
            i 
           
         
        
          v 
          
            i 
           
         
        ) 
        ⋅ 
        
          β 
          
            j 
           
         
        = 
        
          ∑ 
          
            j 
            = 
            1 
           
          
            m 
           
         
        
          ∑ 
          
            i 
            = 
            1 
           
          
            n 
           
         
        ( 
        
          t 
          
            j 
            i 
           
         
        
          v 
          
            i 
           
         
        ) 
        ⋅ 
        
          β 
          
            j 
           
         
        = 
        
          ∑ 
          
            j 
            = 
            1 
           
          
            m 
           
         
        
          ( 
          
            
              ∑ 
              
                i 
                = 
                1 
               
              
                n 
               
             
            
              t 
              
                j 
                i 
               
             
            
              v 
              
                i 
               
             
           
          ) 
         
        ⋅ 
        
          β 
          
            j 
           
         
       
     
    {\displaystyle T(v)=\sum _{i=1}^{n}v_{i}\cdot \left(\sum _{j=1}^{m}t_{ji}\cdot \beta _{j}\right)=\sum _{i=1}^{n}\sum _{j=1}^{m}(t_{ji}v_{i})\cdot \beta _{j}=\sum _{j=1}^{m}\sum _{i=1}^{n}(t_{ji}v_{i})\cdot \beta _{j}=\sum _{j=1}^{m}\left(\sum _{i=1}^{n}t_{ji}v_{i}\right)\cdot \beta _{j}} 
   
 然後考慮到 
  
    
      
        T 
        ( 
        v 
        ) 
        ∈ 
        W 
       
     
    {\displaystyle T(v)\in W} 
   
 
  
    
      
        
          
            
              B 
             
           
          
            W 
           
         
       
     
    {\displaystyle {\mathfrak {B}}_{W}} 
   
 
  
    
      
        
          λ 
          
            1 
           
         
        , 
        
          λ 
          
            2 
           
         
        , 
        … 
        , 
        
          λ 
          
            m 
           
         
        ∈ 
        K 
       
     
    {\displaystyle \lambda _{1},\,\lambda _{2},\,\ldots ,\,\lambda _{m}\in K} 
   
 
  
    
      
        T 
        ( 
        v 
        ) 
        = 
        
          ∑ 
          
            j 
            = 
            1 
           
          
            m 
           
         
        
          λ 
          
            j 
           
         
        ⋅ 
        
          β 
          
            j 
           
         
       
     
    {\displaystyle T(v)=\sum _{j=1}^{m}\lambda _{j}\cdot \beta _{j}} 
   
 因為這樣的純量 
  
    
      
        
          λ 
          
            1 
           
         
        , 
        
          λ 
          
            2 
           
         
        , 
        … 
        , 
        
          λ 
          
            M 
           
         
        ∈ 
        K 
       
     
    {\displaystyle \lambda _{1},\,\lambda _{2},\,\ldots ,\,\lambda _{M}\in K} 
   
 
  
    
      
        j 
        = 
        1 
        , 
        2 
        , 
        … 
        , 
        m 
       
     
    {\displaystyle j=1,\,2,\,\ldots ,\,m} 
   
 
  
    
      
        
          λ 
          
            j 
           
         
        = 
        
          ∑ 
          
            i 
            = 
            1 
           
          
            n 
           
         
        
          t 
          
            j 
            i 
           
         
        
          v 
          
            i 
           
         
       
     
    {\displaystyle \lambda _{j}=\sum _{i=1}^{n}t_{ji}v_{i}} 
   
 考慮到矩陣乘法 的定義,上式可以改寫為
  
    
      
        
          
            [ 
            
              
                
                  
                    λ 
                    
                      1 
                     
                   
                 
               
              
                
                  
                    λ 
                    
                      2 
                     
                   
                 
               
              
                
                  ⋮ 
                 
               
              
                
                  
                    λ 
                    
                      m 
                     
                   
                 
               
             
            ] 
           
         
        = 
        
          
            [ 
            
              
                
                  
                    t 
                    
                      11 
                     
                   
                 
                
                  
                    t 
                    
                      12 
                     
                   
                 
                
                  … 
                 
                
                  
                    t 
                    
                      1 
                      n 
                     
                   
                 
               
              
                
                  
                    t 
                    
                      21 
                     
                   
                 
                
                  
                    t 
                    
                      22 
                     
                   
                 
                
                  … 
                 
                
                  
                    t 
                    
                      2 
                      n 
                     
                   
                 
               
              
                
                  ⋮ 
                 
                
                  ⋮ 
                 
                
                  ⋱ 
                 
                
                  ⋮ 
                 
               
              
                
                  
                    t 
                    
                      m 
                      1 
                     
                   
                 
                
                  
                    t 
                    
                      m 
                      2 
                     
                   
                 
                
                  … 
                 
                
                  
                    t 
                    
                      m 
                      n 
                     
                   
                 
               
             
            ] 
           
         
        
          
            [ 
            
              
                
                  
                    v 
                    
                      1 
                     
                   
                 
               
              
                
                  
                    v 
                    
                      2 
                     
                   
                 
               
              
                
                  ⋮ 
                 
               
              
                
                  
                    v 
                    
                      n 
                     
                   
                 
               
             
            ] 
           
         
       
     
    {\displaystyle {\begin{bmatrix}\lambda _{1}\\\lambda _{2}\\\vdots \\\lambda _{m}\end{bmatrix}}={\begin{bmatrix}t_{11}&t_{12}&\dots &t_{1n}\\t_{21}&t_{22}&\dots &t_{2n}\\\vdots &\vdots &\ddots &\vdots \\t_{m1}&t_{m2}&\dots &t_{mn}\end{bmatrix}}{\begin{bmatrix}v_{1}\\v_{2}\\\vdots \\v_{n}\end{bmatrix}}} 
   
 也就是說,只要知道 
  
    
      
        T 
        ( 
        
          α 
          
            i 
           
         
        ) 
       
     
    {\displaystyle T(\alpha _{i})} 
   
 
  
    
      
        
          
            
              B 
             
           
          
            W 
           
         
       
     
    {\displaystyle {\mathfrak {B}}_{W}} 
   
 
  
    
      
        
          t 
          
            j 
            i 
           
         
       
     
    {\displaystyle t_{ji}} 
   
 
  
    
      
        v 
        ∈ 
        V 
       
     
    {\displaystyle v\in V} 
   
 
  
    
      
        T 
        ( 
        v 
        ) 
       
     
    {\displaystyle T(v)} 
   
 
  
    
      
        
          T 
         
        = 
        
          
            [ 
            
              t 
              
                j 
                i 
               
             
            ] 
           
          
            m 
            × 
            n 
           
         
       
     
    {\displaystyle \mathbf {T} ={[t_{ji}]}_{m\times n}} 
   
 行向量  
  
    
      
        
          v 
         
        = 
        
          
            [ 
            
              v 
              
                i 
               
             
            ] 
           
          
            n 
            × 
            1 
           
         
       
     
    {\displaystyle \mathbf {v} ={[v_{i}]}_{n\times 1}} 
   
 
  
    
      
        
          T 
         
        = 
        
          
            [ 
            
              t 
              
                j 
                i 
               
             
            ] 
           
          
            m 
            × 
            n 
           
         
       
     
    {\displaystyle \mathbf {T} ={[t_{ji}]}_{m\times n}} 
   
 
  
    
      
        T 
        ( 
        
          α 
          
            i 
           
         
        ) 
       
     
    {\displaystyle T(\alpha _{i})} 
   
 行 (column )擺放所構成的。
由上面的推導可以知道,不同的基底  
  
    
      
        
          
            
              B 
             
           
          
            V 
           
         
       
     
    {\displaystyle {\mathfrak {B}}_{V}} 
   
 
  
    
      
        
          
            
              B 
             
           
          
            W 
           
         
       
     
    {\displaystyle {\mathfrak {B}}_{W}} 
   
 
  
    
      
        
          T 
         
        = 
        
          
            [ 
            
              t 
              
                j 
                i 
               
             
            ] 
           
          
            m 
            × 
            n 
           
         
       
     
    {\displaystyle \mathbf {T} ={[t_{ji}]}_{m\times n}} 
   
 不同 ,為了強調這點,也會將矩陣 
  
    
      
        
          T 
         
       
     
    {\displaystyle \mathbf {T} } 
   
 
  
    
      
        
          T 
         
        = 
        
          
            [ 
            T 
            ] 
           
          
            
              
                
                  B 
                 
               
              
                W 
               
             
           
          
            
              
                
                  B 
                 
               
              
                V 
               
             
           
         
       
     
    {\displaystyle \mathbf {T} ={[T]}_{{\mathfrak {B}}_{W}}^{{\mathfrak {B}}_{V}}} 
   
 來強調這種關聯性。
若 
  
    
      
        T 
        : 
        V 
        → 
        V 
       
     
    {\displaystyle T:V\to V} 
   
 
  
    
      
        V 
       
     
    {\displaystyle V} 
   
 
  
    
      
        
          
            
              B 
             
           
          
            V 
           
         
        = 
        
          
            
              B 
             
           
          
            W 
           
         
       
     
    {\displaystyle {\mathfrak {B}}_{V}={\mathfrak {B}}_{W}} 
   
 
  
    
      
        
          T 
         
        = 
        
          
            [ 
            T 
            ] 
           
          
            
              
                
                  B 
                 
               
              
                V 
               
             
           
         
       
     
    {\displaystyle \mathbf {T} ={[T]}_{{\mathfrak {B}}_{V}}} 
   
 若有由 
  
    
      
        m 
        × 
        n 
       
     
    {\displaystyle m\times n} 
   
 
  
    
      
        
          A 
         
        = 
        
          
            [ 
            
              a 
              
                i 
                j 
               
             
            ] 
           
          
            m 
            × 
            n 
           
         
        ∈ 
        
          K 
          
            m 
            × 
            n 
           
         
       
     
    {\displaystyle \mathbf {A} ={[a_{ij}]}_{m\times n}\in K^{m\times n}} 
   
 
  
    
      
        f 
        : 
        
          K 
          
            n 
            × 
            1 
           
         
        → 
        
          K 
          
            m 
            × 
            1 
           
         
       
     
    {\displaystyle f:K^{n\times 1}\to K^{m\times 1}} 
   
 
  
    
      
        f 
        ( 
        
          x 
         
        ) 
        = 
        
          A 
         
        
          x 
         
       
     
    {\displaystyle f(\mathbf {x} )=\mathbf {A} \mathbf {x} } 
   
 其中
  
    
      
        
          x 
         
        = 
        
          
            [ 
            
              
                
                  
                    x 
                    
                      1 
                     
                   
                 
               
              
                
                  
                    x 
                    
                      2 
                     
                   
                 
               
              
                
                  ⋮ 
                 
               
              
                
                  
                    x 
                    
                      n 
                     
                   
                 
               
             
            ] 
           
         
        ∈ 
        
          K 
          
            n 
            × 
            1 
           
         
       
     
    {\displaystyle \mathbf {x} ={\begin{bmatrix}x_{1}\\x_{2}\\\vdots \\x_{n}\end{bmatrix}}\in K^{n\times 1}} 
   
 因為矩陣乘法 只有唯一的結果,上面的定義的確符合函數 定義的基本要求。然後考慮 
  
    
      
        
          K 
          
            n 
            × 
            1 
           
         
       
     
    {\displaystyle K^{n\times 1}} 
   
 
  
    
      
        
          K 
          
            m 
            × 
            1 
           
         
       
     
    {\displaystyle K^{m\times 1}} 
   
 同個 純量體  
  
    
      
        K 
       
     
    {\displaystyle K} 
   
 向量空間 ,而且矩陣乘法是線性的,所以上述定義的函數 
  
    
      
        f 
       
     
    {\displaystyle f} 
   
 
根据积 和余积 的泛性质,我们有
  
    
      
        
          H 
          o 
          m 
         
        
          ( 
          
            
              ⨁ 
              
                i 
                ∈ 
                I 
               
             
            
              U 
              
                i 
               
             
            , 
            
              ∏ 
              
                j 
                ∈ 
                J 
               
             
            
              V 
              
                j 
               
             
           
          ) 
         
        ≃ 
        
          ∏ 
          
            i 
            ∈ 
            I 
           
         
        
          ∏ 
          
            j 
            ∈ 
            J 
           
         
        
          H 
          o 
          m 
         
        
          ( 
          
            
              U 
              
                i 
               
             
            , 
            
              V 
              
                j 
               
             
           
          ) 
         
        . 
       
     
    {\displaystyle \mathrm {Hom} \left(\bigoplus _{i\in I}U_{i},\prod _{j\in J}V_{j}\right)\simeq \prod _{i\in I}\prod _{j\in J}\mathrm {Hom} \left(U_{i},V_{j}\right).} 
   
 在 
  
    
      
        K 
       
     
    {\displaystyle K} 
   
 线性空间 构成的范畴 中,有限个线性空间的余积和积是一回事。对于 
  
    
      
        U 
        , 
        V 
       
     
    {\displaystyle U,V} 
   
 
  
    
      
        
          
            
              b 
             
           
          
            1 
           
         
        , 
        … 
        , 
        
          
            
              b 
             
           
          
            n 
           
         
        , 
        
          
            
              b 
             
           
          
            1 
           
          ′ 
         
        , 
        … 
        , 
        
          
            
              b 
             
           
          
            m 
           
          ′ 
         
       
     
    {\displaystyle {\mathbf {b}}_{1},\dots ,{\mathbf {b}}_{n},{\mathbf {b}}'_{1},\dots ,{\mathbf {b}}'_{m}} 
   
 
  
    
      
        
          U 
          
            i 
           
         
        = 
        
          
            
              b 
             
           
          
            i 
           
         
        K 
        , 
        
          V 
          
            i 
           
         
        = 
        
          
            
              b 
             
           
          
            i 
           
          ′ 
         
        k 
       
     
    {\displaystyle U_{i}={\mathbf {b}}_{i}K,V_{i}={\mathbf {b}}'_{i}k} 
   
 
  
    
      
        
          H 
          o 
          m 
         
        ( 
        
          U 
          
            i 
           
         
        , 
        
          V 
          
            j 
           
         
        ) 
        ≃ 
        K 
       
     
    {\displaystyle \mathrm {Hom} (U_{i},V_{j})\simeq K} 
   
 
  
    
      
        
          H 
          o 
          m 
         
        ( 
        U 
        , 
        V 
        ) 
       
     
    {\displaystyle \mathrm {Hom} (U,V)} 
   
 
  
    
      
        n 
        m 
       
     
    {\displaystyle nm} 
   
 
  
    
      
        K 
       
     
    {\displaystyle K} 
   
 
把線性映射寫成具體而簡明的2維數陣形式後,就成了一種矩陣。進而由線性映射的加法規則和覆合規則來分別定義矩陣的加法規則和乘法規則是很自然的想法。[ 12] 分塊 計算,可以通過適當的變換以“解耦”(把覆雜的變換分解為一些簡單變換的組合)。要求出一個線性變換的秩 ,先寫出其矩陣形式幾乎是不可避免的一個步驟。 
遇到
  
    
      
        y 
        = 
        x 
        + 
        3 
       
     
    {\displaystyle y=x+3} 
   
 計算機圖形學 和剛體理論(及其相關機械制造 和機器人學 )中都有大量應用。 
對角化的矩陣具有諸多優點。線性映射在寫成矩陣後可以進行對角化 (不能對角化的矩陣可以化簡成接近對角矩陣的準對角矩陣 ),從而可以獲得對角化矩陣擁有的獨特優勢(極大地簡化乘法運算,易於分塊,容易看出與基的選取無關的不變量 )。比如,對於作用於同一個空間的可對角化的方形矩陣
  
    
      
        A 
       
     
    {\displaystyle A} 
   
 
  
    
      
        A 
       
     
    {\displaystyle A} 
   
 
  
    
      
        n 
       
     
    {\displaystyle n} 
   
 
  
    
      
        
          A 
          
            n 
           
         
       
     
    {\displaystyle A^{n}} 
   
 遞推數列 通項公式 的線性代數求解法和馬爾可夫鏈 的極限狀態(極限分布)的求解。線性代數及矩陣論的一個主要問題就是尋找可使矩陣對角化的條件或者可使矩陣化簡到含很多個0的條件[ 13]  二維空間
  
    
      
        
          R 
          
            2 
           
         
       
     
    {\displaystyle R^{2}} 
   
 
逆時針旋轉 90度:
  
    
      
        A 
        = 
        
          
            [ 
            
              
                
                  0 
                 
                
                  − 
                  1 
                 
               
              
                
                  1 
                 
                
                  0 
                 
               
             
            ] 
           
         
       
     
    {\displaystyle A={\begin{bmatrix}0&-1\\1&0\end{bmatrix}}} 
   
  
逆時針旋轉 
  
    
      
        θ 
       
     
    {\displaystyle \theta } 
   
 [ 14] 
  
    
      
        A 
        = 
        
          
            [ 
            
              
                
                  cos 
                   
                  ( 
                  θ 
                  ) 
                 
                
                  − 
                  sin 
                   
                  ( 
                  θ 
                  ) 
                 
               
              
                
                  sin 
                   
                  ( 
                  θ 
                  ) 
                 
                
                  cos 
                   
                  ( 
                  θ 
                  ) 
                 
               
             
            ] 
           
         
       
     
    {\displaystyle A={\begin{bmatrix}\cos(\theta )&-\sin(\theta )\\\sin(\theta )&\cos(\theta )\end{bmatrix}}} 
   
  
針對y 軸反射 :
  
    
      
        A 
        = 
        
          
            [ 
            
              
                
                  1 
                 
                
                  0 
                 
               
              
                
                  0 
                 
                
                  − 
                  1 
                 
               
             
            ] 
           
         
       
     
    {\displaystyle A={\begin{bmatrix}1&0\\0&-1\end{bmatrix}}} 
   
  
在所有方向上放大 2倍:
  
    
      
        A 
        = 
        
          
            [ 
            
              
                
                  2 
                 
                
                  0 
                 
               
              
                
                  0 
                 
                
                  2 
                 
               
             
            ] 
           
         
       
     
    {\displaystyle A={\begin{bmatrix}2&0\\0&2\end{bmatrix}}} 
   
  
水平錯切 :
  
    
      
        A 
        = 
        
          
            [ 
            
              
                
                  1 
                 
                
                  m 
                 
               
              
                
                  0 
                 
                
                  1 
                 
               
             
            ] 
           
         
       
     
    {\displaystyle A={\begin{bmatrix}1&m\\0&1\end{bmatrix}}} 
   
 擠壓 :
  
    
      
        A 
        = 
        
          
            [ 
            
              
                
                  k 
                 
                
                  0 
                 
               
              
                
                  0 
                 
                
                  1 
                  
                    / 
                   
                  k 
                 
               
             
            ] 
           
         
       
     
    {\displaystyle A={\begin{bmatrix}k&0\\0&1/k\end{bmatrix}}} 
   
 向y 軸投影 :
  
    
      
        A 
        = 
        
          
            [ 
            
              
                
                  0 
                 
                
                  0 
                 
               
              
                
                  0 
                 
                
                  1 
                 
               
             
            ] 
           
         
       
     
    {\displaystyle A={\begin{bmatrix}0&0\\0&1\end{bmatrix}}} 
   
  兩個線性映射的覆合映射 是線性的:如果
  
    
      
        f 
        : 
        V 
        → 
        W 
       
     
    {\displaystyle f:V\rightarrow W} 
   
 
  
    
      
        g 
        : 
        W 
        → 
        Z 
       
     
    {\displaystyle g:W\rightarrow Z} 
   
 
  
    
      
        g 
        ∘ 
        f 
        : 
        V 
        → 
        Z 
       
     
    {\displaystyle g\circ f:V\rightarrow Z} 
   
 
若線性映射可逆 ,則該線性映射的逆 也是線性映射。
如果
  
    
      
        
          f 
          
            1 
           
         
        : 
        V 
        → 
        W 
       
     
    {\displaystyle f_{1}:V\rightarrow W} 
   
 
  
    
      
        
          f 
          
            2 
           
         
        : 
        V 
        → 
        W 
       
     
    {\displaystyle f_{2}:V\rightarrow W} 
   
 
  
    
      
        
          f 
          
            1 
           
         
        + 
        
          f 
          
            2 
           
         
       
     
    {\displaystyle f_{1}+f_{2}} 
   
 
  
    
      
        
          ( 
          
            
              f 
              
                1 
               
             
            + 
            
              f 
              
                2 
               
             
           
          ) 
         
        
          ( 
          x 
          ) 
         
        = 
        
          f 
          
            1 
           
         
        
          ( 
          x 
          ) 
         
        + 
        
          f 
          
            2 
           
         
        
          ( 
          x 
          ) 
         
       
     
    {\displaystyle \left(f_{1}+f_{2}\right)\left(x\right)=f_{1}\left(x\right)+f_{2}\left(x\right)} 
   
 
如果
  
    
      
        f 
        : 
        V 
        → 
        W 
       
     
    {\displaystyle f:V\rightarrow W} 
   
 a 是基礎體K 的一個元素,則定義自 (af )(x ) = a  (f (x ))的映射af 也是線性的。
所以從
  
    
      
        V 
       
     
    {\displaystyle V} 
   
 
  
    
      
        W 
       
     
    {\displaystyle W} 
   
 
  
    
      
        L 
        
          ( 
          
            V 
            , 
            W 
           
          ) 
         
       
     
    {\displaystyle L\left(V,W\right)} 
   
 
  
    
      
        K 
       
     
    {\displaystyle K} 
   
 
  
    
      
        
          H 
          o 
          m 
         
        
          ( 
          
            V 
            , 
            W 
           
          ) 
         
       
     
    {\displaystyle \mathrm {Hom} \left(V,W\right)} 
   
 
  
    
      
        V 
        = 
        W 
       
     
    {\displaystyle V=W} 
   
 
  
    
      
        
          E 
          n 
          d 
         
        ( 
        V 
        ) 
       
     
    {\displaystyle \mathrm {End} (V)} 
   
 映射覆合 下的結合代數 ,因為兩個線性映射的覆合再次是線性映射,所以映射的覆合總是結合律的。
給定有限維的情況,如果基已經選擇好了,則線性映射的覆合對應於矩陣乘法 ,線性映射的加法對應於矩陣加法 ,而線性映射與純量的乘法對應於矩陣與純量的乘法。
自同態的線性映射在泛函分析和量子力學 中都有很重要的地位。按前文約定,我們用“線性算子”來簡稱它。(注意泛函分析中所說的“線性算子”不一定是自同態 (endomorphism)映射,但我們為了照顧不同書籍的差異以及敘述的方便,暫用“線性算子”來稱呼這種自同態。)
自同態 是一個數學對象 到它本身的保持結構的映射(同態 ),例如群
  
    
      
        G 
       
     
    {\displaystyle G} 
   
 群同態 
  
    
      
        f 
        : 
        G 
        → 
        G 
       
     
    {\displaystyle f:G\to G} 
   
 
  
    
      
        V 
       
     
    {\displaystyle V} 
   
 
  
    
      
        f 
        : 
        V 
        → 
        V 
       
     
    {\displaystyle f:V\rightarrow V} 
   
 
  
    
      
        
          E 
          n 
          d 
         
        ( 
        V 
        ) 
       
     
    {\displaystyle \mathrm {End} (V)} 
   
 結合代數 ,帶有在體
  
    
      
        K 
       
     
    {\displaystyle K} 
   
 恒等映射 
  
    
      
        
          i 
          d 
         
        : 
        V 
        → 
        V 
       
     
    {\displaystyle \mathrm {id} :V\rightarrow V} 
   
 
若
  
    
      
        V 
       
     
    {\displaystyle V} 
   
 同構 則稱之為自同構 。兩個自同構的覆合 再次是自同構,所以
  
    
      
        V 
       
     
    {\displaystyle V} 
   
 群 ,
  
    
      
        V 
       
     
    {\displaystyle V} 
   
 自同構群 可表為
  
    
      
        
          A 
          u 
          t 
         
        ( 
        V 
        ) 
       
     
    {\displaystyle \mathrm {Aut} (V)} 
   
 
  
    
      
        
          G 
          L 
         
        ( 
        V 
        ) 
       
     
    {\displaystyle \mathrm {GL} (V)} 
   
 
  
    
      
        
          A 
          u 
          t 
         
        ( 
        V 
        ) 
       
     
    {\displaystyle \mathrm {Aut} (V)} 
   
 
  
    
      
        
          E 
          n 
          d 
         
        ( 
        V 
        ) 
       
     
    {\displaystyle \mathrm {End} (V)} 
   
 可逆元群 。
如果
  
    
      
        V 
       
     
    {\displaystyle V} 
   
 
  
    
      
        n 
       
     
    {\displaystyle n} 
   
 
  
    
      
        
          E 
          n 
          d 
         
        ( 
        V 
        ) 
       
     
    {\displaystyle \mathrm {End} (V)} 
   
 同構 於帶有在
  
    
      
        K 
       
     
    {\displaystyle K} 
   
 
  
    
      
        n 
        × 
        n 
       
     
    {\displaystyle n\times n} 
   
 結合代數 ,且
  
    
      
        V 
       
     
    {\displaystyle V} 
   
 同構 於帶有在
  
    
      
        K 
       
     
    {\displaystyle K} 
   
 
  
    
      
        n 
        × 
        n 
       
     
    {\displaystyle n\times n} 
   
 一般線性群 
  
    
      
        
          G 
          L 
         
        ( 
        n 
        , 
        K 
        ) 
       
     
    {\displaystyle \mathrm {GL} (n,K)} 
   
 
若尔当标准型 叙述了代数闭域 
  
    
      
        K 
       
     
    {\displaystyle K} 
   
 
  
    
      
        V 
       
     
    {\displaystyle V} 
   
 
  
    
      
        φ 
       
     
    {\displaystyle \varphi } 
   
 
  
    
      
        V 
       
     
    {\displaystyle V} 
   
 有理标准型 是将其推广到任意域上的方法。
對於一個線性映射 
  
    
      
        f 
        : 
        V 
        → 
        W 
       
     
    {\displaystyle f:V\rightarrow W} 
   
 
核 ( Kernel )——送到零向量的那些向量:
  
    
      
        
          K 
          e 
          r 
         
        ( 
        f 
        ) 
        := 
        
          f 
          
            − 
            1 
           
         
        ( 
        
          0 
         
        ) 
        = 
        { 
        x 
        ∈ 
        V 
        ∣ 
        f 
        ( 
        x 
        ) 
        = 
        
          0 
         
        } 
        ⊆ 
        V 
       
     
    {\displaystyle \mathrm {Ker} (f):=f^{-1}(\mathbf {0} )=\{x\in V\mid f(x)=\mathbf {0} \}\subseteq V} 
   
 像 ( Image )——把整個空間送過去後的結果:
  
    
      
        
          I 
          m 
         
        ( 
        f 
        ) 
        := 
        f 
        ( 
        V 
        ) 
        = 
        { 
        f 
        ( 
        x 
        ) 
        ∈ 
        W 
        ∣ 
        x 
        ∈ 
        V 
        } 
        ⊆ 
        W 
       
     
    {\displaystyle \mathrm {Im} (f):=f(V)=\{f(x)\in W\mid x\in V\}\subseteq W} 
   
 那麼 
  
    
      
        Ker 
         
        ( 
        f 
        ) 
       
     
    {\displaystyle \operatorname {Ker} (f)} 
   
 
  
    
      
        V 
       
     
    {\displaystyle V} 
   
 子空間 ,而 
  
    
      
        Im 
         
        ( 
        f 
        ) 
       
     
    {\displaystyle \operatorname {Im} (f)} 
   
 
  
    
      
        W 
       
     
    {\displaystyle W} 
   
 秩-零化度定理 的維度公式經常是有用的:
  
    
      
        dim 
         
        ( 
        
          K 
          e 
          r 
         
        ( 
        f 
        ) 
        ) 
        + 
        dim 
         
        ( 
        
          I 
          m 
         
        ( 
        f 
        ) 
        ) 
        = 
        dim 
         
        ( 
        V 
        ) 
       
     
    {\displaystyle \dim(\mathrm {Ker} (f))+\dim(\mathrm {Im} (f))=\dim(V)} 
   
 
  
    
      
        dim 
         
        ( 
        
          I 
          m 
         
        ( 
        f 
        ) 
        ) 
       
     
    {\displaystyle \dim(\mathrm {Im} (f))} 
   
 
  
    
      
        f 
       
     
    {\displaystyle f} 
   
 
  
    
      
        
          r 
          k 
         
        ( 
        f 
        ) 
       
     
    {\displaystyle \mathrm {rk} (f)} 
   
 
  
    
      
        ρ 
        ( 
        f 
        ) 
       
     
    {\displaystyle \rho (f)} 
   
 
  
    
      
        dim 
         
        ( 
        
          K 
          e 
          r 
         
        ( 
        f 
        ) 
        ) 
       
     
    {\displaystyle \dim(\mathrm {Ker} (f))} 
   
 
  
    
      
        f 
       
     
    {\displaystyle f} 
   
 
  
    
      
        v 
        ( 
        f 
        ) 
       
     
    {\displaystyle v(f)} 
   
 
  
    
      
        V 
       
     
    {\displaystyle V} 
   
 
  
    
      
        W 
       
     
    {\displaystyle W} 
   
 
  
    
      
        f 
       
     
    {\displaystyle f} 
   
 
  
    
      
        f 
       
     
    {\displaystyle f} 
   
 秩 和零化度 。
這個定理在抽象代數的推廣是同構定理 。
多重線性映射 是線性映射最重要的推廣,它也是格拉斯曼代數 和張量分析 的數學基礎。其特例為雙線性映射 。