《線性代數應該這樣學》解讀「7」


《線性代數應該這樣學》解讀「7」


《線性代數應該這樣學》解讀「7」

昨天晚上因為數學建模美賽有點鬱悶,今天繼續更新。

我們其實可以把線性映射看成是一種“操作”,我們接著來講幾種有趣的線性映射:

x^2乘(multiplication by x^2)


《線性代數應該這樣學》解讀「7」

實際上,這個“操作”就是把函數的自變量拎出來,平方一下,再和函數本身相乘,得到了新的函數。

後向移位(backward shift)


《線性代數應該這樣學》解讀「7」

後向移位就顧名思義啦。

普遍線性映射

為什麼說即將介紹的這個線性映射是一種“普遍”線性映射呢?因為其具有一般性,幾乎所有的向量空間之間的映射都出自這個映射。


話不多說,上圖。


《線性代數應該這樣學》解讀「7」


《線性代數應該這樣學》解讀「7」

是不是有點糊塗了?我當時也是這樣。我們回想一下,在學習線性組合的時候(可查看往期文章),我們說過每一個向量本身可以用組成向量空間的那一組向量的線性組合來得到,具體來說就是把自己的係數取作1其他的係數取作0即可,現在只不過是,我們把原向量空間的向量,線性組合起來,然後把它叫作一種新的向量空間,這個過程就是這種線性映射。通過取合適係數的方式,你給出什麼向量我都可以給你表示出來,這就是一種普遍的線性映射。下面也繼續詳細的說明這點:(不懂的可以私信我或評論)

《線性代數應該這樣學》解讀「7」


《線性代數應該這樣學》解讀「7」

這段話是什麼意思呢?就是說如果我們給每一個向量v都配一樣的係數,那麼就好像我們P圖的時候只能整體把圖片放大縮小,而不能具體的比如說把鼻子修小一點嘴巴修小一點啦這樣的,所以給每個向量分配到的係數不一樣就滿足了我們表示所有向量的願望。


線性變換的加法和乘法

現在,我們要在L(V,W),上定義加法和標量乘法,以使其成為一個向量空間.

加法:對於S,T∈L(V, w),採用通常的函數加法,可以定義一個函數S+T ∈ L(V,W):

(S+T)u=S(u)+T(u),u∈V。這是顯而易見的。

乘法:對於a∈F和T∈L(V,W),採用通常的數與函數的乘法,可以定義一個函數aT∈L(V, W):

(aT)u=a(Tu),u∈V,這個可以結合複合函數來理解,注意,和複合函數一樣的,這需要之前一個操作得到的值域在後一個操作需要的定義域內哦,不然就有bug了。

注意, L(V, W)的加法單位元就是本節前面所定義的零映射.


一般來 說,向量空間中的兩個元素相乘是沒有意義的,但是對於一對適當的線性映射卻存在一種有用的乘積。兩個線性映射的乘積這種操作又可以構造一個新的向量空間,所以我們就有了第三個向量空間。假設∪是F上的向量空間, 如果T∈L(U,V), S∈L(V,W),那麼定義ST L(U,W)如下:

(ST)(u)=S(Tu),v∈U.

也就是說,ST恰為通常的函數複合,我們稱ST是S和T的乘積(product). 你應該驗證,它具有乘積的大多數常見性質:

結合性(associativity)


《線性代數應該這樣學》解讀「7」

恆等映射(identity)


《線性代數應該這樣學》解讀「7」

分配性質(distributive properties)


《線性代數應該這樣學》解讀「7」

注意!!!!!線性映射的乘法不是交換的!!!!也就是說,ST = TS未必成立,因為這需要之前一個操作得到的值域在後一個操作需要的定義域內!!!S到T可能成立,反之未必。

睡覺!不懂明天可以問我啦!


《線性代數應該這樣學》解讀「7」


分享到:


相關文章: