全文共1440字,預計閱讀時長3分鐘
一提到線性代數(shù)就淚流滿面?技能點都給了吐槽,作業(yè)總是不會做?
很多年以后,也許你仍然會記得一個大括號加上一堆數(shù)字所帶給你的恐懼;很多年以后,你也可能會記得,在終于掌握了矩陣計算時還是對深度學習一頭霧水的傷感。
而這,就是線性代數(shù)的滋味。
掌握線性代數(shù)是學習AI的前置要求。無論是想發(fā)家致富,還是想探尋計算機與代碼的奧妙,又或者想為全人類的未來做貢獻,只要試圖入行AI,線性代數(shù)必定是一道必須邁過的坎。
不過,線性代數(shù)并不是無法逾越的鴻溝,或許很多時候,你只是沒有找到正確的切入點。
重點是運算方法
學知識要從完全理解概念開始?這一理論在一般情況下十分正確。
但是對于線性代數(shù)而言,在初步了解概念之后,就應該將目光轉(zhuǎn)入運算方法。
AI運算中,最主要的一種方式就是多變量線性回歸,包含數(shù)據(jù)預處理、賦予權(quán)重、批量梯度下降這三個模塊。
在數(shù)據(jù)預處理時,高維向量會被使用,作為特征參數(shù)的表達。列向量則將會用于表示權(quán)重,組成一個權(quán)重矩陣。
而所謂賦予權(quán)重的過程,實質(zhì)上就是高維向量與列向量相乘的過程。
而其他模塊同樣也會涉及矩陣的計算,比如卷積操作過程。
因而,熟練掌握公式是最核心的需求。
歸納起來便是以下幾種公式:
矩陣之間的加法和乘法運算。其中乘法運算最為高頻。要注意的是,矩陣的乘法不滿足交換律,但滿足結(jié)合律。
矩陣與標量之間的運算,同樣也包含加法和乘法兩種。
矩陣的轉(zhuǎn)置和逆運算。需要注意的是,不是所有的矩陣都存在逆矩陣。而矩陣的轉(zhuǎn)置也有許多前提條件需要注意。
由此可見,在對于線性代數(shù)有基本了解之后,所需要理解的概念就只有矩陣、標量以及組成矩陣的向量和這三者集合的統(tǒng)稱張量這四個概念。
理解只在于方法
其實,對于線性代數(shù)來說,就算熟記所有公式,也很難get到每一個計算背后的意義及其達成的效果。
但是通過逆向思考和刨根究底,對線代深入理解也很容易。
比如最常見的一個問題——線性變換到底該如何理解?
如果你翻閱教科書或是直接百度一下,你很有可能會得到這樣的答案:線性映射是從一個向量空間V到另一個向量空間W的映射且保持加法運算和數(shù)量乘法運算,而線性變換是線性空間V到其自身的線性映射。
其實,你可以通過不斷地向自己發(fā)問,從結(jié)果開始,從后向前進行思考。
線性變換得出的結(jié)果是怎樣的?是圖像的變換,是一種運動。
運動需要什么元素來定義?運動對象和運動方式。
而在線性空間里,對象的表示方式是什么?是向量。
那么該如何表示運動的方式?需要描述一個向量到另一個向量過程再到下一個向量的過程,簡單來說就是點到點的變換。這一則信息就可以表述為[向量A 向量B 向量C ……],也就是一個矩陣。
而要讓向量運動起來,則需要通過乘法。這時候你便可以得出,線性變換就是矩陣與向量的乘法運算。
讀芯君開扒
線性代數(shù)其實很簡單
在剛開始學習線性代數(shù)時,你一定會認為別人說的——線代比高數(shù)簡單——是對你深深的欺騙,但實際上的確如此。
而讓人產(chǎn)生這種感覺的根源,在于其對概念的故弄玄虛。
其實,要深入理解線性代數(shù),遵從教科書的步伐將會帶來很多困難。最直接而有效的方式,其實就是在大概了解線性代數(shù)的全局后,從最基本的概念開始研究,從空間、從線性空間、從矩陣……
同時需要注意的是,對于線性代數(shù)來說,最重要的不是概念本身,而是概念背后的實質(zhì)。就像基的實質(zhì),就是坐標系;而矩陣的實質(zhì),就是點的集合……只有這樣,才能撥云見日。
留言 點贊 發(fā)個朋友圈
我們一起探討AI落地的最后一公里
作者:羊習習
參考文獻鏈接:
http://m.sohu.com/a/232586862_114877
https://www.guokr.com/post/300903/
如需轉(zhuǎn)載,請后臺留言,遵守轉(zhuǎn)載規(guī)范