現(xiàn)在位置:主頁 > 國內(nèi) > 這個AI學習的“攔路虎”,怎么破?

這個AI學習的“攔路虎”,怎么破?

作者:編輯 ? 時間:2018-07-20 ? 瀏覽:人次

全文共1440字,預計閱讀時長3分鐘

一提到線性代數(shù)就淚流滿面?技能點都給了吐槽,作業(yè)總是不會做?

很多年以后,也許你仍然會記得一個大括號加上一堆數(shù)字所帶給你的恐懼;很多年以后,你也可能會記得,在終于掌握了矩陣計算時還是對深度學習一頭霧水的傷感。

而這,就是線性代數(shù)的滋味。

掌握線性代數(shù)是學習AI的前置要求。無論是想發(fā)家致富,還是想探尋計算機與代碼的奧妙,又或者想為全人類的未來做貢獻,只要試圖入行AI,線性代數(shù)必定是一道必須邁過的坎。

不過,線性代數(shù)并不是無法逾越的鴻溝,或許很多時候,你只是沒有找到正確的切入點。

重點是運算方法

學知識要從完全理解概念開始?這一理論在一般情況下十分正確。

但是對于線性代數(shù)而言,在初步了解概念之后,就應該將目光轉(zhuǎn)入運算方法。

AI運算中,最主要的一種方式就是多變量線性回歸,包含數(shù)據(jù)預處理、賦予權(quán)重、批量梯度下降這三個模塊。

在數(shù)據(jù)預處理時,高維向量會被使用,作為特征參數(shù)的表達。列向量則將會用于表示權(quán)重,組成一個權(quán)重矩陣。

而所謂賦予權(quán)重的過程,實質(zhì)上就是高維向量與列向量相乘的過程。

而其他模塊同樣也會涉及矩陣的計算,比如卷積操作過程。

因而,熟練掌握公式是最核心的需求。

歸納起來便是以下幾種公式:

矩陣之間的加法和乘法運算。其中乘法運算最為高頻。要注意的是,矩陣的乘法不滿足交換律,但滿足結(jié)合律。

矩陣與標量之間的運算,同樣也包含加法和乘法兩種。

矩陣的轉(zhuǎn)置和逆運算。需要注意的是,不是所有的矩陣都存在逆矩陣。而矩陣的轉(zhuǎn)置也有許多前提條件需要注意。

由此可見,在對于線性代數(shù)有基本了解之后,所需要理解的概念就只有矩陣、標量以及組成矩陣的向量和這三者集合的統(tǒng)稱張量這四個概念。

理解只在于方法

其實,對于線性代數(shù)來說,就算熟記所有公式,也很難get到每一個計算背后的意義及其達成的效果。

但是通過逆向思考和刨根究底,對線代深入理解也很容易。

比如最常見的一個問題——線性變換到底該如何理解?

如果你翻閱教科書或是直接百度一下,你很有可能會得到這樣的答案:線性映射是從一個向量空間V到另一個向量空間W的映射且保持加法運算和數(shù)量乘法運算,而線性變換是線性空間V到其自身的線性映射。

其實,你可以通過不斷地向自己發(fā)問,從結(jié)果開始,從后向前進行思考。

線性變換得出的結(jié)果是怎樣的?是圖像的變換,是一種運動。

運動需要什么元素來定義?運動對象和運動方式。

而在線性空間里,對象的表示方式是什么?是向量。

那么該如何表示運動的方式?需要描述一個向量到另一個向量過程再到下一個向量的過程,簡單來說就是點到點的變換。這一則信息就可以表述為[向量A 向量B 向量C ……],也就是一個矩陣。

而要讓向量運動起來,則需要通過乘法。這時候你便可以得出,線性變換就是矩陣與向量的乘法運算。

讀芯君開扒

線性代數(shù)其實很簡單

在剛開始學習線性代數(shù)時,你一定會認為別人說的——線代比高數(shù)簡單——是對你深深的欺騙,但實際上的確如此。

而讓人產(chǎn)生這種感覺的根源,在于其對概念的故弄玄虛。

其實,要深入理解線性代數(shù),遵從教科書的步伐將會帶來很多困難。最直接而有效的方式,其實就是在大概了解線性代數(shù)的全局后,從最基本的概念開始研究,從空間、從線性空間、從矩陣……

同時需要注意的是,對于線性代數(shù)來說,最重要的不是概念本身,而是概念背后的實質(zhì)。就像基的實質(zhì),就是坐標系;而矩陣的實質(zhì),就是點的集合……只有這樣,才能撥云見日。

留言 點贊 發(fā)個朋友圈

我們一起探討AI落地的最后一公里

作者:羊習習

參考文獻鏈接:

http://m.sohu.com/a/232586862_114877

https://www.guokr.com/post/300903/

如需轉(zhuǎn)載,請后臺留言,遵守轉(zhuǎn)載規(guī)范

轉(zhuǎn)載請保留原文鏈接:http://parkingblocks4less.com/a/guona/20180720/9521.html上一篇:上一篇:今日芯聲 :再也不用尬演技?AI拯救面癱臉~
下一篇:下一篇:沒有了