最主要的是線性代數(shù)和概率論。
成都創(chuàng)新互聯(lián)公司2013年開創(chuàng)至今,是專業(yè)互聯(lián)網(wǎng)技術服務公司,擁有項目網(wǎng)站制作、網(wǎng)站建設網(wǎng)站策劃,項目實施與項目整合能力。我們以讓每一個夢想脫穎而出為使命,1280元鑲黃做網(wǎng)站,已為上家服務,為鑲黃各地企業(yè)和個人服務,聯(lián)系電話:18982081108線性代數(shù)現(xiàn)在最流行的機器學習模型,神經(jīng)網(wǎng)絡基本是就是一大堆向量、矩陣、張量。從激活函數(shù)到損失函數(shù),從反向傳播到梯度下降,都是對這些向量、矩陣、張量的操作和運算。
其他“傳統(tǒng)”機器學習算法也大量使用線性代數(shù)。比如線性回歸
聽名字就知道和線性代數(shù)關系密切了。
而主成分分析,從線性代數(shù)的觀點看,就是對角化協(xié)方差矩陣。
概率特別是當你讀論文或者想深入一點的時候,概率論的知識非常有幫助。
包括邊緣概率、鏈式法則、期望、貝葉斯推理、大似然、大后驗、自信息、香農(nóng)熵、KL散度,等等。
其他神經(jīng)網(wǎng)絡很講究“可微”,因為可微的模型可以通過梯度下降的方法優(yōu)化。梯度下降離不開求導。所以多變量微積分也需要。另外,因為機器學習是基于統(tǒng)計的方法,所以統(tǒng)計學的知識也缺不了。不過大部分理工科應該都學過這兩塊內(nèi)容,所以這也許不屬于需要補充的內(nèi)容。
在nlp中常用的算法都有哪些?詞向量方面有有word2vec,tf-idf,glove等
序列標注方面有hmm,crf等常用的算法,也可和神經(jīng)網(wǎng)絡結合使用,可用于解決分詞,詞性識別,命名實體識別,關鍵詞識別等問題!
關鍵詞提取方面可以用textrank,lda等
分類方面(包括意圖識別和情感識別等)傳統(tǒng)的機器學習算法和神經(jīng)網(wǎng)絡都是可以的。
其他方面,如相似度比較的余弦相似度,編輯距離以及其他優(yōu)化方面的動態(tài)規(guī)劃,維特比等很多。