正確的html閉標(biāo)簽里,是以/開(kāi)頭的,所以網(wǎng)頁(yè)的源代碼不可能是\/span,span class=\"name\"小小少年lala\/span\r\n\t里的前三個(gè)\是為了在字符串里顯示“和/而已,并不是字符串的內(nèi)容。
目前創(chuàng)新互聯(lián)已為上千的企業(yè)提供了網(wǎng)站建設(shè)、域名、網(wǎng)絡(luò)空間、網(wǎng)站改版維護(hù)、企業(yè)網(wǎng)站設(shè)計(jì)、東昌府網(wǎng)站維護(hù)等服務(wù),公司將堅(jiān)持客戶導(dǎo)向、應(yīng)用為本的策略,正道將秉承"和諧、參與、激情"的文化,與客戶和合作伙伴齊心協(xié)力一起成長(zhǎng),共同發(fā)展。
網(wǎng)頁(yè)應(yīng)該是
span class="name"小小少年lala/span\r\n\t
你的正則應(yīng)該用
p=re.compile('span class="name"(.*)\/span')
不要用search,用findall
result = re.findall(r'a[0-9]', str)
print(result)
用replace函數(shù),先把style。。。/style等不需要的的內(nèi)容替換為空
再使用正則提取。
或者使用正則,只提取
p.../p之間的內(nèi)容
L1正則假設(shè)參數(shù)的先驗(yàn)分布是Laplace分布,可以保證模型的稀疏性,也就是某些參數(shù)等于0;
L2正則假設(shè)參數(shù)的先驗(yàn)分布是Gaussian分布,可以保證模型的穩(wěn)定性,也就是參數(shù)的值不會(huì)太大或太小
L1正則化和L2正則化可以看做是損失函數(shù)的懲罰項(xiàng)。所謂『懲罰』是指對(duì)損失函數(shù)中的某些參數(shù)做一些限制。對(duì)于線性回歸模型,使用L1正則化的模型建叫做Lasso回歸,使用L2正則化的模型叫做Ridge回歸。下圖是Python中Lasso回歸的損失函數(shù),式中加號(hào)后面一項(xiàng)α||w||1即為L(zhǎng)1正則化項(xiàng)。
正則化(Regularization)
機(jī)器學(xué)習(xí)中幾乎都可以看到損失函數(shù)后面會(huì)添加一個(gè)額外項(xiàng),常用的額外項(xiàng)一般有兩種,一般英文稱作 ?1-norm 和 ?2-norm ,中文稱作 L1正則化 和 L2正則化 ,或者 L1范數(shù) 和 L2范數(shù) 。
L1正則化和L2正則化可以看做是損失函數(shù)的懲罰項(xiàng)。所謂『懲罰』是指對(duì)損失函數(shù)中的某些參數(shù)做一些限制。對(duì)于線性回歸模型,使用L1正則化的模型建叫做Lasso回歸,使用L2正則化的模型叫做Ridge回歸(嶺回歸)。下圖是Python中Lasso回歸的損失函數(shù),式中加號(hào)后面一項(xiàng)α||w||1即為L(zhǎng)1正則化項(xiàng)。
下圖是Python中Ridge回歸的損失函數(shù),式中加號(hào)后面一項(xiàng)α||w||22即為L(zhǎng)2正則化項(xiàng)。
一般回歸分析中回歸w表示特征的系數(shù),從上式可以看到正則化項(xiàng)是對(duì)系數(shù)做了處理(限制)。 L1正則化和L2正則化的說(shuō)明如下:
L1正則化是指權(quán)值向量w中各個(gè)元素的 絕對(duì)值之和 ,通常表示為||w||1
L2正則化是指權(quán)值向量w中各個(gè)元素的 平方和然后再求平方根 (可以看到Ridge回歸的L2正則化項(xiàng)有平方符號(hào)),通常表示為||w||2
一般都會(huì)在正則化項(xiàng)之前添加一個(gè)系數(shù),Python中用α表示,一些文章也用λ表示。這個(gè)系數(shù)需要用戶指定。
那添加L1和L2正則化有什么用? 下面是L1正則化和L2正則化的作用 ,這些表述可以在很多文章中找到。
L1正則化可以產(chǎn)生稀疏權(quán)值矩陣,即產(chǎn)生一個(gè)稀疏模型,可以用于特征選擇
L2正則化可以防止模型過(guò)擬合(overfitting);一定程度上,L1也可以防止過(guò)擬合
稀疏模型與特征選擇
上面提到L1正則化有助于生成一個(gè)稀疏權(quán)值矩陣,進(jìn)而可以用于特征選擇。為什么要生成一個(gè)稀疏矩陣?
稀疏矩陣指的是很多元素為0,只有少數(shù)元素是非零值的矩陣,即得到的線性回歸模型的大部分系數(shù)都是0.
通常機(jī)器學(xué)習(xí)中特征數(shù)量很多,例如文本處理時(shí),如果將一個(gè)詞組(term)作為一個(gè)特征,那么特征數(shù)量會(huì)達(dá)到上萬(wàn)個(gè)(bigram)。在預(yù)測(cè)或分類時(shí),那么多特征顯然難以選擇,但是如果代入這些特征得到的模型是一個(gè)稀疏模型,表示只有少數(shù)特征對(duì)這個(gè)模型有貢獻(xiàn),絕大部分特征是沒(méi)有貢獻(xiàn)的,或者貢獻(xiàn)微?。ㄒ?yàn)樗鼈兦懊娴南禂?shù)是0或者是很小的值,即使去掉對(duì)模型也沒(méi)有什么影響),此時(shí)我們就可以只關(guān)注系數(shù)是非零值的特征。這就是稀疏模型與特征選擇的關(guān)系。
L1和L2正則化的直觀理解
這部分內(nèi)容將解釋 為什么L1正則化可以產(chǎn)生稀疏模型(L1是怎么讓系數(shù)等于零的) ,以及 為什么L2正則化可以防止過(guò)擬合 。
L1正則化和特征選擇
假設(shè)有如下帶L1正則化的損失函數(shù):
J=J0+α∑w|w|(1)
其中J0是原始的損失函數(shù),加號(hào)后面的一項(xiàng)是L1正則化項(xiàng),α是正則化系數(shù)。注意到L1正則化是權(quán)值的 絕對(duì)值之和 ,J是帶有絕對(duì)值符號(hào)的函數(shù),因此J是不完全可微的。機(jī)器學(xué)習(xí)的任務(wù)就是要通過(guò)一些方法(比如梯度下降)求出損失函數(shù)的最小值。當(dāng)我們?cè)谠紦p失函數(shù)J0后添加L1正則化項(xiàng)時(shí),相當(dāng)于對(duì)J0做了一個(gè)約束。令L=α∑w|w|,則J=J0+L,此時(shí)我們的任務(wù)變成 在L約束下求出J0取最小值的解 。考慮二維的情況,即只有兩個(gè)權(quán)值w1和w2,此時(shí)L=|w1|+|w2|對(duì)于梯度下降法,求解J0的過(guò)程可以畫(huà)出等值線,同時(shí)L1正則化的函數(shù)L也可以在w1w2的二維平面上畫(huà)出來(lái)。如下圖:
圖1? L1正則化
圖中等值線是J0的等值線,黑色方形是L函數(shù)的圖形。在圖中,當(dāng)J0等值線與L圖形首次相交的地方就是最優(yōu)解。上圖中J0與L在L的一個(gè)頂點(diǎn)處相交,這個(gè)頂點(diǎn)就是最優(yōu)解。注意到這個(gè)頂點(diǎn)的值是(w1,w2)=(0,w)。可以直觀想象,因?yàn)長(zhǎng)函數(shù)有很多『突出的角』(二維情況下四個(gè),多維情況下更多),J0與這些角接觸的機(jī)率會(huì)遠(yuǎn)大于與L其它部位接觸的機(jī)率,而在這些角上,會(huì)有很多權(quán)值等于0,這就是為什么L1正則化可以產(chǎn)生稀疏模型,進(jìn)而可以用于特征選擇。
而正則化前面的系數(shù)α,可以控制L圖形的大小。α越小,L的圖形越大(上圖中的黑色方框);α越大,L的圖形就越小,可以小到黑色方框只超出原點(diǎn)范圍一點(diǎn)點(diǎn),這是最優(yōu)點(diǎn)的值(w1,w2)=(0,w)中的w可以取到很小的值。
類似,假設(shè)有如下帶L2正則化的損失函數(shù):
J=J0+α∑ww2(2)
同樣可以畫(huà)出他們?cè)诙S平面上的圖形,如下:
圖2? L2正則化
二維平面下L2正則化的函數(shù)圖形是個(gè)圓,與方形相比,被磨去了棱角。因此J0與L相交時(shí)使得w1或w2等于零的機(jī)率小了許多,這就是為什么L2正則化不具有稀疏性的原因。
L2正則化和過(guò)擬合
擬合過(guò)程中通常都傾向于讓權(quán)值盡可能小,最后構(gòu)造一個(gè)所有參數(shù)都比較小的模型。因?yàn)橐话阏J(rèn)為參數(shù)值小的模型比較簡(jiǎn)單,能適應(yīng)不同的數(shù)據(jù)集,也在一定程度上避免了過(guò)擬合現(xiàn)象。可以設(shè)想一下對(duì)于一個(gè)線性回歸方程,若參數(shù)很大,那么只要數(shù)據(jù)偏移一點(diǎn)點(diǎn),就會(huì)對(duì)結(jié)果造成很大的影響;但如果參數(shù)足夠小,數(shù)據(jù)偏移得多一點(diǎn)也不會(huì)對(duì)結(jié)果造成什么影響,專業(yè)一點(diǎn)的說(shuō)法是『抗擾動(dòng)能力強(qiáng)』。
那為什么L2正則化可以獲得值很小的參數(shù)?
以線性回歸中的梯度下降法為例。假設(shè)要求的參數(shù)為θ,hθ(x)是我們的假設(shè)函數(shù),那么線性回歸的代價(jià)函數(shù)如下:
J(θ)=12m∑i=1m(hθ(x(i))?y(i))(3)
那么在梯度下降法中,最終用于迭代計(jì)算參數(shù)θ的迭代式為:
θj:=θj?α1m∑i=1m(hθ(x(i))?y(i))x(i)j(4)
其中α是learning rate. 上式是沒(méi)有添加L2正則化項(xiàng)的迭代公式,如果在原始代價(jià)函數(shù)之后添加L2正則化,則迭代公式會(huì)變成下面的樣子:
θj:=θj(1?αλm)?α1m∑i=1m(hθ(x(i))?y(i))x(i)j(5)
其中 λ就是正則化參數(shù) 。從上式可以看到,與未添加L2正則化的迭代公式相比,每一次迭代,θj都要先乘以一個(gè)小于1的因子,從而使得θj不斷減小,因此總得來(lái)看,θ是不斷減小的。
最開(kāi)始也提到L1正則化一定程度上也可以防止過(guò)擬合。之前做了解釋,當(dāng)L1的正則化系數(shù)很小時(shí),得到的最優(yōu)解會(huì)很小,可以達(dá)到和L2正則化類似的效果。
正則化參數(shù)的選擇
L1正則化參數(shù)
通常越大的λ可以讓代價(jià)函數(shù)在參數(shù)為0時(shí)取到最小值。下面是一個(gè)簡(jiǎn)單的例子,這個(gè)例子來(lái)自 Quora上的問(wèn)答 。為了方便敘述,一些符號(hào)跟這篇帖子的符號(hào)保持一致。
假設(shè)有如下帶L1正則化項(xiàng)的代價(jià)函數(shù):
F(x)=f(x)+λ||x||1
其中x是要估計(jì)的參數(shù),相當(dāng)于上文中提到的w以及θ. 注意到L1正則化在某些位置是不可導(dǎo)的,當(dāng)λ足夠大時(shí)可以使得F(x)在x=0時(shí)取到最小值。如下圖:
圖3 L1正則化參數(shù)的選擇
分別取λ=0.5和λ=2,可以看到越大的λ越容易使F(x)在x=0時(shí)取到最小值。
L2正則化參數(shù)
從公式5可以看到,λ越大,θj衰減得越快。另一個(gè)理解可以參考圖2,λ越大,L2圓的半徑越小,最后求得代價(jià)函數(shù)最值時(shí)各參數(shù)也會(huì)變得很小。
Reference
過(guò)擬合的解釋:
正則化的解釋:
正則化的解釋:
正則化的數(shù)學(xué)解釋(一些圖來(lái)源于這里):
原文參考:blog.csdn.net/jinping_shi/article/details/52433975
1.正則的簡(jiǎn)單介紹
首先你得導(dǎo)入正則方法 import re 正則表達(dá)式是用于處理字符串的強(qiáng)大工具,擁有自己獨(dú)立的處理機(jī)制,效率上可能不如str自帶的方法,但功能十分靈活給力。它的運(yùn)行過(guò)程是先定一個(gè)匹配規(guī)則(”你想要的內(nèi)容+正則語(yǔ)法規(guī)則”),放入要匹配的字符串,通過(guò)正則內(nèi)部的機(jī)制就能檢索你想要的信息。
2.findall的常用幾種姿勢(shì)
基本結(jié)構(gòu)大致: nojoke = re.findall(r’匹配的規(guī)則’,’要檢索的愿字符串’) nojoke就是我們最后通過(guò)正則返回的結(jié)果,re正則findall查找全部r標(biāo)識(shí)代表后面是正則的語(yǔ)句(這樣在代碼多的時(shí)候好查閱),下面我們看看幾個(gè)例子好深入了解
這段代碼是找出檢索字符串中所有的bi并以列表的形式返回,這個(gè)會(huì)經(jīng)常用到計(jì)算統(tǒng)一字符出現(xiàn)的次數(shù)。繼續(xù)看下一個(gè)
這里加了個(gè)符號(hào)^表示匹配以abi開(kāi)頭的的字符串返回,也可以判斷字符串是否以abi開(kāi)始的。
這里在的用$符號(hào)表示以gbi結(jié)尾的字符串返回,判斷是否字符串結(jié)束的字符串。
這里[…]的意思匹配括號(hào)內(nèi)a和f,或者b和f,或者c和f的值返回列表。
“d”是正則語(yǔ)法規(guī)則用來(lái)匹配0到9之間的數(shù)返回列表,需要注意的是11會(huì)當(dāng)成字符串’1’和’1’返回而不是返回’11’這個(gè)字符串,切記用不好這里是大坑。
當(dāng)然解決的辦法就你要取幾位數(shù)就寫(xiě)幾個(gè)d,上面這里演示取字符串中3位數(shù)字,這里展現(xiàn)了正則靈活一方面。
這里小d表示取數(shù)字0-9,大D表示不要數(shù)字,也就是出了數(shù)字以外的內(nèi)容返回。
“w”在正則里面代表匹配從小寫(xiě)a到z,大寫(xiě)A到Z,數(shù)字0到9包含前面這三種的如上面打印的一樣.
“W”在正則里面代表匹配除了字母與數(shù)字以外的特殊符號(hào),但這里斜杠的用法要注意在字符串是轉(zhuǎn)義符號(hào)具體百度去學(xué)。
這里加了個(gè)問(wèn)號(hào).*?就是限制它不讓他最大范圍的匹配也叫非貪婪模式匹配。結(jié)果是把兩個(gè)div內(nèi)的內(nèi)容匹配返回。
這里加re.I(大寫(xiě)的i)表示匹配無(wú)論公的母的大小寫(xiě)都通吃都要,不然后面有大小寫(xiě)就會(huì)出現(xiàn)上面匹配找不到返回空列表給你。
這里又搞事了就是n俗稱換行符,一旦換行程序就SB了不認(rèn)了,所以我們加上了re.S(大寫(xiě))這樣代表比匹配包括換行在內(nèi)的所有字符內(nèi)容返回,基本你把上面的語(yǔ)法和用法學(xué)會(huì)后基本70%以上匹配方法全都搞定,當(dāng)然還有很方法我就不列舉了,大家可以自己去學(xué)習(xí)(剩下的基本我都很少用到了)。
2.match和search的用法及區(qū)別:
re.match 嘗試從字符串的起始位置匹配一個(gè)模式,如果不是起始位置匹配成功的話,match()就返回none。re.search 掃描整個(gè)字符串并返回第一個(gè)成功的匹配。