真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

Python中如何用最簡(jiǎn)單的辦法爬取最好看的圖片

這篇文章給大家介紹Python中如何用最簡(jiǎn)單的辦法爬取最好看的圖片,內(nèi)容非常詳細(xì),感興趣的小伙伴們可以參考借鑒,希望對(duì)大家能有所幫助。

創(chuàng)新互聯(lián)公司專注于五蓮網(wǎng)站建設(shè)服務(wù)及定制,我們擁有豐富的企業(yè)做網(wǎng)站經(jīng)驗(yàn)。 熱誠(chéng)為您提供五蓮營(yíng)銷型網(wǎng)站建設(shè),五蓮網(wǎng)站制作、五蓮網(wǎng)頁(yè)設(shè)計(jì)、五蓮網(wǎng)站官網(wǎng)定制、成都微信小程序服務(wù),打造五蓮網(wǎng)絡(luò)公司原創(chuàng)品牌,更為您提供五蓮網(wǎng)站排名全網(wǎng)營(yíng)銷落地服務(wù)。

前言

接下來我們一個(gè)很基本的BeautifulSoup爬蟲庫(kù)來寫一下爬取圖片的過程,下載并存儲(chǔ)圖片,相信大家都能夠看得懂的

不多說法廢話了,直接上代碼了

首先導(dǎo)入庫(kù)

import urllib.requestfrom bs4 import BeautifulSoupimport os

解析網(wǎng)站

url = 'http://www.8she.com/31988.html'res = urllib.request.urlopen(url)
html = res.read().decode('utf-8')
soup = BeautifulSoup(html, 'html.parser')
result = soup.find_all(class_='aligncenter', limit=15)print(result)
links = []for content in result:
    links.append(content.get('src'))

下載并存儲(chǔ)圖片

if not os.path.exists('D:\\rieuse\爬蟲圖片\photo2'):#如果路徑不存在則創(chuàng)建
    os.makedirs('D:\\rieuse\爬蟲圖片\photo2')
i = 0for link in links:
    i += 1
    filename = 'D:\\rieuse\爬蟲圖片\photo2\\' + 'photo' + str(i) + '.jpg'
    with open(filename, 'w') as file:
        urllib.request.urlretrieve(link, filename)
priint('下載圖片:',str(i))

哈哈,是不是很簡(jiǎn)單的一個(gè)爬取圖片的過程呀?歡迎大家交流,一起學(xué)習(xí),一起報(bào)錯(cuò),共同進(jìn)步

關(guān)于Python中如何用最簡(jiǎn)單的辦法爬取最好看的圖片就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,可以學(xué)到更多知識(shí)。如果覺得文章不錯(cuò),可以把它分享出去讓更多的人看到。


網(wǎng)頁(yè)名稱:Python中如何用最簡(jiǎn)單的辦法爬取最好看的圖片
網(wǎng)頁(yè)鏈接:http://weahome.cn/article/podohp.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部