真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

使用Python怎么實現(xiàn)一個多線程爬蟲功能-創(chuàng)新互聯(lián)

本篇文章為大家展示了使用Python怎么實現(xiàn)一個多線程爬蟲功能,內(nèi)容簡明扼要并且容易理解,絕對能使你眼前一亮,通過這篇文章的詳細(xì)介紹希望你能有所收獲。

創(chuàng)新互聯(lián)公司堅持“要么做到,要么別承諾”的工作理念,服務(wù)領(lǐng)域包括:成都做網(wǎng)站、網(wǎng)站設(shè)計、外貿(mào)營銷網(wǎng)站建設(shè)、企業(yè)官網(wǎng)、英文網(wǎng)站、手機端網(wǎng)站、網(wǎng)站推廣等服務(wù),滿足客戶于互聯(lián)網(wǎng)時代的烏當(dāng)網(wǎng)站設(shè)計、移動媒體設(shè)計的需求,幫助企業(yè)找到有效的互聯(lián)網(wǎng)解決方案。努力成為您成熟可靠的網(wǎng)絡(luò)建設(shè)合作伙伴!

所用到得庫

import os
import requests
from bs4 import BeautifulSoup

功能

# 多線程程序需要用到的一些包
# 隊列
from queue import Queue
from threading import Thread

環(huán)境配置

解釋器 python3.6
編輯器 pycharm專業(yè)版 激活碼

多線程類代碼

# 多線程類
class Download_Images(Thread):
  # 重寫構(gòu)造函數(shù)
  def __init__(self, queue, path):
    Thread.__init__(self)
    # 類屬性
    self.queue = queue
    self.path = path
    if not os.path.exists(path):
      os.mkdir(path)
  def run(self) -> None:
    while True:
      # 圖片資源的url鏈接地址
      url = self.queue.get()
      try:
        download_images(url, self.path)
      except:
        print('下載失敗')
      finally:
        # 當(dāng)爬蟲程序執(zhí)行完成/出錯中斷之后發(fā)送消息給線程 代表線程必須停止執(zhí)行
        self.queue.task_done()

爬蟲代碼

# 爬蟲代碼
def download_images(url, path):
  headers = {
    'User-Agent':
      'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36'
  }
  response = requests.get(url, headers=headers)
  soup = BeautifulSoup(response.text, 'lxml')
  img_list = soup.find_all('img', class_='ui image lazy')
  for img in img_list:
    image_title = img['title']
    image_url = img['data-original']

    try:
      with open(path + image_title + os.path.splitext(image_url)[-1], 'wb') as f:
        image = requests.get(image_url, headers=headers).content
        print('正在保存圖片:', image_title)
        f.write(image)
        print('保存成功:', image_title)
    except:
      pass

if __name__ == '__main__':
  _url = '/tupian/20230522/{page}.html&
  urls = [_url.format(page=page) for page in range(1, 201)]
  queue = Queue()
  path = './threading_images/'
  for x in range(10):
    worker = Download_Images(queue, path)
    worker.daemon = True
    worker.start()
  for url in urls:
    queue.put(url)
  queue.join()
  print('下載完成...')

上述內(nèi)容就是使用Python怎么實現(xiàn)一個多線程爬蟲功能,你們學(xué)到知識或技能了嗎?如果還想學(xué)到更多技能或者豐富自己的知識儲備,歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道。


標(biāo)題名稱:使用Python怎么實現(xiàn)一個多線程爬蟲功能-創(chuàng)新互聯(lián)
文章分享:http://weahome.cn/article/ddjcjp.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部