本篇內(nèi)容介紹了“Python的切分技術(shù)有哪些”的有關(guān)知識(shí),在實(shí)際案例的操作過(guò)程中,不少人都會(huì)遇到這樣的困境,接下來(lái)就讓小編帶領(lǐng)大家學(xué)習(xí)一下如何處理這些情況吧!希望大家仔細(xì)閱讀,能夠?qū)W有所成!
創(chuàng)新互聯(lián)建站一直通過(guò)網(wǎng)站建設(shè)和網(wǎng)站營(yíng)銷(xiāo)幫助企業(yè)獲得更多客戶(hù)資源。 以"深度挖掘,量身打造,注重實(shí)效"的一站式服務(wù),以成都網(wǎng)站制作、成都網(wǎng)站設(shè)計(jì)、外貿(mào)營(yíng)銷(xiāo)網(wǎng)站建設(shè)、移動(dòng)互聯(lián)產(chǎn)品、營(yíng)銷(xiāo)型網(wǎng)站建設(shè)服務(wù)為核心業(yè)務(wù)。十年網(wǎng)站制作的經(jīng)驗(yàn),使用新網(wǎng)站建設(shè)技術(shù),全新開(kāi)發(fā)出的標(biāo)準(zhǔn)網(wǎng)站,不但價(jià)格便宜而且實(shí)用、靈活,特別適合中小公司網(wǎng)站制作。網(wǎng)站管理系統(tǒng)簡(jiǎn)單易用,維護(hù)方便,您可以完全操作網(wǎng)站資料,是中小公司快速網(wǎng)站建設(shè)的選擇。
列表切分在
不考慮內(nèi)存占用的情況下,我們對(duì)上面的大任務(wù)進(jìn)行一個(gè)切分。比如我們將大任務(wù)切分成的小任務(wù)是每秒最多只訪(fǎng)問(wèn)5個(gè)URL。
import os import time CURRENT_DIR = os.path.dirname(os.path.abspath(__file__)) def read_file(): file_path = os.path.join(CURRENT_DIR, "url_list.txt") with open(file_path, "r", encoding="utf-8") as fs: result = [i.strip() for i in fs.readlines()] return result def fetch(url): print(url) def run(): max_count = 5 url_list = read_file() for index in range(0, len(url_list), max_count): start = time.time() fetch(url_list[index:index + max_count]) end = time.time() - start if end < 1: time.sleep(1 - end) if __name__ == '__main__': run()
關(guān)鍵代碼都在for循環(huán)里,首先我們通過(guò)聲明range的第三個(gè)參數(shù),該參數(shù)指定迭代的步長(zhǎng)為5,這樣每次index增加都是以5為基數(shù),即0,5,10。。。
然后我們對(duì)url_list做切片,每次取其五個(gè)元素,這五個(gè)元素會(huì)隨著index的增加不斷的在改變,如果最后不夠五個(gè)了,按照切片的特性這個(gè)時(shí)候就會(huì)有多少取多少了,不會(huì)造成索引超下標(biāo)的問(wèn)題。
隨著url列表的增加,我們會(huì)發(fā)現(xiàn)內(nèi)存的占用也在提高了。這個(gè)時(shí)候我們就需要對(duì)代碼進(jìn)行修改了,我們知道生成器是比較節(jié)省內(nèi)存的空間的,修改之后代碼變成,下面的這樣。
生成器切分
# -*- coding: utf-8 -*- # @時(shí)間 : 2019-11-23 23:47 # @作者 : 陳祥安 # @文件名 : g.py # @公眾號(hào): Python學(xué)習(xí)開(kāi)發(fā) import os import time from itertools import islice CURRENT_DIR = os.path.dirname(os.path.abspath(__file__)) def read_file(): file_path = os.path.join(CURRENT_DIR, "url_list.txt") with open(file_path, "r", encoding="utf-8") as fs: for i in fs: yield i.strip() def fetch(url): print(url) def run(): max_count = 5 url_gen = read_file() while True: url_list = list(islice(url_gen, 0, max_count)) if not url_list: break start = time.time() fetch(url_list) end = time.time() - start if end < 1: time.sleep(1 - end) if __name__ == '__main__': run()
首先,我們修改了文件讀取的方式,把原來(lái)讀列表的形式,改為了生成器的形式。這樣我們?cè)谡{(diào)用該文件讀取方法的時(shí)候大大節(jié)省了內(nèi)存。
然后就是對(duì)上面for循環(huán)進(jìn)行改造,因?yàn)樯善鞯奶匦裕@里不適合使用for進(jìn)行迭代,因?yàn)槊恳淮蔚牡紩?huì)消耗生成器的元素,通過(guò)使用itertools的islice對(duì)url_gen進(jìn)行切分,islice是生成器的切片,這里我們每次切分出含有5個(gè)元素的生成器,因?yàn)樯善鳑](méi)有__len__方法所以,我們將其轉(zhuǎn)為列表,然后判斷列表是否為空,就可以知道迭代是否該結(jié)束了。
修改之后的代碼,不管是性能還是節(jié)省內(nèi)存上都大大的提高。讀取千萬(wàn)級(jí)的文件不是問(wèn)題。
除此之外,在使用異步爬蟲(chóng)的時(shí)候,也許會(huì)用到異步生成器切片。下面就和大家討論,異步生成器切分的問(wèn)題
異步生成器切分
首先先來(lái)看一個(gè)簡(jiǎn)單的異步生成器。
我們知道調(diào)用下面的代碼會(huì)得到一個(gè)生成器
def foo(): for i in range(20): yield i
如果在def前面加一個(gè)async,那么在調(diào)用的時(shí)候它就是個(gè)異步生成器了。
完整示例代碼如下
import asyncio async def foo(): for i in range(20): yield i async def run(): async_gen = foo() async for i in async_gen: print(i) if __name__ == '__main__': asyncio.run(run())
關(guān)于async for的切分有點(diǎn)復(fù)雜,這里推薦使用aiostream模塊,使用之后代碼改為下面這樣
import asyncio from aiostream import stream async def foo(): for i in range(22): yield i async def run(): index = 0 limit = 5 while True: xs = stream.iterate(foo()) ys = xs[index:index + limit] t = await stream.list(ys) if not t: break print(t) index += limit if __name__ == '__main__': asyncio.run(run())
“Python的切分技術(shù)有哪些”的內(nèi)容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業(yè)相關(guān)的知識(shí)可以關(guān)注創(chuàng)新互聯(lián)網(wǎng)站,小編將為大家輸出更多高質(zhì)量的實(shí)用文章!