這篇文章主要介紹“怎么用pytorch 計算Parameter和FLOP”,在日常操作中,相信很多人在怎么用pytorch 計算Parameter和FLOP問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”怎么用pytorch 計算Parameter和FLOP”的疑惑有所幫助!接下來,請跟著小編一起來學(xué)習(xí)吧!
為師宗等地區(qū)用戶提供了全套網(wǎng)頁設(shè)計制作服務(wù),及師宗網(wǎng)站建設(shè)行業(yè)解決方案。主營業(yè)務(wù)為成都網(wǎng)站建設(shè)、成都網(wǎng)站設(shè)計、師宗網(wǎng)站設(shè)計,以傳統(tǒng)方式定制建設(shè)網(wǎng)站,并提供域名空間備案等一條龍服務(wù),秉承以專業(yè)、用心的態(tài)度為用戶提供真誠的服務(wù)。我們深信只要達(dá)到每一位用戶的要求,就會得到認(rèn)可,從而選擇與我們長期合作。這樣,我們也可以走得更遠(yuǎn)!1 THOP
在pytorch中有現(xiàn)成的包thop用于計算參數(shù)數(shù)量和FLOP,首先安裝thop:
pip install thop
注意安裝thop時可能出現(xiàn)如下錯誤:
pip install --upgrade git+https://github.com/Lyken17/pytorch-OpCounter.git # 下載源碼安裝
使用方法如下:
from torchvision.models import resnet50 # 引入ResNet50模型 from thop import profile model = resnet50() flops, params = profile(model, input_size=(1, 3, 224,224)) # profile(模型,輸入數(shù)據(jù))
對于自己構(gòu)建的函數(shù)也一樣,例如shuffleNetV2
from thop import profile from utils.ShuffleNetV2 import shufflenetv2 # 導(dǎo)入shufflenet2 模塊 import torch model_shuffle = shufflenetv2(width_mult=0.5) model = torch.nn.DataParallel(model_shuffle) # 調(diào)用shufflenet2 模型,該模型為自己定義的 flop, para = profile(model, input_size=(1, 3, 224, 224),) print("%.2fM" % (flop/1e6), "%.2fM" % (para/1e6))
更多細(xì)節(jié),可參考thop GitHub鏈接: https://github.com/Lyken17/pytorch-OpCounter
pytorch本身帶有計算參數(shù)的方法
from thop import profile from utils.ShuffleNetV2 import shufflenetv2 # 導(dǎo)入shufflenet2 模塊 import torch model_shuffle = shufflenetv2(width_mult=0.5) model = torch.nn.DataParallel(model_shuffle) total = sum([param.nelement() for param in model.parameters()]) print("Number of parameter: %.2fM" % (total / 1e6))
補充:pytorch: 計算網(wǎng)絡(luò)模型的計算量(FLOPs)和參數(shù)量(Params)
計算量:
FLOPs,F(xiàn)LOP時指浮點運算次數(shù),s是指秒,即每秒浮點運算次數(shù)的意思,考量一個網(wǎng)絡(luò)模型的計算量的標(biāo)準(zhǔn)。
參數(shù)量:
Params,是指網(wǎng)絡(luò)模型中需要訓(xùn)練的參數(shù)總數(shù)。
pip install thop
import torch from thop import profile net = Model() # 定義好的網(wǎng)絡(luò)模型 input = torch.randn(1, 3, 112, 112) flops, params = profile(net, (inputs,)) print('flops: ', flops, 'params: ', params)
輸入input的第一維度是批量(batch size),批量的大小不回影響參數(shù)量, 計算量是batch_size=1的倍數(shù)
profile(net, (inputs,))的 (inputs,)中必須加上逗號,否者會報錯
到此,關(guān)于“怎么用pytorch 計算Parameter和FLOP”的學(xué)習(xí)就結(jié)束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學(xué)習(xí),快去試試吧!若想繼續(xù)學(xué)習(xí)更多相關(guān)知識,請繼續(xù)關(guān)注創(chuàng)新互聯(lián)網(wǎng)站,小編會繼續(xù)努力為大家?guī)砀鄬嵱玫奈恼拢?/p>
當(dāng)前名稱:怎么用pytorch計算Parameter和FLOP-創(chuàng)新互聯(lián)
網(wǎng)頁網(wǎng)址:http://weahome.cn/article/cogocs.html