真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

Pytorch中如何使用多塊GPU-創(chuàng)新互聯(lián)

這篇文章主要為大家展示了“Pytorch中如何使用多塊GPU”,內(nèi)容簡(jiǎn)而易懂,條理清晰,希望能夠幫助大家解決疑惑,下面讓小編帶領(lǐng)大家一起研究并學(xué)習(xí)一下“Pytorch中如何使用多塊GPU”這篇文章吧。

為寧陵等地區(qū)用戶提供了全套網(wǎng)頁設(shè)計(jì)制作服務(wù),及寧陵網(wǎng)站建設(shè)行業(yè)解決方案。主營(yíng)業(yè)務(wù)為網(wǎng)站設(shè)計(jì)制作、成都網(wǎng)站設(shè)計(jì)、寧陵網(wǎng)站設(shè)計(jì),以傳統(tǒng)方式定制建設(shè)網(wǎng)站,并提供域名空間備案等一條龍服務(wù),秉承以專業(yè)、用心的態(tài)度為用戶提供真誠的服務(wù)。我們深信只要達(dá)到每一位用戶的要求,就會(huì)得到認(rèn)可,從而選擇與我們長(zhǎng)期合作。這樣,我們也可以走得更遠(yuǎn)!

注:本文針對(duì)單個(gè)服務(wù)器上多塊GPU的使用,不是多服務(wù)器多GPU的使用。

在一些實(shí)驗(yàn)中,由于Batch_size的限制或者希望提高訓(xùn)練速度等原因,我們需要使用多塊GPU。本文針對(duì)Pytorch中多塊GPU的使用進(jìn)行說明。

1. 設(shè)置需要使用的GPU編號(hào)

import os
 
os.environ["CUDA_VISIBLE_DEVICES"] = "0,4"
ids = [0,1]

比如我們需要使用第0和第4塊GPU,只用上述三行代碼即可。

其中第二行指程序只能看到第1塊和第4塊GPU;

第三行的0即為第二行中編號(hào)為0的GPU;1即為編號(hào)為4的GPU。

2.更改網(wǎng)絡(luò),可以理解為將網(wǎng)絡(luò)放入GPU

class CNN(nn.Module):
  def __init__(self):
    super(CNN,self).__init__()
    self.conv1 = nn.Sequential(
    ......
    )
    
    ......
    
    self.out = nn.Linear(Liner_input,2)
 
  ......
    
  def forward(self,x):
    x = self.conv1(x)
    ......
    output = self.out(x)
    return output,x
  
cnn = CNN()
 
# 更改,.cuda()表示將本存儲(chǔ)到CPU的網(wǎng)絡(luò)及其參數(shù)存儲(chǔ)到GPU!
cnn.cuda()

3. 更改輸出數(shù)據(jù)(如向量/矩陣/張量):

for epoch in range(EPOCH):
  epoch_loss = 0.
  for i, data in enumerate(train_loader2):
    image = data['image'] # data是字典,我們需要改的是其中的image
 
    #############更改?。。?#################
    image = Variable(image).float().cuda()
    ############################################
 
    label = inputs['label']
    #############更改?。?!##################
    label = Variable(label).type(torch.LongTensor).cuda()
    ############################################
    label = label.resize(BATCH_SIZE)
    output = cnn(image)[0]
    loss = loss_func(output, label)  # cross entropy loss
    optimizer.zero_grad()      # clear gradients for this training step
    loss.backward()         # backpropagation, compute gradients
    optimizer.step() 
    ... ...

4. 更改其他CPU與GPU沖突的地方

有些函數(shù)必要在GPU上完成,例如將Tensor轉(zhuǎn)換為Numpy,就要使用data.cpu().numpy(),其中data是GPU上的Tensor。

若直接使用data.numpy()則會(huì)報(bào)錯(cuò)。除此之外,plot等也需要在CPU中完成。如果不是很清楚哪里要改的話可以先不改,等到程序報(bào)錯(cuò)了,再哪里錯(cuò)了改哪里,效率會(huì)更高。例如:

  ... ...
    #################################################
    pred_y = torch.max(test_train_output, 1)[1].data.cpu().numpy()
    
    accuracy = float((pred_y == label.cpu().numpy()).astype(int).sum()) / float(len(label.cpu().numpy()))

假如不加.cpu()便會(huì)報(bào)錯(cuò),此時(shí)再改即可。

5. 更改前向傳播函數(shù),從而使用多塊GPU

以VGG為例:

class VGG(nn.Module):
 
  def __init__(self, features, num_classes=2, init_weights=True):
    super(VGG, self).__init__()
... ...
 
  def forward(self, x):
    #x = self.features(x)
    #################Multi GPUS#############################
    x = nn.parallel.data_parallel(self.features,x,ids)
    x = x.view(x.size(0), -1)
    # x = self.classifier(x)
    x = nn.parallel.data_parallel(self.classifier,x,ids)
    return x
... ...

然后就可以看運(yùn)行結(jié)果啦,nvidia-smi查看GPU使用情況:

Pytorch中如何使用多塊GPU

可以看到0和4都被使用啦

以上是“Pytorch中如何使用多塊GPU”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對(duì)大家有所幫助,如果還想學(xué)習(xí)更多知識(shí),歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道!


網(wǎng)站欄目:Pytorch中如何使用多塊GPU-創(chuàng)新互聯(lián)
網(wǎng)頁路徑:http://weahome.cn/article/pgjoj.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部