如何使用Pytorch訓(xùn)練分類器,相信很多沒(méi)有經(jīng)驗(yàn)的人對(duì)此束手無(wú)策,為此本文總結(jié)了問(wèn)題出現(xiàn)的原因和解決方法,通過(guò)這篇文章希望你能解決這個(gè)問(wèn)題。
在聶榮等地區(qū),都構(gòu)建了全面的區(qū)域性戰(zhàn)略布局,加強(qiáng)發(fā)展的系統(tǒng)性、市場(chǎng)前瞻性、產(chǎn)品創(chuàng)新能力,以專注、極致的服務(wù)理念,為客戶提供網(wǎng)站建設(shè)、成都網(wǎng)站建設(shè) 網(wǎng)站設(shè)計(jì)制作按需策劃,公司網(wǎng)站建設(shè),企業(yè)網(wǎng)站建設(shè),成都品牌網(wǎng)站建設(shè),全網(wǎng)整合營(yíng)銷推廣,外貿(mào)營(yíng)銷網(wǎng)站建設(shè),聶榮網(wǎng)站建設(shè)費(fèi)用合理。一、 數(shù)據(jù)
通常來(lái)說(shuō),當(dāng)你處理圖像,文本,語(yǔ)音或者視頻數(shù)據(jù)時(shí),你可以使用標(biāo)準(zhǔn)python包將數(shù)據(jù)加載成numpy數(shù)組格式,然后將這個(gè)數(shù)組轉(zhuǎn)換成torch.*Tensor
對(duì)于圖像,可以用Pillow,OpenCV
對(duì)于語(yǔ)音,可以用scipy,librosa
對(duì)于文本,可以直接用Python或Cython基礎(chǔ)數(shù)據(jù)加載模塊,或者用NLTK和SpaCy
特別是對(duì)于視覺(jué),我們已經(jīng)創(chuàng)建了一個(gè)叫做totchvision的包,該包含有支持加載類似Imagenet,CIFAR10,MNIST等公共數(shù)據(jù)集的數(shù)據(jù)加載模塊torchvision.datasets和支持加載圖像數(shù)據(jù)數(shù)據(jù)轉(zhuǎn)換模塊torch.utils.data.DataLoader。
這提供了極大的便利,并且避免了編寫(xiě)“樣板代碼”。
對(duì)于本教程,我們將使用CIFAR10數(shù)據(jù)集,它包含十個(gè)類別:‘a(chǎn)irplane’, ‘a(chǎn)utomobile’, ‘bird’, ‘cat’, ‘deer’, ‘dog’, ‘frog’, ‘horse’, ‘ship’, ‘truck’。CIFAR-10中的圖像尺寸為3*32*32,也就是RGB的3層顏色通道,每層通道內(nèi)的尺寸為32*32。
圖片一 cifar10
二、 訓(xùn)練一個(gè)圖像分類器
我們將按次序的做如下幾步:
1. 使用torchvision加載并且歸一化CIFAR10的訓(xùn)練和測(cè)試數(shù)據(jù)集
2. 定義一個(gè)卷積神經(jīng)網(wǎng)絡(luò)
3. 定義一個(gè)損失函數(shù)
4. 在訓(xùn)練樣本數(shù)據(jù)上訓(xùn)練網(wǎng)絡(luò)
5. 在測(cè)試樣本數(shù)據(jù)上測(cè)試網(wǎng)絡(luò)
1. 加載并歸一化CIFAR10
import torch
import torchvision
import torchvision.transformsastransforms
torchvision數(shù)據(jù)集的輸出是范圍在[0,1]之間的PILImage,我們將他們轉(zhuǎn)換成歸一化范圍為[-1,1]之間的張量Tensors。
transform = transforms.Compose(
[transforms.ToTensor(),
transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])
trainset = torchvision.datasets.CIFAR10(root='./data', train=True,
download=True,transform=transform)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=4,
shuffle=True, num_workers=2)
testset = torchvision.datasets.CIFAR10(root='./data', train=False,
download=True, transform=transform)
testloader = torch.utils.data.DataLoader(testset, batch_size=4,
shuffle=False, num_workers=2)
classes = ('plane', 'car', 'bird', 'cat', 'deer', 'dog', 'frog', 'horse', 'ship', 'truck')
輸出:
Downloading https://www.cs.toronto.edu/~kriz/cifar-10-python.tar.gz to ./data/cifar-10-python.tar.gz Files already downloaded and verified
讓我們來(lái)展示其中的一些訓(xùn)練圖片。
import matplotlib.pyplot as plt
import numpy as np
# 圖像顯示函數(shù)
defimshow(img):
img = img /2+0.5 # 非標(biāo)準(zhǔn)的(unnormalized)
npimg = img.numpy()
plt.imshow(np.transpose(npimg, (1, 2, 0)))
plt.show()
# 得到一些隨機(jī)圖像
dataiter =iter(trainloader)images, labels = dataiter.next()
# 顯示圖像
imshow(torchvision.utils.make_grid(images))
# 打印類標(biāo)
print(' '.join('%5s'% classes[labels[j]] for j inrange(4)))
圖片二
輸出:
cat car dog cat
2. 定義一個(gè)卷積神經(jīng)網(wǎng)絡(luò)
在這之前先 從神經(jīng)網(wǎng)絡(luò)章節(jié) 復(fù)制神經(jīng)網(wǎng)絡(luò),并修改它為3通道的圖片(在此之前它被定義為1通道)
import torch.nn as nn
import torch.nn.functional as F
classNet(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.conv1 = nn.Conv2d(3, 6, 5)
self.pool = nn.MaxPool2d(2, 2)
self.conv2 = nn.Conv2d(6, 16, 5)
self.fc1 = nn.Linear(16*5*5, 120)
self.fc2 = nn.Linear(120, 84)
self.fc3 = nn.Linear(84, 10)
defforward(self, x):
x =self.pool(F.relu(self.conv1(x)))
x =self.pool(F.relu(self.conv2(x)))
x = x.view(-1, 16*5*5)
x = F.relu(self.fc1(x))
x = F.relu(self.fc2(x))
x =self.fc3(x)
return x
net = Net()
讓我們使用分類交叉熵Cross-Entropy 作損失函數(shù),動(dòng)量SGD做優(yōu)化器。
import torch.optim as optim
criterion = nn.CrossEntropyLoss()optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)
這里事情開(kāi)始變得有趣,我們只需要在數(shù)據(jù)迭代器上循環(huán)傳給網(wǎng)絡(luò)和優(yōu)化器輸入就可以。
for epoch inrange(2): # 多次循環(huán)遍歷數(shù)據(jù)集
running_loss =0.0
for i, data inenumerate(trainloader, 0):
# 獲取輸入
inputs, labels = data
# 參數(shù)梯度置零
optimizer.zero_grad()
# 前向+ 反向 + 優(yōu)化
outputs = net(inputs)
loss = criterion(outputs, labels)
loss.backward()
optimizer.step()
# 輸出統(tǒng)計(jì)
running_loss += loss.item()
if i %2000==1999: # 每2000 mini-batchs輸出一次 print('[%d, %5d] loss: %.3f'%
(epoch +1, i +1, running_loss /2000))
running_loss =0.0
print('Finished Training')
輸出:
[1, 2000] loss: 2.211
[1, 4000] loss: 1.837
[1, 6000] loss: 1.659
[1, 8000] loss: 1.570
[1, 10000] loss: 1.521
[1, 12000] loss: 1.451
[2, 2000] loss: 1.411
[2, 4000] loss: 1.393
[2, 6000] loss: 1.348
[2, 8000] loss: 1.340
[2, 10000] loss: 1.363
[2, 12000] loss: 1.320
Finished Training
5. 在測(cè)試集上測(cè)試網(wǎng)絡(luò)
我們已經(jīng)通過(guò)訓(xùn)練數(shù)據(jù)集對(duì)網(wǎng)絡(luò)進(jìn)行了2次訓(xùn)練,但是我們需要檢查網(wǎng)絡(luò)是否已經(jīng)學(xué)到了東西。
我們將用神經(jīng)網(wǎng)絡(luò)的輸出作為預(yù)測(cè)的類標(biāo)來(lái)檢查網(wǎng)絡(luò)的預(yù)測(cè)性能,用樣本的真實(shí)類標(biāo)來(lái)校對(duì)。如果預(yù)測(cè)是正確的,我們將樣本添加到正確預(yù)測(cè)的列表里。
好的,第一步,讓我們從測(cè)試集中顯示一張圖像來(lái)熟悉它。
dataiter =iter(testloader)images, labels = dataiter.next()
# 打印圖片
imshow(torchvision.utils.make_grid(images))
print('GroundTruth: ', ' '.join('%5s'% classes[labels[j]] for j inrange(4)))
圖片三
輸出:
GroundTruth: cat ship ship plane
現(xiàn)在讓我們看看神經(jīng)網(wǎng)絡(luò)認(rèn)為這些樣本應(yīng)該預(yù)測(cè)成什么:
outputs = net(images)
輸出是預(yù)測(cè)與十個(gè)類的近似程度,與某一個(gè)類的近似程度越高,網(wǎng)絡(luò)就越認(rèn)為圖像是屬于這一類別。所以讓我們打印其中最相似類別類標(biāo):
_, predicted = torch.max(outputs, 1)
print('Predicted: ', ' '.join('%5s'% classes[predicted[j]]
for j inrange(4)))
輸出:
Predicted: cat car car ship
結(jié)果看起開(kāi)非常好,讓我們看看網(wǎng)絡(luò)在整個(gè)數(shù)據(jù)集上的表現(xiàn)。
correct =0total =0with torch.no_grad():
for data in testloader:
images, labels = data
outputs = net(images)
_, predicted = torch.max(outputs.data, 1)
total += labels.size(0)
correct += (predicted == labels).sum().item()
print('Accuracy of the network on the 10000 test images: %d %%'% (
100* correct / total))
輸出:
Accuracy of the network on the 10000 test images: 53 %
這看起來(lái)比隨機(jī)預(yù)測(cè)要好,隨機(jī)預(yù)測(cè)的準(zhǔn)確率為10%(隨機(jī)預(yù)測(cè)出為10類中的哪一類)。看來(lái)網(wǎng)絡(luò)學(xué)到了東西。
class_correct =list(0.for i inrange(10))class_total =list(0.for i inrange(10))with torch.no_grad():
for data in testloader:
images, labels = data
outputs = net(images)
_, predicted = torch.max(outputs, 1)
c = (predicted == labels).squeeze()
for i inrange(4):
label = labels[i]
class_correct[label] += c[i].item()
class_total[label] +=1
for i inrange(10):
print('Accuracy of %5s : %2d %%'% (
classes[i], 100* class_correct[i] / class_total[i]))
輸出:
Accuracy of plane : 52 %
Accuracy of car : 73 %
Accuracy of bird : 34 %
Accuracy of cat : 54 %
Accuracy of deer : 48 %
Accuracy of dog : 26 %
Accuracy of frog : 68 %
Accuracy of horse : 51 %
Accuracy of ship : 63 %
Accuracy of truck : 60 %
所以接下來(lái)呢?我們?cè)趺丛贕PU上跑這些神經(jīng)網(wǎng)絡(luò)?
就像你怎么把一個(gè)張量轉(zhuǎn)移到GPU上一樣,你要將神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)到GPU上。
如果CUDA可以用,讓我們首先定義下我們的設(shè)備為第一個(gè)可見(jiàn)的cuda設(shè)備。
device = torch.device("cuda:0"if torch.cuda.is_available() else"cpu")
# 假設(shè)在一臺(tái)CUDA機(jī)器上運(yùn)行,那么這里將輸出一個(gè)CUDA設(shè)備號(hào):
print(device)
輸出:
cuda:0
本節(jié)剩余部分都會(huì)假定設(shè)備就是臺(tái)CUDA設(shè)備。接著這些方法會(huì)遞歸地遍歷所有模塊,并將它們的參數(shù)和緩沖器轉(zhuǎn)換為CUDA張量。
net.to(device)
記住你也必須在每一個(gè)步驟向GPU發(fā)送輸入和目標(biāo):
inputs, labels = inputs.to(device), labels.to(device)
為什么沒(méi)有注意到與CPU相比巨大的加速?因?yàn)槟愕木W(wǎng)絡(luò)非常小。
練習(xí):嘗試增加你的網(wǎng)絡(luò)寬度(首個(gè)nn.Conv2d參數(shù)設(shè)定為2,第二個(gè)nn.Conv2d參數(shù)設(shè)定為1--它們需要有相同的個(gè)數(shù)),看看會(huì)得到怎么的速度提升。
目標(biāo):
深度理解了PyTorch的張量和神經(jīng)網(wǎng)絡(luò)
訓(xùn)練了一個(gè)小的神經(jīng)網(wǎng)絡(luò)來(lái)分類圖像
四、 在多個(gè)GPU上訓(xùn)練
如果你想要來(lái)看到大規(guī)模加速,使用你的所有GPU,請(qǐng)查看:數(shù)據(jù)并行性(https://pytorch.org/tutorials/beginner/blitz/data_parallel_tutorial.html)。
看完上述內(nèi)容,你們掌握如何使用Pytorch訓(xùn)練分類器的方法了嗎?如果還想學(xué)到更多技能或想了解更多相關(guān)內(nèi)容,歡迎關(guān)注創(chuàng)新互聯(lián)-成都網(wǎng)站建設(shè)公司行業(yè)資訊頻道,感謝各位的閱讀!