真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

Pytorch中怎么利用ResNet50實(shí)現(xiàn)圖像分類-創(chuàng)新互聯(lián)

這期內(nèi)容當(dāng)中小編將會(huì)給大家?guī)?lái)有關(guān)Pytorch中怎么利用ResNet50實(shí)現(xiàn)圖像分類,文章內(nèi)容豐富且以專業(yè)的角度為大家分析和敘述,閱讀完這篇文章希望大家可以有所收獲。

為榮昌等地區(qū)用戶提供了全套網(wǎng)頁(yè)設(shè)計(jì)制作服務(wù),及榮昌網(wǎng)站建設(shè)行業(yè)解決方案。主營(yíng)業(yè)務(wù)為成都做網(wǎng)站、網(wǎng)站制作、榮昌網(wǎng)站設(shè)計(jì),以傳統(tǒng)方式定制建設(shè)網(wǎng)站,并提供域名空間備案等一條龍服務(wù),秉承以專業(yè)、用心的態(tài)度為用戶提供真誠(chéng)的服務(wù)。我們深信只要達(dá)到每一位用戶的要求,就會(huì)得到認(rèn)可,從而選擇與我們長(zhǎng)期合作。這樣,我們也可以走得更遠(yuǎn)!

模型

Torchvision.models包里面包含了常見(jiàn)的各種基礎(chǔ)模型架構(gòu),主要包括:

AlexNet
VGG
ResNet
SqueezeNet
DenseNet
Inception v3
GoogLeNet
ShuffleNet v2
MobileNet v2
ResNeXt
Wide ResNet
MNASNet

這里我選擇了ResNet50,基于ImageNet訓(xùn)練的基礎(chǔ)網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)圖像分類, 網(wǎng)絡(luò)模型下載與加載如下:

  • model = torchvision.models.resnet50(pretrained=True).eval().cuda()

  • tf = transforms.Compose([

  •             transforms.Resize(256),

  •             transforms.CenterCrop(224),

  •             transforms.ToTensor(),

  •             transforms.Normalize(

  •             mean=[0.485, 0.456, 0.406],

  •             std=[0.229, 0.224, 0.225]

  •         )])

使用模型實(shí)現(xiàn)圖像分類

這里首先需要加載ImageNet的分類標(biāo)簽,目的是最后顯示分類的文本標(biāo)簽時(shí)候使用。然后對(duì)輸入圖像完成預(yù)處理,使用ResNet50模型實(shí)現(xiàn)分類預(yù)測(cè),對(duì)預(yù)測(cè)結(jié)果解析之后,顯示標(biāo)簽文本,完整的代碼演示如下:

 1with open('imagenet_classes.txt') as f:
2    labels = [line.strip() for line in f.readlines()]
3
4src = cv.imread("D:/images/space_shuttle.jpg") # aeroplane.jpg
5image = cv.resize(src, (224, 224))
6image = np.float32(image) / 255.0
7image[:,:,] -= (np.float32(0.485), np.float32(0.456), np.float32(0.406))
8image[:,:,] /= (np.float32(0.229), np.float32(0.224), np.float32(0.225))
9image = image.transpose((2, 0, 1))
10input_x = torch.from_numpy(image).unsqueeze(0)
11print(input_x.size())
12pred = model(input_x.cuda())
13pred_index = torch.argmax(pred, 1).cpu().detach().numpy()
14print(pred_index)
15print("current predict class name : %s"%labels[pred_index[0]])
16cv.putText(src, labels[pred_index[0]], (50, 50), cv.FONT_HERSHEY_SIMPLEX, 1.0, (0, 0, 255), 2)
17cv.imshow("input", src)
18cv.waitKey(0)
19cv.destroyAllWindows()

運(yùn)行結(jié)果如下:

Pytorch中怎么利用ResNet50實(shí)現(xiàn)圖像分類

轉(zhuǎn)ONNX支持

在torchvision中的模型基本上都可以轉(zhuǎn)換為ONNX格式,而且被OpenCV DNN模塊所支持,所以,很方便的可以對(duì)torchvision自帶的模型轉(zhuǎn)為ONNX,實(shí)現(xiàn)OpenCV DNN的調(diào)用,首先轉(zhuǎn)為ONNX模型,直接使用torch.onnx.export即可轉(zhuǎn)換(還不知道怎么轉(zhuǎn),快點(diǎn)看前面的例子)。轉(zhuǎn)換之后使用OpenCV DNN調(diào)用的代碼如下:

 1with open('imagenet_classes.txt') as f:
2    labels = [line.strip() for line in f.readlines()]
3net = cv.dnn.readNetFromONNX("resnet.onnx")
4src = cv.imread("D:/images/messi.jpg")  # aeroplane.jpg
5image = cv.resize(src, (224, 224))
6image = np.float32(image) / 255.0
7image[:, :, ] -= (np.float32(0.485), np.float32(0.456), np.float32(0.406))
8image[:, :, ] /= (np.float32(0.229), np.float32(0.224), np.float32(0.225))
9blob = cv.dnn.blobFromImage(image, 1.0, (224, 224), (0, 0, 0), False)
10net.setInput(blob)
11probs = net.forward()
12index = np.argmax(probs)
13cv.putText(src, labels[index], (50, 50), cv.FONT_HERSHEY_SIMPLEX, 1.0, (0, 0, 255), 2)
14cv.imshow("input", src)
15cv.waitKey(0)
16cv.destroyAllWindows()

上述就是小編為大家分享的Pytorch中怎么利用ResNet50實(shí)現(xiàn)圖像分類了,如果剛好有類似的疑惑,不妨參照上述分析進(jìn)行理解。如果想知道更多相關(guān)知識(shí),歡迎關(guān)注創(chuàng)新互聯(lián)-成都網(wǎng)站建設(shè)公司行業(yè)資訊頻道。


當(dāng)前文章:Pytorch中怎么利用ResNet50實(shí)現(xiàn)圖像分類-創(chuàng)新互聯(lián)
當(dāng)前地址:http://weahome.cn/article/copdpi.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部