Pytorch中使用tensorboard中如何添加網(wǎng)絡(luò)結(jié)構(gòu)add_graph,很多新手對(duì)此不是很清楚,為了幫助大家解決這個(gè)難題,下面小編將為大家詳細(xì)講解,有這方面需求的人可以來學(xué)習(xí)下,希望你能有所收獲。
創(chuàng)新互聯(lián)服務(wù)項(xiàng)目包括徐聞網(wǎng)站建設(shè)、徐聞網(wǎng)站制作、徐聞網(wǎng)頁制作以及徐聞網(wǎng)絡(luò)營銷策劃等。多年來,我們專注于互聯(lián)網(wǎng)行業(yè),利用自身積累的技術(shù)優(yōu)勢(shì)、行業(yè)經(jīng)驗(yàn)、深度合作伙伴關(guān)系等,向廣大中小型企業(yè)、政府機(jī)構(gòu)等提供互聯(lián)網(wǎng)行業(yè)的解決方案,徐聞網(wǎng)站推廣取得了明顯的社會(huì)效益與經(jīng)濟(jì)效益。目前,我們服務(wù)的客戶以成都為中心已經(jīng)輻射到徐聞省份的部分城市,未來相信會(huì)繼續(xù)擴(kuò)大服務(wù)區(qū)域并繼續(xù)獲得客戶的支持與信任!
from torch.utils.tensorboard import SummaryWriterimport torchimport torchvisionfrom torchvision import datasets,transformsfrom torch.autograd import Variableclass Model(torch.nn.Module):def __init__(self):super(Model,self).__init__()self.conv1=torch.nn.Sequential(#輸入torch.Size([64, 1, 28, 28])torch.nn.Conv2d(1,64,kernel_size=3,stride=1,padding=1),# 用于搭建卷積神經(jīng)網(wǎng)絡(luò)的卷積層,主要的輸入?yún)?shù)有輸入通道數(shù)、# 輸出通道數(shù)、卷積核大小、卷積核移動(dòng)步長和Padding值。# 輸出維度 = 1+(輸入維度-卷積核大小+2*padding)/卷積核步長 #輸出torch.Size([64, 64, 28, 28])torch.nn.ReLU(),#輸出torch.Size([64, 64, 28, 28])torch.nn.Conv2d(64,128,kernel_size=3,stride=1,padding=1),#輸出torch.Size([64, 128, 28, 28])torch.nn.ReLU(),torch.nn.MaxPool2d(stride=2,kernel_size=2)# 主要的輸入?yún)?shù)是池化窗口大小、池化窗口移動(dòng)步長和Padding值#輸出torch.Size([64, 128, 14, 14]))self.dense=torch.nn.Sequential(#輸入torch.Size([64, 14*14*128])torch.nn.Linear(14*14*128,1024),#class torch.nn.Linear(in_features,out_features,bias = True)#輸出torch.Size([64, 1024])torch.nn.ReLU(),torch.nn.Dropout(p=0.5),# torch.nn.Dropout類用于防止卷積神經(jīng)網(wǎng)絡(luò)在訓(xùn)練的過程中# 發(fā)生過擬合,其工作原理簡單來說就是在模型訓(xùn)練的過程中,# 以一定的隨機(jī)概率將卷積神經(jīng)網(wǎng)絡(luò)模型的部分參數(shù)歸零,以達(dá)# 到減少相鄰兩層神經(jīng)連接的目的。這樣做是為了讓我們最后訓(xùn)# 練出來的模型對(duì)各部分的權(quán)重參數(shù)不產(chǎn)生過度依賴,從而防止# 過擬合。對(duì)于torch.nn.Dropout類,我們可以對(duì)隨機(jī)概率值# 的大小進(jìn)行設(shè)置,如果不做任何設(shè)置,就使用默認(rèn)的概率值0.5。torch.nn.Linear(1024,10)#輸出torch.Size([64, 10]) )def forward(self,x):#torch.Size([64, 1, 28, 28])x = self.conv1(x)#輸出torch.Size([64, 128, 14, 14])x = x.view(-1,14*14*128)#view()函數(shù)作用是將一個(gè)多行的Tensor,拼接成一行,torch.Size([64, 14*14*128])x = self.dense(x)#輸出torch.Size([64, 10])return x transform = transforms.Compose([transforms.ToTensor(),transforms.Normalize(mean=[0.5],std=[0.5])])data_train = datasets.MNIST(root = "./data/",transform=transform,train = True,download = True)data_loader_train = torch.utils.data.DataLoader(dataset = data_train,batch_size = 64,shuffle = True)# images, labels = next(iter(data_loader_train))#迭代器# torch.Size([64, 1, 28, 28])images = torch.randn(64, 1, 28, 28)model = Model()writer = SummaryWriter()for i in range(5): images = torch.randn(64, 1, 28, 28) writer.add_graph(model, input_to_model=images, verbose=False)writer.flush()writer.close()# tensorboard --logdir=runs
結(jié)果展示:
看完上述內(nèi)容是否對(duì)您有幫助呢?如果還想對(duì)相關(guān)知識(shí)有進(jìn)一步的了解或閱讀更多相關(guān)文章,請(qǐng)關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道,感謝您對(duì)創(chuàng)新互聯(lián)的支持。