本篇文章為大家展示了如何修改TensorFlow保存數(shù)量的限制,內(nèi)容簡(jiǎn)明扼要并且容易理解,絕對(duì)能使你眼前一亮,通過(guò)這篇文章的詳細(xì)介紹希望你能有所收獲。
新泰網(wǎng)站制作公司哪家好,找創(chuàng)新互聯(lián)!從網(wǎng)頁(yè)設(shè)計(jì)、網(wǎng)站建設(shè)、微信開(kāi)發(fā)、APP開(kāi)發(fā)、響應(yīng)式網(wǎng)站開(kāi)發(fā)等網(wǎng)站項(xiàng)目制作,到程序開(kāi)發(fā),運(yùn)營(yíng)維護(hù)。創(chuàng)新互聯(lián)于2013年開(kāi)始到現(xiàn)在10年的時(shí)間,我們擁有了豐富的建站經(jīng)驗(yàn)和運(yùn)維經(jīng)驗(yàn),來(lái)保證我們的工作的順利進(jìn)行。專(zhuān)注于網(wǎng)站建設(shè)就選創(chuàng)新互聯(lián)。設(shè)置如下:
saver = tf.train.Saver( max_to_keep = 100 , keep_checkpoint_every_n_hours = 1 )
補(bǔ)充:解決TensorFlow只能保存5個(gè)模型的問(wèn)題
在訓(xùn)練模型的代碼中找到這句代碼:tf.train.Saver(),
改成:
tf.train.Saver(max_to_keep = m) # m為你想保存的模型數(shù)量
Saver類(lèi)中的可選參數(shù)
tf.train.Saver(max_to_keep = m, keep_checkpoint_every_n_hours = n)
max_to_keep
保存離當(dāng)前訓(xùn)練最近的模型數(shù)量,默認(rèn)值為5。如果想全部保存,并且電腦內(nèi)存夠用,設(shè)成多大都可以。
keep_checkpoint_every_n_hours
每隔n個(gè)小時(shí)保存一次模型,默認(rèn)值為10,000(一般情況下應(yīng)該不會(huì)訓(xùn)練這么長(zhǎng)時(shí)間,所以相當(dāng)于是不會(huì)按照時(shí)間來(lái)保存,按照設(shè)置的epoch保存節(jié)點(diǎn)數(shù)來(lái)保存)。
上述內(nèi)容就是如何修改TensorFlow保存數(shù)量的限制,你們學(xué)到知識(shí)或技能了嗎?如果還想學(xué)到更多技能或者豐富自己的知識(shí)儲(chǔ)備,歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道。