真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

關(guān)于keras訓練模型fit和fit_generator的案例-創(chuàng)新互聯(lián)

創(chuàng)新互聯(lián)www.cdcxhl.cn八線動態(tài)BGP香港云服務(wù)器提供商,新人活動買多久送多久,劃算不套路!

站在用戶的角度思考問題,與客戶深入溝通,找到三臺網(wǎng)站設(shè)計與三臺網(wǎng)站推廣的解決方案,憑借多年的經(jīng)驗,讓設(shè)計與互聯(lián)網(wǎng)技術(shù)結(jié)合,創(chuàng)造個性化、用戶體驗好的作品,建站類型包括:網(wǎng)站建設(shè)、做網(wǎng)站、企業(yè)官網(wǎng)、英文網(wǎng)站、手機端網(wǎng)站、網(wǎng)站推廣、域名注冊網(wǎng)站空間、企業(yè)郵箱。業(yè)務(wù)覆蓋三臺地區(qū)。

小編給大家分享一下關(guān)于keras訓練模型fit和fit_generator的案例,希望大家閱讀完這篇文章后大所收獲,下面讓我們一起去探討方法吧!

第一種,fit

import keras
from keras.models import Sequential
from keras.layers import Dense
import numpy as np
from sklearn.preprocessing import LabelEncoder
from sklearn.preprocessing import OneHotEncoder
from sklearn.model_selection import train_test_split

#讀取數(shù)據(jù)
x_train = np.load("D:\\machineTest\\testmulPE_win7\\data_sprase.npy")[()]
y_train = np.load("D:\\machineTest\\testmulPE_win7\\lable_sprase.npy")

# 獲取分類類別總數(shù)
classes = len(np.unique(y_train))

#對label進行one-hot編碼,必須的
label_encoder = LabelEncoder()
integer_encoded = label_encoder.fit_transform(y_train)
onehot_encoder = OneHotEncoder(sparse=False)
integer_encoded = integer_encoded.reshape(len(integer_encoded), 1)
y_train = onehot_encoder.fit_transform(integer_encoded)

#shuffle
X_train, X_test, y_train, y_test = train_test_split(x_train, y_train, test_size=0.3, random_state=0)

model = Sequential()
model.add(Dense(units=1000, activation='relu', input_dim=784))
model.add(Dense(units=classes, activation='softmax'))
model.compile(loss='categorical_crossentropy',
    optimizer='sgd',
    metrics=['accuracy'])
model.fit(X_train, y_train, epochs=50, batch_size=128)
score = model.evaluate(X_test, y_test, batch_size=128)
# #fit參數(shù)詳情
# keras.models.fit(
# self,
# x=None, #訓練數(shù)據(jù)
# y=None, #訓練數(shù)據(jù)label標簽
# batch_size=None, #每經(jīng)過多少個sample更新一次權(quán)重,defult 32
# epochs=1, #訓練的輪數(shù)epochs
# verbose=1, #0為不在標準輸出流輸出日志信息,1為輸出進度條記錄,2為每個epoch輸出一行記錄
# callbacks=None,#list,list中的元素為keras.callbacks.Callback對象,在訓練過程中會調(diào)用list中的回調(diào)函數(shù)
# validation_split=0., #浮點數(shù)0-1,將訓練集中的一部分比例作為驗證集,然后下面的驗證集validation_data將不會起到作用
# validation_data=None, #驗證集
# shuffle=True, #布爾值和字符串,如果為布爾值,表示是否在每一次epoch訓練前隨機打亂輸入樣本的順序,如果為"batch",為處理HDF5數(shù)據(jù)
# class_weight=None, #dict,分類問題的時候,有的類別可能需要額外關(guān)注,分錯的時候給的懲罰會比較大,所以權(quán)重會調(diào)高,體現(xiàn)在損失函數(shù)上面
# sample_weight=None, #array,和輸入樣本對等長度,對輸入的每個特征+個權(quán)值,如果是時序的數(shù)據(jù),則采用(samples,sequence_length)的矩陣
# initial_epoch=0, #如果之前做了訓練,則可以從指定的epoch開始訓練
# steps_per_epoch=None, #將一個epoch分為多少個steps,也就是劃分一個batch_size多大,比如steps_per_epoch=10,則就是將訓練集分為10份,不能和batch_size共同使用
# validation_steps=None, #當steps_per_epoch被啟用的時候才有用,驗證集的batch_size
# **kwargs #用于和后端交互
# )
# 
# 返回的是一個History對象,可以通過History.history來查看訓練過程,loss值等等

網(wǎng)站欄目:關(guān)于keras訓練模型fit和fit_generator的案例-創(chuàng)新互聯(lián)
本文來源:http://weahome.cn/article/dpjseh.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部