真实的国产乱ⅩXXX66竹夫人,五月香六月婷婷激情综合,亚洲日本VA一区二区三区,亚洲精品一区二区三区麻豆

成都創(chuàng)新互聯(lián)網(wǎng)站制作重慶分公司

如何使用tensorflowDataSet實(shí)現(xiàn)高效加載變長(zhǎng)文本輸入-創(chuàng)新互聯(lián)

這篇文章給大家分享的是有關(guān)如何使用tensorflow DataSet實(shí)現(xiàn)高效加載變長(zhǎng)文本輸入的內(nèi)容。小編覺得挺實(shí)用的,因此分享給大家做個(gè)參考,一起跟隨小編過來(lái)看看吧。

創(chuàng)新互聯(lián)公司專注為客戶提供全方位的互聯(lián)網(wǎng)綜合服務(wù),包含不限于成都網(wǎng)站建設(shè)、網(wǎng)站建設(shè)、同仁網(wǎng)絡(luò)推廣、成都小程序開發(fā)、同仁網(wǎng)絡(luò)營(yíng)銷、同仁企業(yè)策劃、同仁品牌公關(guān)、搜索引擎seo、人物專訪、企業(yè)宣傳片、企業(yè)代運(yùn)營(yíng)等,從售前售中售后,我們都將竭誠(chéng)為您服務(wù),您的肯定,是我們大的嘉獎(jiǎng);創(chuàng)新互聯(lián)公司為所有大學(xué)生創(chuàng)業(yè)者提供同仁建站搭建服務(wù),24小時(shí)服務(wù)熱線:13518219792,官方網(wǎng)址:www.cdcxhl.com

DataSet是tensorflow 1.3版本推出的一個(gè)high-level的api,在1.3版本還只是處于測(cè)試階段,1.4版本已經(jīng)正式推出。

在網(wǎng)上搜了一遍,發(fā)現(xiàn)關(guān)于使用DataSet加載文本的資料比較少,官方舉的例子只是csv格式的,要求csv文件中所有樣本必須具有相同的維度,也就是padding必須在寫入csv文件之前做掉,這會(huì)增加文件的大小。

經(jīng)過一番折騰試驗(yàn),這里給出一個(gè)DataSet+TFRecords加載變長(zhǎng)樣本的范例。

首先先把變長(zhǎng)的數(shù)據(jù)寫入到TFRecords文件:

def writedata():
 xlist = [[1,2,3],[4,5,6,8]]
 ylist = [1,2]
 #這里的數(shù)據(jù)只是舉個(gè)例子來(lái)說(shuō)明樣本的文本長(zhǎng)度不一樣,第一個(gè)樣本3個(gè)詞標(biāo)簽1,第二個(gè)樣本4個(gè)詞標(biāo)簽2
 writer = tf.python_io.TFRecordWriter("train.tfrecords")
 for i in range(2):
  x = xlist[i]
  y = ylist[i]
  example = tf.train.Example(features=tf.train.Features(feature={
   "y": tf.train.Feature(int64_list=tf.train.Int64List(value=[y])),
   'x': tf.train.Feature(int64_list=tf.train.Int64List(value=x))
  }))
  writer.write(example.SerializeToString())
 writer.close()

然后用DataSet加載:

feature_names = ['x']
 
def my_input_fn(file_path, perform_shuffle=False, repeat_count=1):
 def parse(example_proto):
  features = {"x": tf.VarLenFeature(tf.int64),
    "y": tf.FixedLenFeature([1], tf.int64)}
  parsed_features = tf.parse_single_example(example_proto, features)
  x = tf.sparse_tensor_to_dense(parsed_features["x"])
  x = tf.cast(x, tf.int32)
  x = dict(zip(feature_names, [x]))
  y = tf.cast(parsed_features["y"], tf.int32)
  return x, y
 
 dataset = (tf.contrib.data.TFRecordDataset(file_path)
    .map(parse))
 if perform_shuffle:
  dataset = dataset.shuffle(buffer_size=256)
 dataset = dataset.repeat(repeat_count)
 dataset = dataset.padded_batch(2, padded_shapes=({'x':[6]},[1])) #batch size為2,并且x按maxlen=6來(lái)做padding
 iterator = dataset.make_one_shot_iterator()
 batch_features, batch_labels = iterator.get_next()
 return batch_features, batch_labels
 
next_batch = my_input_fn('train.tfrecords', True)
init = tf.initialize_all_variables()
with tf.Session() as sess:
 sess.run(init)
 for i in range(1):
  xs, y =sess.run(next_batch)
  print(xs['x'])
  print(y)

注意變長(zhǎng)的數(shù)據(jù)TFRecords解析要用VarLenFeature,然后用sparse_tensor_to_dense轉(zhuǎn)換。

感謝各位的閱讀!關(guān)于“如何使用tensorflow DataSet實(shí)現(xiàn)高效加載變長(zhǎng)文本輸入”這篇文章就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,讓大家可以學(xué)到更多知識(shí),如果覺得文章不錯(cuò),可以把它分享出去讓更多的人看到吧!


標(biāo)題名稱:如何使用tensorflowDataSet實(shí)現(xiàn)高效加載變長(zhǎng)文本輸入-創(chuàng)新互聯(lián)
轉(zhuǎn)載源于:http://weahome.cn/article/deicog.html

其他資訊

在線咨詢

微信咨詢

電話咨詢

028-86922220(工作日)

18980820575(7×24)

提交需求

返回頂部