首先應(yīng)該是np.random.uniform
創(chuàng)新互聯(lián)公司專注于新絳企業(yè)網(wǎng)站建設(shè),成都響應(yīng)式網(wǎng)站建設(shè)公司,商城網(wǎng)站制作。新絳網(wǎng)站建設(shè)公司,為新絳等地區(qū)提供建站服務(wù)。全流程按需求定制設(shè)計,專業(yè)設(shè)計,全程項目跟蹤,創(chuàng)新互聯(lián)公司專業(yè)和態(tài)度為您提供的服務(wù)
這兩個回答多少有點大病
兩者雖然函數(shù)名相同,但屬于不同的庫,一個是TensorFlow的,一個是numpy的。
就好比你家也有冰箱我家也有冰箱一樣。
tf.random.uniform的屬性變量包括:
shape: 輸出張量的形狀,比如矩陣或者向量的維度
mean: 正態(tài)分布的均值,默認為0
stddev: 正態(tài)分布的標準差,默認為1.0
dtype: 輸出的類型,默認為tf.float32
seed: 隨機數(shù)種子,是一個整數(shù),當(dāng)設(shè)置之后,每次生成的隨機數(shù)都一樣
name: 操作的名稱
np.random.uniform的屬性變量包括:
low: 采樣下界,float類型,默認值為0
high: 采樣上界,float類型,默認值為1
size: 輸出樣本數(shù)目,為int或元組(tuple)類型
tensorflow是生成均勻分布,而numpy則是在分布中做隨機采樣
tensorflow總結(jié)的時候需要給個名字,其實這個函數(shù)就是讓畫出來的tensorflow的圖的節(jié)點的名字有一點實際意義,比如整個網(wǎng)絡(luò)的名字是xxx,就可以使用tf.summary.scalar(xxx,loss),后面的lossy可以替換成網(wǎng)絡(luò)自己的loss.
具體參考:
在對文本數(shù)據(jù)進行處理時,很大一部分精力都用在數(shù)據(jù)集的特征提取上,因此記錄一下常用的文本特征提取方法。
文本特征提取一般分為兩部分
(1)文本本身屬性:元音字數(shù)數(shù)、輔音字母數(shù)、···
(2)基于文本的特征提取:TF-IDF等
比如提取以上文檔的特征,基于文本本身可以提取特征:
(1)字數(shù):統(tǒng)計每一行text文本的詞匯數(shù)量(有多少個單詞)
(2)非重復(fù)單詞數(shù)量:統(tǒng)計每一行text文本中只出現(xiàn)一次的單詞個數(shù)
(3)長度:每一行text的長度,占了多少存儲空間(包含空格、符號、字母等的長度)
(4)停止詞數(shù)量統(tǒng)計:between、but、about、very等詞匯的數(shù)量統(tǒng)計
(5)標點符號數(shù)量:每一行text中包含的標點符號數(shù)量
(6)大寫單詞數(shù)量:統(tǒng)計大寫單詞數(shù)量
(7)標題式單詞數(shù)量:統(tǒng)計單詞拼寫首字母是否為大寫,且其他字母為小寫的單詞數(shù)量
(8)單詞的平均長度:每一行text中每個單詞長度的平均值
這些特征的提取不涉及復(fù)雜的函數(shù)計算,基于文本本身屬性提取直觀信息作為模型訓(xùn)練的特征。
·
TF-IDF算法 :計算單詞權(quán)重最為有效的實現(xiàn)方法就是TF-IDF, 它是由Salton在1988 年提出的,以特征詞在文檔d中出現(xiàn)的次數(shù)與包含該特征詞的文檔數(shù)之比作為該詞的權(quán)重。
python中使用TfidfVectorizer函數(shù)實現(xiàn)TF-IDF特征的提取,生成每個text的TF-IDF特征。
·
經(jīng)過TF-IDF特征提取后,數(shù)據(jù)集的特征變量超級多(TF-IDF計算了整個數(shù)據(jù)集出現(xiàn)的所有單詞對每個test的權(quán)重),面對這樣龐大的特征數(shù)據(jù),可以通過SVD實現(xiàn)對數(shù)據(jù)集的壓縮。
SVD的原理是將龐大的TF-IDF生成的數(shù)據(jù)集A進行拆分,設(shè)置K值(想要壓縮得到的維度,例如K=20,壓縮后得到20列的特征數(shù)據(jù)集)X就是只有K個特征轉(zhuǎn)換后的數(shù)據(jù)集。
經(jīng)過壓縮后的TF-IDF只有K列,與01中 基于文本本身特征 合并,即為文本數(shù)據(jù)集的特征向量。
tf-idf=tf*idf
tf是詞頻,若一個文件中有n個次,詞word出現(xiàn)c次;,則tf=c/n
idf是逆文檔概率,一共有N個文件,詞word在w個文檔中出現(xiàn),則idf=w/N
python語言最常見的括號有三種,分別是:小括號( )、中括號[ ]和大括號也叫做花括號{ }。其作用也各不相同,分別用來代表不同的python基本內(nèi)置數(shù)據(jù)類型。 1、python中的小括號( ):代表tuple元組數(shù)據(jù)類型,元組是一種不可變序列。創(chuàng)建方法很簡單,大多時候都是用小括號括起來的。 tup = (1,2,3) tup (1, 2, 3) ()#空元組 () 55,#一個值的元組 (55,) 2、python中的中括號[ ]:代表list列表數(shù)據(jù)類型,列表是一種可變的序列。其創(chuàng)建方法即簡單又特別,像下面一樣: list('python') ['p', 'y', 't', 'h', 'o', 'n'] 3、python大括號{ }花括號:代表dict字典數(shù)據(jù)類型,字典是由鍵對值組組成。冒號':'分開鍵和值,逗號','隔開組。用大括號創(chuàng)建的方法如下: dic={'jon':'boy','lili':'girl'} dic {'lili': 'girl', 'jon': 'boy'}
tf是傳遞函數(shù)的意思,一般學(xué)自動控制原理的時候經(jīng)常用,在s域中,比如你要輸入G(s)=1/(s^2+2s+1),就可以在matlab中輸入G=tf([1],[1
2
1]);就OK了。不懂的話你可以在command窗口輸入help
tf
就行了,仔細閱讀好多例程呢