【常見(jiàn)的內(nèi)置函數(shù)】
成都創(chuàng)新互聯(lián)專(zhuān)注于網(wǎng)站建設(shè)|成都網(wǎng)站維護(hù)|優(yōu)化|托管以及網(wǎng)絡(luò)推廣,積累了大量的網(wǎng)站設(shè)計(jì)與制作經(jīng)驗(yàn),為許多企業(yè)提供了網(wǎng)站定制設(shè)計(jì)服務(wù),案例作品覆蓋成都花箱等行業(yè)。能根據(jù)企業(yè)所處的行業(yè)與銷(xiāo)售的產(chǎn)品,結(jié)合品牌形象的塑造,量身定制品質(zhì)網(wǎng)站。
1、enumerate(iterable,start=0)
是python的內(nèi)置函數(shù),是枚舉、列舉的意思,對(duì)于一個(gè)可迭代的(iterable)/可遍歷的對(duì)象(如列表、字符串),enumerate將其組成一個(gè)索引序列,利用它可以同時(shí)獲得索引和值。
2、zip(*iterables,strict=False)
用于將可迭代的對(duì)象作為參數(shù),將對(duì)象中對(duì)應(yīng)的元素打包成一個(gè)個(gè)元組,然后返回由這些元組組成的列表。如果各個(gè)迭代器的元素個(gè)數(shù)不一致,則返回列表長(zhǎng)度與最短的對(duì)象相同,利用*號(hào)操作符,可以將元組解壓為列表。
3、filter(function,iterable)
filter是將一個(gè)序列進(jìn)行過(guò)濾,返回迭代器的對(duì)象,去除不滿(mǎn)足條件的序列。
4、isinstance(object,classinfo)
是用來(lái)判斷某一個(gè)變量或者是對(duì)象是不是屬于某種類(lèi)型的一個(gè)函數(shù),如果參數(shù)object是classinfo的實(shí)例,或者object是classinfo類(lèi)的子類(lèi)的一個(gè)實(shí)例,
返回True。如果object不是一個(gè)給定類(lèi)型的的對(duì)象, 則返回結(jié)果總是False
5、eval(expression[,globals[,locals]])
用來(lái)將字符串str當(dāng)成有效的表達(dá)式來(lái)求值并返回計(jì)算結(jié)果,表達(dá)式解析參數(shù)expression并作為Python表達(dá)式進(jìn)行求值(從技術(shù)上說(shuō)是一個(gè)條件列表),采用globals和locals字典作為全局和局部命名空間。
【常用的句式】
1、format字符串格式化
format把字符串當(dāng)成一個(gè)模板,通過(guò)傳入的參數(shù)進(jìn)行格式化,非常實(shí)用且強(qiáng)大。
2、連接字符串
常使用+連接兩個(gè)字符串。
3、if...else條件語(yǔ)句
Python條件語(yǔ)句是通過(guò)一條或多條語(yǔ)句的執(zhí)行結(jié)果(True或者False)來(lái)決定執(zhí)行的代碼塊。其中if...else語(yǔ)句用來(lái)執(zhí)行需要判斷的情形。
4、for...in、while循環(huán)語(yǔ)句
循環(huán)語(yǔ)句就是遍歷一個(gè)序列,循環(huán)去執(zhí)行某個(gè)操作,Python中的循環(huán)語(yǔ)句有for和while。
5、import導(dǎo)入其他腳本的功能
有時(shí)需要使用另一個(gè)python文件中的腳本,這其實(shí)很簡(jiǎn)單,就像使用import關(guān)鍵字導(dǎo)入任何模塊一樣。
內(nèi)置函數(shù)就是Python給你提供的,拿來(lái)直接用的函數(shù),比如print.,input等。
截止到python版本3.6.2 ,python一共提供了68個(gè)內(nèi)置函數(shù),具體如下
本文將這68個(gè)內(nèi)置函數(shù)綜合整理為12大類(lèi),正在學(xué)習(xí)Python基礎(chǔ)的讀者一定不要錯(cuò)過(guò),建議收藏學(xué)習(xí)!
(1)列表和元組
(2)相關(guān)內(nèi)置函數(shù)
(3)字符串
frozenset 創(chuàng)建一個(gè)凍結(jié)的集合,凍結(jié)的集合不能進(jìn)行添加和刪除操作。
語(yǔ)法:sorted(Iterable, key=函數(shù)(排序規(guī)則), reverse=False)
語(yǔ)法:fiter(function. Iterable)
function: 用來(lái)篩選的函數(shù). 在?lter中會(huì)自動(dòng)的把iterable中的元素傳遞給function. 然后根據(jù)function返回的True或者False來(lái)判斷是否保留留此項(xiàng)數(shù)據(jù) , Iterable: 可迭代對(duì)象
搜索公眾號(hào)頂級(jí)架構(gòu)師后臺(tái)回復(fù)“面試”,送你一份驚喜禮包。
語(yǔ)法 : map(function, iterable)
可以對(duì)可迭代對(duì)象中的每一個(gè)元素進(jìn)行映射. 分別去執(zhí)行 function
hash : 獲取到對(duì)象的哈希值(int, str, bool, tuple). hash算法:(1) 目的是唯一性 (2) dict 查找效率非常高, hash表.用空間換的時(shí)間 比較耗費(fèi)內(nèi)存
一、海龜狀態(tài)函數(shù)
1、顯示海龜
showturtle()或st()
無(wú)參數(shù)直接調(diào)用
2、隱藏海龜
hideturtle()或ht()
無(wú)參數(shù)直接調(diào)用
3、返回海龜?shù)臓顟B(tài)(True或False)
isvisible()
無(wú)參數(shù)直接調(diào)用
二、外觀函數(shù)
1、改變海龜?shù)耐庑位蚍祷禺?dāng)前海龜形狀
shape(name)
默認(rèn)的參數(shù)是:"arrow", "turtle", "circle", "square", "triangle", "classic"。
2、設(shè)置海龜尺寸模式
resizemode(rmode)
參數(shù):默認(rèn)值("auto", "user", "noresize")
3、調(diào)整海龜?shù)拇笮』蚍祷禺?dāng)前大小參數(shù)值
shapesize(wid,len,outline)或turtle.sieze(wid,len,outline)
參數(shù) wid 正數(shù) len 正數(shù) outline正數(shù)
4、設(shè)置或返回當(dāng)前的剪切因子
shearfactor()
參數(shù): shear 實(shí)數(shù)
5、設(shè)置傾角
settiltangle(angle)
參數(shù):angle角度和海龜朝向不同
6、設(shè)置海龜與朝向的夾角
tilt(angle)
1、torch.cat(inputs, dim=0) - Tensor?
參考鏈接:
[Pytorch] 詳解 torch.cat()
Pytorch學(xué)習(xí)筆記(一):torch.cat()模塊的詳解
函數(shù)作用:cat 是 concatnate 的意思:拼接,聯(lián)系在一起。在給定維度上對(duì)輸入的 Tensor 序列進(jìn)行拼接操作。torch.cat 可以看作是 torch.split 和 torch.chunk 的反操作
參數(shù):
inputs(sequence of Tensors):可以是任意相同類(lèi)型的 Tensor 的 python 序列
dim(int, optional):defaults=0
dim=0: 按列進(jìn)行拼接?
dim=1: 按行進(jìn)行拼接
dim=-1: 如果行和列數(shù)都相同則按行進(jìn)行拼接,否則按照行數(shù)或列數(shù)相等的維度進(jìn)行拼接
假設(shè) a 和 b 都是 Tensor,且 a 的維度為 [2, 3],b 的維度為 [2, 4],則
torch.cat((a, b), dim=1) 的維度為 [2, 7]
2、torch.nn.CrossEntropyLoss()
函數(shù)作用:CrossEntropy 是交叉熵的意思,故而 CrossEntropyLoss 的作用是計(jì)算交叉熵。CrossEntropyLoss 函數(shù)是將 torch.nn.Softmax 和 torch.nn.NLLLoss 兩個(gè)函數(shù)組合在一起使用,故而傳入的預(yù)測(cè)值不需要先進(jìn)行 torch.nnSoftmax 操作。
參數(shù):
input(N, C):N 是 batch_size,C 則是類(lèi)別數(shù),即在定義模型輸出時(shí),輸出節(jié)點(diǎn)個(gè)數(shù)要定義為 [N, C]。其中特別注意的是 target 的數(shù)據(jù)類(lèi)型需要是浮點(diǎn)數(shù),即 float32
target(N):N 是 batch_size,故 target 需要是 1D 張量。其中特別注意的是 target 的數(shù)據(jù)類(lèi)型需要是 long,即 int64
例子:
loss = nn.CrossEntropyLoss()
input = torch.randn(3, 5, requires_grad=True, dtype=torch.float32)
target = torch.empty(3, dtype=torch.long).random_(5)
output = loss(input, target)
output
輸出為:
tensor(1.6916, grad_fn=NllLossBackward)