這篇文章主要為大家展示了“PyTorch如何實(shí)現(xiàn)對應(yīng)點(diǎn)相乘、矩陣相乘”,內(nèi)容簡而易懂,條理清晰,希望能夠幫助大家解決疑惑,下面讓小編帶領(lǐng)大家一起研究并學(xué)習(xí)一下“PyTorch如何實(shí)現(xiàn)對應(yīng)點(diǎn)相乘、矩陣相乘”這篇文章吧。
成都創(chuàng)新互聯(lián)是一家專注于成都網(wǎng)站建設(shè)、成都網(wǎng)站制作與策劃設(shè)計,界首網(wǎng)站建設(shè)哪家好?成都創(chuàng)新互聯(lián)做網(wǎng)站,專注于網(wǎng)站建設(shè)10余年,網(wǎng)設(shè)計領(lǐng)域的專業(yè)建站公司;建站業(yè)務(wù)涵蓋:界首等地區(qū)。界首做網(wǎng)站價格咨詢:13518219792一,對應(yīng)點(diǎn)相乘,x.mul(y) ,即點(diǎn)乘操作,點(diǎn)乘不求和操作,又可以叫作Hadamard product;點(diǎn)乘再求和,即為卷積
data = [[1,2], [3,4], [5, 6]] tensor = torch.FloatTensor(data) tensor Out[27]: tensor([[ 1., 2.], [ 3., 4.], [ 5., 6.]]) tensor.mul(tensor) Out[28]: tensor([[ 1., 4.], [ 9., 16.], [ 25., 36.]])
二,矩陣相乘,x.mm(y) , 矩陣大小需滿足: (i, n)x(n, j)
tensor Out[31]: tensor([[ 1., 2.], [ 3., 4.], [ 5., 6.]]) tensor.mm(tensor.t()) # t()是轉(zhuǎn)置 Out[30]: tensor([[ 5., 11., 17.], [ 11., 25., 39.], [ 17., 39., 61.]])
以上是“PyTorch如何實(shí)現(xiàn)對應(yīng)點(diǎn)相乘、矩陣相乘”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對大家有所幫助,如果還想學(xué)習(xí)更多知識,歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道!