最近遇到这个函数,但查的中文博客里的解释貌似不是很到位,这里翻译一下stackoverflow上的回答并加上自己的理解。
在pytorch中,只有很少几个操作是不改变tensor的内容本身,而只是重新定义下标与元素的对应关系的。换句话说,这种操作不进行数据拷贝和数据的改变,变的是元数据。
这些操作是:
narrow(),view(),expand()和transpose()
举个栗子,在使用transpose()进行转置操作时,pytorch并不会创建新的、转置后的tensor,而是修改了tensor中的一些属性(也就是元数据),使得此时的offset和stride是与转置tensor相对应的。
转置的tensor和原tensor的内存是共享的!
为了证明这一点,我们来看下面的代码:
x = torch.randn(3, 2) y = x.transpose(x, 0, 1) x[0, 0] = 233 print(y[0, 0]) # print 233
可以看到,改变了y的元素的值的同时,x的元素的值也发生了变化。
也就是说,经过上述操作后得到的tensor,它内部数据的布局方式和从头开始创建一个这样的常规的tensor的布局方式是不一样的!于是…这就有contiguous()的用武之地了。
在上面的例子中,x是contiguous的,但y不是(因为内部数据不是通常的布局方式)。
注意不要被contiguous的字面意思“连续的”误解,tensor中数据还是在内存中一块区域里,只是布局的问题!
当调用contiguous()时,会强制拷贝一份tensor,让它的布局和从头创建的一毛一样。
一般来说这一点不用太担心,如果你没在需要调用contiguous()的地方调用contiguous(),运行时会提示你:
RuntimeError: input is not contiguous
只要看到这个错误提示,加上contiguous()就好啦~
补充:pytorch之expand,gather,squeeze,sum,contiguous,softmax,max,argmax
gather
torch.gather(input,dim,index,out=None)。对指定维进行索引。比如4*3的张量,对dim=1进行索引,那么index的取值范围就是0~2.
input是一个张量,index是索引张量。input和index的size要么全部维度都相同,要么指定的dim那一维度值不同。输出为和index大小相同的张量。
import torch a=torch.tensor([[.1,.2,.3], [1.1,1.2,1.3], [2.1,2.2,2.3], [3.1,3.2,3.3]]) b=torch.LongTensor([[1,2,1], [2,2,2], [2,2,2], [1,1,0]]) b=b.view(4,3) print(a.gather(1,b)) print(a.gather(0,b)) c=torch.LongTensor([1,2,0,1]) c=c.view(4,1) print(a.gather(1,c))
输出:
tensor([[ 0.2000, 0.3000, 0.2000], [ 1.3000, 1.3000, 1.3000], [ 2.3000, 2.3000, 2.3000], [ 3.2000, 3.2000, 3.1000]]) tensor([[ 1.1000, 2.2000, 1.3000], [ 2.1000, 2.2000, 2.3000], [ 2.1000, 2.2000, 2.3000], [ 1.1000, 1.2000, 0.3000]]) tensor([[ 0.2000], [ 1.3000], [ 2.1000], [ 3.2000]])
squeeze
将维度为1的压缩掉。如size为(3,1,1,2),压缩之后为(3,2)
import torch a=torch.randn(2,1,1,3) print(a) print(a.squeeze())
输出:
tensor([[[[-0.2320, 0.9513, 1.1613]]], [[[ 0.0901, 0.9613, -0.9344]]]]) tensor([[-0.2320, 0.9513, 1.1613], [ 0.0901, 0.9613, -0.9344]])
expand
扩展某个size为1的维度。如(2,2,1)扩展为(2,2,3)
import torch x=torch.randn(2,2,1) print(x) y=x.expand(2,2,3) print(y)
输出:
tensor([[[ 0.0608], [ 2.2106]], [[-1.9287], [ 0.8748]]]) tensor([[[ 0.0608, 0.0608, 0.0608], [ 2.2106, 2.2106, 2.2106]], [[-1.9287, -1.9287, -1.9287], [ 0.8748, 0.8748, 0.8748]]])
sum
size为(m,n,d)的张量,dim=1时,输出为size为(m,d)的张量
import torch a=torch.tensor([[[1,2,3],[4,8,12]],[[1,2,3],[4,8,12]]]) print(a.sum()) print(a.sum(dim=1))
输出:
tensor(60) tensor([[ 5, 10, 15], [ 5, 10, 15]])
contiguous
返回一个内存为连续的张量,如本身就是连续的,返回它自己。一般用在view()函数之前,因为view()要求调用张量是连续的。
可以通过is_contiguous查看张量内存是否连续。
import torch a=torch.tensor([[[1,2,3],[4,8,12]],[[1,2,3],[4,8,12]]]) print(a.is_contiguous) print(a.contiguous().view(4,3))
输出:
<built-in method is_contiguous of Tensor object at 0x7f4b5e35afa0> tensor([[ 1, 2, 3], [ 4, 8, 12], [ 1, 2, 3], [ 4, 8, 12]])
softmax
假设数组V有C个元素。对其进行softmax等价于将V的每个元素的指数除以所有元素的指数之和。这会使值落在区间(0,1)上,并且和为1。
import torch import torch.nn.functional as F a=torch.tensor([[1.,1],[2,1],[3,1],[1,2],[1,3]]) b=F.softmax(a,dim=1) print(b)
输出:
tensor([[ 0.5000, 0.5000], [ 0.7311, 0.2689], [ 0.8808, 0.1192], [ 0.2689, 0.7311], [ 0.1192, 0.8808]])
max
返回最大值,或指定维度的最大值以及index
import torch a=torch.tensor([[.1,.2,.3], [1.1,1.2,1.3], [2.1,2.2,2.3], [3.1,3.2,3.3]]) print(a.max(dim=1)) print(a.max())
输出:
(tensor([ 0.3000, 1.3000, 2.3000, 3.3000]), tensor([ 2, 2, 2, 2])) tensor(3.3000)
argmax
返回最大值的index
import torch a=torch.tensor([[.1,.2,.3], [1.1,1.2,1.3], [2.1,2.2,2.3], [3.1,3.2,3.3]]) print(a.argmax(dim=1)) print(a.argmax())
输出:
tensor([ 2, 2, 2, 2]) tensor(11)
以上为个人经验,希望能给大家一个参考,也希望大家多多支持。如有错误或未考虑完全的地方,望不吝赐教。
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
《魔兽世界》大逃杀!60人新游玩模式《强袭风暴》3月21日上线
暴雪近日发布了《魔兽世界》10.2.6 更新内容,新游玩模式《强袭风暴》即将于3月21 日在亚服上线,届时玩家将前往阿拉希高地展开一场 60 人大逃杀对战。
艾泽拉斯的冒险者已经征服了艾泽拉斯的大地及遥远的彼岸。他们在对抗世界上最致命的敌人时展现出过人的手腕,并且成功阻止终结宇宙等级的威胁。当他们在为即将于《魔兽世界》资料片《地心之战》中来袭的萨拉塔斯势力做战斗准备时,他们还需要在熟悉的阿拉希高地面对一个全新的敌人──那就是彼此。在《巨龙崛起》10.2.6 更新的《强袭风暴》中,玩家将会进入一个全新的海盗主题大逃杀式限时活动,其中包含极高的风险和史诗级的奖励。
《强袭风暴》不是普通的战场,作为一个独立于主游戏之外的活动,玩家可以用大逃杀的风格来体验《魔兽世界》,不分职业、不分装备(除了你在赛局中捡到的),光是技巧和战略的强弱之分就能决定出谁才是能坚持到最后的赢家。本次活动将会开放单人和双人模式,玩家在加入海盗主题的预赛大厅区域前,可以从强袭风暴角色画面新增好友。游玩游戏将可以累计名望轨迹,《巨龙崛起》和《魔兽世界:巫妖王之怒 经典版》的玩家都可以获得奖励。
更新日志
- 中国武警男声合唱团《辉煌之声1天路》[DTS-WAV分轨]
- 紫薇《旧曲新韵》[320K/MP3][175.29MB]
- 紫薇《旧曲新韵》[FLAC/分轨][550.18MB]
- 周深《反深代词》[先听版][320K/MP3][72.71MB]
- 李佳薇.2024-会发光的【黑籁音乐】【FLAC分轨】
- 后弦.2012-很有爱【天浩盛世】【WAV+CUE】
- 林俊吉.2012-将你惜命命【美华】【WAV+CUE】
- 晓雅《分享》DTS-WAV
- 黑鸭子2008-飞歌[首版][WAV+CUE]
- 黄乙玲1989-水泼落地难收回[日本天龙版][WAV+CUE]
- 周深《反深代词》[先听版][FLAC/分轨][310.97MB]
- 姜育恒1984《什么时候·串起又散落》台湾复刻版[WAV+CUE][1G]
- 那英《如今》引进版[WAV+CUE][1G]
- 蔡幸娟.1991-真的让我爱你吗【飞碟】【WAV+CUE】
- 群星.2024-好团圆电视剧原声带【TME】【FLAC分轨】