文章目录
- 1.官方讲解
- 2.例子
-
-
- 2.1.repeat dims的维度与 tensor 维度相同
- 2.2.repeat dims的维度大于 tensor 维度
-
1.官方讲解
Tensor.repeat(*sizes) → [Tensor]
将 tensor
沿着指定维度复制。不同于 expand()
,该函数复制了 tensor
的数据,而不是只返回 tensor
的一个视图。关于 expand()
,详情可见 PyTorch expand() 函数_长命百岁?的博客-CSDN博客
参数:
sizes (torch.Size or int...)
– 沿着每一维复制的次数
注意:
repeat dims
的维度不能小于 tensor
的维度(可以大于)。
2.例子
2.1.repeat dims的维度与 tensor 维度相同
a = torch.rand(2, 3)
b = a.repeat(2, 2)
print(a)
print(b)
print(b.shape)
>>tensor([[0.0757, 0.3003, 0.9648],[0.1594, 0.8253, 0.1031]])
>>tensor([[0.0757, 0.3003, 0.9648, 0.0757, 0.3003, 0.9648],[0.1594, 0.8253, 0.1031, 0.1594, 0.8253, 0.1031],[0.0757, 0.3003, 0.9648, 0.0757, 0.3003, 0.9648],[0.1594, 0.8253, 0.1031, 0.1594, 0.8253, 0.1031]])
>>torch.Size([4, 6])
可见。b
的维度变成了 Size([4, 6])
,两个维度的大小都变成原来的两倍
print(a.storage().data_ptr())
print(b.storage().data_ptr())
>>94149111617984
>>94149109116160
可见 a
和 b
并不共用一个存储区,也就说明了 repeat
函数是进行数据的复制,而不是返回一个 view
2.2.repeat dims的维度大于 tensor 维度
a = torch.rand(2, 3)
b = a.repeat(2, 2, 2)
print(a)
print(b)
print(b.shape)
>>tensor([[0.8346, 0.2550, 0.8920],[0.1972, 0.1876, 0.6154]])
>>tensor([[[0.8346, 0.2550, 0.8920, 0.8346, 0.2550, 0.8920],[0.1972, 0.1876, 0.6154, 0.1972, 0.1876, 0.6154],[0.8346, 0.2550, 0.8920, 0.8346, 0.2550, 0.8920],[0.1972, 0.1876, 0.6154, 0.1972, 0.1876, 0.6154]],[[0.8346, 0.2550, 0.8920, 0.8346, 0.2550, 0.8920],[0.1972, 0.1876, 0.6154, 0.1972, 0.1876, 0.6154],[0.8346, 0.2550, 0.8920, 0.8346, 0.2550, 0.8920],[0.1972, 0.1876, 0.6154, 0.1972, 0.1876, 0.6154]]])
>>torch.Size([2, 4, 6])
可见,repeat
默认后面的维度是用来复制原 tensor
的 ,如果参数更多的话,会在前面增加维度。(因为不能在后面增加维度,后面都没有数据,复制谁呢?)在前面增加维度,就可以复制该维度后面的数据。