pytorch变量间的内存共享

我们在使用pytorch时,经常会用一个变量对另外一个变量赋值,但是某些操作得到的结果只是原变量的引用,内存是共享的,修改一个变量,其他变量的值也会受影响。有些操作是拷贝的操作。
使用 b=a[:,:5,5] b=a[0] b=a[…,0] 等操作得到的a是b的一个引用,内存是共享的,当b的值被某些操作修改后,a的值也会改变,
c=b.unsqueeze(0).expand(10,4) , Tensor.expand_as()操作得到的c与b的内存是共享的,expand增加的维度占用是同一块内存,当c的值被修改后,b的值也会被改变,a的值也会改变。

pytorch变量间的内存共享
c=b.unsqueeze(0).repeat(10,1),repeat操作得到的c是b的拷贝,修改c的值后b的值不会被影响。
如下图所示:
pytorch变量间的内存共享
使用mask选择出来的值是原矩阵的拷贝,比如:data=abc[abc>10] 修改data的值不会影响abc的值。
pytorch变量间的内存共享