什么是以下PyTorch功能(目的DOC ):
torch.addmm(beta=1, mat, alpha=1, mat1, mat2, out=None)
更具体地说,是没有任何理由喜欢这个功能,而不是仅仅使用
beta * mat + alpha * (mat1 @ mat2)
什么是以下PyTorch功能(目的DOC ):
torch.addmm(beta=1, mat, alpha=1, mat1, mat2, out=None)
更具体地说,是没有任何理由喜欢这个功能,而不是仅仅使用
beta * mat + alpha * (mat1 @ mat2)
该addmm
功能是方程的优化版本beta*mat + alpha*(mat1 @ mat2)
我跑了一些测试,并定时它们的执行。
如果beta=1, alpha=1
,则这两个语句(执行addmm
和手册)是大致相同的( addmm
仅仅是一个快一点),而不管矩阵的大小。
如果beta
和alpha
不为1,则addmm
比手动执行对于较小的矩阵快两倍(总元件在10 5顺序)。 但是,如果矩阵是大的(在10 6阶),加速似乎可以忽略不计( 39ms
V / S 41ms
)