当前位置:   article > 正文

PyTorch中nn.ReLU函数说明

PyTorch中nn.ReLU函数说明
torch.nn.ReLU(inplace=False)

ReLU(x)=max(0,x)

输入:

  • inplace:是否改变输入数据,如果设置为True,则会直接修改输入数据;如果设置为False,则不对输入数据做修改。默认为False

注意:

  • 输入可以是任意尺寸的数
    1. import torch
    2. import torch.nn as nn
    3. from torch import autograd
    4. x = torch.randn(8)
    5. print(x)
    6. relu1 = nn.ReLU()
    7. a = relu1(x)
    8. print(a)
    9. 输出:
    10. tensor([ 0.4887, 0.1770, -1.7598, 0.4083, -0.6115, -0.6180, 1.0494, 0.0070])
    11. tensor([0.4887, 0.1770, 0.0000, 0.4083, 0.0000, 0.0000, 1.0494, 0.0070])
    据,输出尺寸与输入尺寸相同
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/不正经/article/detail/348719
推荐阅读
相关标签
  

闽ICP备14008679号