非线性激活pytorch

发布于:2024-10-15 ⋅ 阅读:(89) ⋅ 点赞:(0)

**前置知识:

1、

self.sigmoid1=Sigmoid()
output=self.sigmoid1(input)

2、常见的非线性激活函数:

 

3、非线性激活的作用:

线性与非线性

  1. 线性函数:假设你用直线去描述波浪的形状。无论你怎么改变直线的斜率,结果都是一条直线,这样你就无法捕捉到波浪的起伏。这就像在神经网络中,如果只有线性激活函数,模型只能学习到线性关系,无法处理复杂的模式。

  2. 非线性激活函数:现在,想象你可以用曲线来描绘波浪。这条曲线能够随着波浪的起伏而变化,能够很好地展现出波浪的复杂形状。这就类似于引入了非线性激活函数(比如ReLU或Sigmoid)。通过这些激活函数,神经网络能够捕捉到复杂的特征和关系,比如图像中的边缘、纹理,或语音中的音调变化。

实际应用

举个实际例子,想象你在开发一个猫和狗的图像识别系统:

  • 没有非线性激活函数:你的模型只能识别简单的形状,比如直线和方形,它无法区分猫和狗,因为它无法理解它们的复杂特征。

  • 有非线性激活函数:引入非线性后,模型可以学习到猫的尖耳朵、圆眼睛和狗的扁鼻子等复杂特征。这使得模型能够更准确地识别猫和狗。

(即使用非线性激活,能在神经网络中引入非线性特征)

**代码:

input 导入并加载图像数据集——>nn 创建神经元——>output 计算并输出

(非线性激活是对矩阵里的数一个数一个数地进行转换;而池化里是用池化窗口来分块,一块一块地进行计算)

import torch
import torchvision
from torch import nn
from torch.nn import ReLU, Sigmoid
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter

test_set=torchvision.datasets.CIFAR10(root="./dataset",train=False,transform=torchvision.transforms.ToTensor(),download=True)
dataloader=DataLoader(test_set,batch_size=64)

class Xigua(nn.Module):
    def __init__(self):
        super().__init__()
        self.relu_1=ReLU()
        self.sigmoid1=Sigmoid()

    def forward(self,input):
        output=self.sigmoid1(input)
        return output

xigua1=Xigua()


writer=SummaryWriter("logs2")
step=1
for imgs,targets in dataloader:
    print(imgs.shape)
    writer.add_images("input1",imgs,step)
    imgs=xigua1(imgs)
    print(imgs.shape)
    writer.add_images("output1",imgs,step)
    step=step+1
    if step>=3:
        break
writer.close()

# input=torch.tensor([
#     [1,-0.5],
#     [-1,3]
# ])
# output=xigua1(input)
# print(output)


网站公告

今日签到

点亮在社区的每一天
去签到