设为首页 - 加入收藏 ASP站长网(Aspzz.Cn)- 科技、建站、经验、云计算、5G、大数据,站长网!
热搜: 手机 数据 公司
当前位置: 首页 > 综合聚焦 > 编程要点 > 正文

python如何用pytorch实现线性回归?

发布时间:2022-02-17 11:14 所属栏目:13 来源:互联网
导读:pytorch是一个python优先的深度学习框架,更够在强大的GPU加速基础上实现张量和动态神经网络。这篇文章主要带大家了解使用pytorch实现线性回归的步骤,感兴趣的朋友可以参考学习。 线性回归都是包括以下几个步骤:定义模型、选择损失函数、选择优化函数、 训
       pytorch是一个python优先的深度学习框架,更够在强大的GPU加速基础上实现张量和动态神经网络。这篇文章主要带大家了解使用pytorch实现线性回归的步骤,感兴趣的朋友可以参考学习。
 
       线性回归都是包括以下几个步骤:定义模型、选择损失函数、选择优化函数、 训练数据、测试
 
import torch
import matplotlib.pyplot as plt
# 构建数据集
x_data= torch.Tensor([[1.0],[2.0],[3.0],[4.0],[5.0],[6.0]])
y_data= torch.Tensor([[2.0],[4.0],[6.0],[8.0],[10.0],[12.0]])
#定义模型
class LinearModel(torch.nn.Module):
    def __init__(self):
        super(LinearModel, self).__init__()
        self.linear= torch.nn.Linear(1,1) #表示输入输出都只有一层,相当于前向传播中的函数模型,因为我们一般都不知道函数是什么形式的
 
    def forward(self, x):
        y_pred= self.linear(x)
        return y_pred
model= LinearModel()
# 使用均方误差作为损失函数
criterion= torch.nn.MSELoss(size_average= False)
#使用梯度下降作为优化SGD
# 从下面几种优化器的生成结果图像可以看出,SGD和ASGD效果最好,因为他们的图像收敛速度最快
optimizer= torch.optim.SGD(model.parameters(),lr=0.01)
# ASGD
# optimizer= torch.optim.ASGD(model.parameters(),lr=0.01)
# optimizer= torch.optim.Adagrad(model.parameters(), lr= 0.01)
# optimizer= torch.optim.RMSprop(model.parameters(), lr= 0.01)
# optimizer= torch.optim.Adamax(model.parameters(),lr= 0.01)
# 训练
epoch_list=[]
loss_list=[]
for epoch in range(100):
    y_pred= model(x_data)
    loss= criterion(y_pred, y_data)
    epoch_list.append(epoch)
    loss_list.append(loss.item())
    print(epoch, loss.item())
 
    optimizer.zero_grad() #梯度归零
    loss.backward()  #反向传播
    optimizer.step() #更新参数
 
print("w= ", model.linear.weight.item())
print("b= ",model.linear.bias.item())
 
x_test= torch.Tensor([[7.0]])
y_test= model(x_test)
print("y_pred= ",y_test.data)
 
plt.plot(epoch_list, loss_list)
plt.xlabel("epoch")
plt.ylabel("loss_val")
plt.show()
       使用SGD优化器图像:                                                      
  
       使用ASGD优化器图像:
 
       使用Adagrad优化器图像:                                                 
 
       使用Adamax优化器图像:
 
       以上就是关于pytorch实现线性回归的步骤以及代码,上述代码仅供大家参考学习,希望文本对大家熟悉pytorch的使用有帮助,更多pytorch相关的内容可以关注其他文章。

(编辑:ASP站长网)

    网友评论
    推荐文章
      热点阅读