铁雪资源网 Design By www.gsvan.com
任务
通过输入的sin曲线与预测出对应的cos曲线
#初始加载包 和定义参数 import torch from torch import nn import numpy as np import matplotlib.pyplot as plt torch.manual_seed(1) #为了可复现 #超参数设定 TIME_SETP=10 INPUT_SIZE=1 LR=0.02 DOWNLoad_MNIST=True
定义RNN网络结构
from torch.autograd import Variable class RNN(nn.Module): def __init__(self): #在这个函数中,两步走,先init,再逐步定义层结构 super(RNN,self).__init__() self.rnn=nn.RNN( #定义32隐层的rnn结构 input_size=1, hidden_size=32, #隐层有32个记忆体 num_layers=1, #隐层层数是1 batch_first=True ) self.out=nn.Linear(32,1) #32个记忆体对应一个输出 def forward(self,x,h_state): #前向过程,获取 rnn网络输出r_put(注意这里r_out并不是最后输出,最后要经过全连接层) 和 记忆体情况h_state r_out,h_state=self.rnn(x,h_state) outs=[]#获取所有时间点下得到的预测值 for time_step in range(r_out.size(1)): #将记忆rnn层的输出传到全连接层来得到最终输出。 这样每个输入对应一个输出,所以会有长度为10的输出 outs.append(self.out(r_out[:,time_step,:])) return torch.stack(outs,dim=1),h_state #将10个数 通过stack方式压缩在一起 rnn=RNN() print('RNN的网络体系结构为:',rnn)
创建数据集及网络训练
以sin曲线为特征,以cos曲线为标签进行网络的训练
#定义优化器和 损失函数 optimizer=torch.optim.Adam(rnn.parameters(),lr=LR) loss_fun=nn.MSELoss() h_state=None #记录的隐藏层状态,记住这就是记忆体,初始时候为空,之后每次后面的都会使用到前面的记忆,自动生成全0的 #这样加入记忆信息后,每次都会在之前的记忆矩阵基础上再进行新的训练,初始是全0的形式。 #启动训练,这里假定训练的批次为100次 plt.ion() #可以设定持续不断的绘图,但是在这里看还是间断的,这是jupyter的问题 for step in range(100): #我们以一个π为一个时间步 定义数据, start,end=step*np.pi,(step+1)*np.pi steps=np.linspace(start,end,10,dtype=np.float32) #注意这里的10并不是间隔为10,而是将数按范围分成10等分了 x_np=np.sin(steps) y_np=np.cos(steps) #将numpy类型转成torch类型 *****当需要 求梯度时,一个 op 的两个输入都必须是要 Variable,输入的一定要variable包下 x=Variable(torch.from_numpy(x_np[np.newaxis,:,np.newaxis]))#增加两个维度,是三维的数据。 y=Variable(torch.from_numpy(y_np[np.newaxis,:,np.newaxis])) #将每个时间步上的10个值 输入到rnn获得结果 这里rnn会自动执行forward前向过程. 这里输入时10个,输出也是10个,传递的是一个长度为32的记忆体 predition,h_state=rnn(x,h_state) #更新新的中间状态 h_state=Variable(h_state.data) #擦,这点一定要从新包装 loss=loss_fun(predition,y) #print('loss:',loss) optimizer.zero_grad() loss.backward() optimizer.step() # plotting 画图,这里先平展了 flatten,这样就是得到一个数组,更加直接 plt.plot(steps, y_np.flatten(), 'r-') plt.plot(steps, predition.data.numpy().flatten(), 'b-') #plt.draw(); plt.pause(0.05) plt.ioff() #关闭交互模式 plt.show()
以上这篇pytorch-RNN进行回归曲线预测方式就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
标签:
pytorch,RNN,回归曲线
铁雪资源网 Design By www.gsvan.com
广告合作:本站广告合作请联系QQ:858582 申请时备注:广告合作(否则不回)
免责声明:本站文章均来自网站采集或用户投稿,网站不提供任何软件下载或自行开发的软件! 如有用户或公司发现本站内容信息存在侵权行为,请邮件告知! 858582#qq.com
免责声明:本站文章均来自网站采集或用户投稿,网站不提供任何软件下载或自行开发的软件! 如有用户或公司发现本站内容信息存在侵权行为,请邮件告知! 858582#qq.com
铁雪资源网 Design By www.gsvan.com
暂无pytorch-RNN进行回归曲线预测方式的评论...
《魔兽世界》大逃杀!60人新游玩模式《强袭风暴》3月21日上线
暴雪近日发布了《魔兽世界》10.2.6 更新内容,新游玩模式《强袭风暴》即将于3月21 日在亚服上线,届时玩家将前往阿拉希高地展开一场 60 人大逃杀对战。
艾泽拉斯的冒险者已经征服了艾泽拉斯的大地及遥远的彼岸。他们在对抗世界上最致命的敌人时展现出过人的手腕,并且成功阻止终结宇宙等级的威胁。当他们在为即将于《魔兽世界》资料片《地心之战》中来袭的萨拉塔斯势力做战斗准备时,他们还需要在熟悉的阿拉希高地面对一个全新的敌人──那就是彼此。在《巨龙崛起》10.2.6 更新的《强袭风暴》中,玩家将会进入一个全新的海盗主题大逃杀式限时活动,其中包含极高的风险和史诗级的奖励。
《强袭风暴》不是普通的战场,作为一个独立于主游戏之外的活动,玩家可以用大逃杀的风格来体验《魔兽世界》,不分职业、不分装备(除了你在赛局中捡到的),光是技巧和战略的强弱之分就能决定出谁才是能坚持到最后的赢家。本次活动将会开放单人和双人模式,玩家在加入海盗主题的预赛大厅区域前,可以从强袭风暴角色画面新增好友。游玩游戏将可以累计名望轨迹,《巨龙崛起》和《魔兽世界:巫妖王之怒 经典版》的玩家都可以获得奖励。