1.4 使用飞桨重写房价预测模型

介绍使用飞桨完成波士顿房价预测模型构建的流程和操作方法,让读者体验一下飞桨的使用!

飞桨深度学习平台设计之“道”

当读者习惯使用飞桨框架后会发现程序呈现出“八股文”的形态,即不同的程序员、使用不同模型、解决不同任务的时候,他们编写的建模程序是极其相似的。虽然这些设计在某些“极客”的眼里缺乏精彩,但从实用性的角度,我们更期望建模者聚焦需要解决的任务,而不是将精力投入在框架的学习上。因此使用飞桨编写模型是有标准的套路设计的,只要通过一个示例程序掌握使用飞桨的方法,编写不同任务的多种建模程序将变得十分容易。

这点与Python的设计思想一致:对于某个特定功能,并不是实现方式越灵活、越多样越好,最好只有一种符合“道”的最佳实现。此处“道”指的是如何更加匹配人的思维习惯。当程序员第一次看到Python的多种应用方式时,感觉程序天然就应该如此实现。但相信我,不是所有的编程语言都具备这样合“道”的设计,很多编程语言的设计思路是人需要去理解机器的运作原理,而不能以人类习惯的方式设计程序。同时,灵活意味着复杂,会增加程序员之间的沟通难度,也不适合现代工业化生产软件的趋势。

飞桨设计的初衷不仅要易于学习,还期望使用者能够体会到它的美感和哲学,与人类最自然的认知和使用习惯契合。

使用飞桨构建波士顿房价预测模型

本书中的案例覆盖预测任务、推荐系统、计算机视觉和自然语言处理等主流应用场景,所有案例的代码结构完全一致,如 图1 所示。
 

1.4 使用飞桨重写房价预测模型

图1:使用飞桨框架构建神经网络过程

 

在之前的章节中,我们学习了使用Python和Numpy构建波士顿房价预测模型的方法,本节课我们将尝试使用飞桨重写房价预测模型,大家可以体会一下二者的异同。在数据处理之前,需要先加载飞桨框架的相关类库。

In[ ]

代码中参数含义如下:

  • paddle/fluid:飞桨的主库,目前大部分的实用函数均在paddle.fluid包内。
  • dygraph:动态图的类库。
  • FC:神经网络的全连接层函数,即包含所有输入权重相加和激活函数的基本神经元结构。在房价预测任务中,使用只有一层的神经网络(全连接层)来实现线性回归模型。
     

说明:

飞桨支持两种深度学习建模编写方式,更方便调试的动态图模式和性能更好并便于部署的静态图模式。

  • 静态图模式(声明式编程范式,类比C++):先编译后执行的方式。用户需预先定义完整的网络结构,再对网络结构进行编译优化后,才能执行获得计算结果。
  • 动态图模式(命令式编程范式,类比Python):解析式的执行方式。用户无需预先定义完整的网络结构,每写一行网络代码,即可同时获得计算结果。

为了学习模型和调试的方便,本教程均使用动态图模式编写模型。在后续的资深教程中,会详细介绍静态图以及将动态图模型转成静态图的方法。仅在部分场景下需要模型转换,并且是相对容易的。


数据处理

数据处理的代码不依赖框架实现,与使用Python构建房价预测任务的代码相同(详细解读请参考1-2章),这里不再赘述。

In[ ]

模型设计

模型定义的实质是定义线性回归的网络结构,飞桨建议通过创建Python类的方式完成模型网络的定义,即定义函数和函数。函数是框架指定实现前向计算逻辑的函数,程序在调用模型实例时会自动执行forward方法。在函数中使用的网络层需要在函数中声明。

实现过程分如下两步:

  1. 定义init函数:在类的初始化函数中声明每一层网络的实现函数。在房价预测模型中,只需要定义一层全连接层FC,模型结构和1-2 节模型保持一致。
  2. 定义forward函数:构建神经网络结构,实现前向计算过程,并返回预测结果,在本任务中返回的是房价预测结果。

说明:

变量用于调试模型时追踪多个模型的变量,在此忽略即可,飞桨1.7及之后版本不强制用户设置。


In[ ]

训练配置

训练配置过程包含四步,如 图2 所示:

1.4 使用飞桨重写房价预测模型

图2:训练配置流程示意图

 

  1. 以函数指定运行训练的机器资源,表明在作用域下的程序均执行在本机的CPU资源上。表示在作用域下的程序会以飞桨动态图的模式执行(实时执行)。
  2. 声明定义好的回归模型Regressor实例,并将模型的状态设置为训练。
  3. 使用load_data函数加载训练数据和测试数据。
  4. 设置优化算法和学习率,优化算法采用随机梯度下降SGD,学习率设置为0.01。

训练配置代码如下所示:

In[ ]


说明:

  1. 默认本案例运行在读者的笔记本上,因此模型训练的机器资源为CPU。
  2. 模型实例有两种状态:训练状态和预测状态。训练时要执行正向计算和反向传播梯度两个过程,而预测时只需要执行正向计算。为模型指定运行状态,有两点原因:

(1)部分高级的算子(例如Drop out和Batch Normalization,在计算机视觉的章节会详细介绍)在两个状态执行的逻辑不同。

(2)从性能和存储空间的考虑,预测状态时更节省内存,性能更好。

  1. 在上述代码中可以发现声明模型、定义优化器等操作都在创建的 fluid.dygraph.guard()上下文环境中进行,可以理解为创建了飞桨动态图的工作环境,在该环境下完成模型声明、数据转换及模型训练等操作。

在基于Python实现神经网络模型的案例中,我们为实现梯度下降编写了大量代码,而使用飞桨框架只需要定义SDG就可以实现优化器设置,大大简化了这个过程。

训练过程

训练过程采用二层循环嵌套方式:

  • 内层循环: 负责整个数据集的一次遍历,采用分批次方式(batch)。假设数据集样本数量为1000,一个批次有10个样本,则遍历一次数据集的批次数量是1000/10=100,即内层循环需要执行100次。

  • 外层循环: 定义遍历数据集的次数,通过参数EPOCH_NUM设置。


说明:

batch的取值会影响模型训练效果。batch过大,会增大内存消耗和计算时间,且效果并不会明显提升;batch过小,每个batch的样本数据将没有统计意义。由于房价预测模型的训练数据集较小,我们将batch为设置10。


每次内层循环都需要执行如下四个步骤,如 图3 所示,计算过程与使用Python编写模型完全一致。

1.4 使用飞桨重写房价预测模型

图3:内循环计算过程

 

  1. 数据准备:将一个批次的数据转变成np.array和内置格式。
  2. 前向计算:将一个批次的样本数据灌入网络中,计算输出结果。
  3. 计算损失函数:以前向计算结果和真实房价作为输入,通过损失函数计算出损失函数值(Loss),API可参考square_error_cost。飞桨所有的API接口都有完整的说明和使用案例,在后续的资深教程中我们会详细介绍API的查阅方法。
  4. 反向传播:执行梯度反向传播函数,即从后到前逐层计算每一层的梯度,并根据设置的优化算法更新参数。

In[ ]


  1. with dygraph.guard(fluid.CPUPlace()):
  2. EPOCH_NUM = 10 # 设置外层循环次数
  3. BATCH_SIZE = 10 # 设置batch大小
  4. # 定义外层循环
  5. for epoch_id in range(EPOCH_NUM):
  6. # 在每轮迭代开始之前,将训练数据的顺序随机的打乱
  7. np.random.shuffle(training_data)
  8. # 将训练数据进行拆分,每个batch包含10条数据
  9. mini_batches = [training_data[k:k+BATCH_SIZE] for k in range(0, len(training_data), BATCH_SIZE)]
  10. # 定义内层循环
  11. for iter_id, mini_batch in enumerate(mini_batches):
  12. x = np.array(mini_batch[:, :-1]).astype('float32') # 获得当前批次训练数据
  13. y = np.array(mini_batch[:, -1:]).astype('float32') # 获得当前批次训练标签(真实房价)
  14. # 将numpy数据转为飞桨动态图variable形式
  15. house_features = dygraph.to_variable(x)
  16. prices = dygraph.to_variable(y)
  17. # 前向计算
  18. predicts = model(house_features)
  19. # 计算损失
  20. loss = fluid.layers.square_error_cost(predicts, label=prices)
  21. avg_loss = fluid.layers.mean(loss)
  22. if iter_id%20==0:
  23. 来源:timeshark

    声明:本站部分文章及图片转载于互联网,内容版权归原作者所有,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!

上一篇 2020年3月22日
下一篇 2020年3月22日

相关推荐