深度学习模型的简单优化技巧

本文介绍了几个深度学习模型的简单优化技巧,包括迁移学习、dropout、学习率调整等,并展示了如何用 Keras 实现。

以下是我与同事和学生就如何优化深度模型进行的对话、消息和辩论的摘要。如果你发现了有影响力的技巧,请分享。

首先,为什么要改进模型?

卷积 神经网络 (CNN)这样的 深度学习 模型具有大量的 参数 ;实际上,我们可以调用这些超 参数 ,因为它们原本在模型中并没有被优化。你可以 网格搜索 这些超 参数 的最优值,但需要大量硬件计算和时间。那么,一个真正的数据科学家能满足于猜测这些基本 参数 吗?

改进模型的最佳方法之一是基于在你的领域进行过深入研究的专家的设计和体系结构,他们通常拥有强大的硬件可供使用。而且,他们经常慷慨地开源建模架构和原理。

深度学习 技术

以下是一些通过预训练模型来改善拟合时间和准确性的方法:

  1. 研究理想的预训练体系架构:了解迁移学习 的好处,或了解一些功能强大的 CNN 体系架构。考虑那些看起来不太适合但具有潜在共享特性的领域。

  2. 使用较小的学习率 :由于预训练的权重 通常优于随机初始化的权重 ,因此修改要更为精细!你在此处的选择取决于学习环境和预训练的表现,但请检查各个时期的误差,以了解距离收敛 还要多久。

  3. 使用 dropout:与回归模型的 Ridge 和 LASSO 正则化 一样,没有适用于所有模型的优化 alpha 或 dropout。这是一个超参数 ,取决于具体问题,必须进行测试。从更大的变化开始——用更大的网格搜索 跨越几个数量级,如 np.logspace() 所能提供的那样——然后像上面的学习率 一样下降。

  4. 限制权重 大小:可以限制某些层的权重 的最大范数 (绝对值),以泛化我们的模型。

  5. 不要动前几层:神经网络 的前几个隐藏层通常用于捕获通用和可解释的特征,如形状、曲线或跨域的相互作用。我们应该经常把这些放在一边,把重点放在进一步优化元潜在级别的特征上。这可能意味着添加隐藏层,这样我们就不需要匆忙处理了!

  6. 修改输出层:使用适合你的领域的新激活函数 和输出大小替换模型默认值。不过,不要把自己局限于最明显的解决方案。尽管 MNIST 看起来似乎需要 10 个输出类,但有些数字有共同的变量,允许 12-16 个类可能会更好地解决这些变量,并提高模型性能!与上面提到的提示一样,深度学习 模型应该随着我们接近输出而不断修改和定制。

Keras 中的技术

在 Keras 中修改 MNIST 的 dropout 和限制 权重 大小的方法如下:

# dropout in input and hidden layers
# weight constraint imposed on hidden layers
# ensures the max norm of the weights does not exceed 5
model = Sequential()
model.add(Dropout(0.2, input_shape=(784,))) # dropout on the inputs
# this helps mimic noise 
or missing data
model.add(Dense(128, input_dim=784, kernel_initializer=normal, activation=relu, kernel_constraint=maxnorm(5)))
model.add(Dropout(0.5))
model.add(Dense(128, kernel_initializer=normal, activation=tanh, kernel_constraint=maxnorm(5)))
model.add(Dropout(0.5))
model.add(Dense(1, kernel_initializer=normal, activation=sigmoid))

dropout 最佳实践

  • 使用 20-50 % 的 dropout,建议输入 20%。太低,影响可以忽略;太高,可能欠拟合。

  • 在输入层和隐藏层上使用 dropout。这已被证明可以提高深度学习 的性能。

  • 使用伴有衰减的较大的学习速率,以及较大的动量

  • 限制权重 !较大的学习速率会导致梯度爆炸。通过对网络权值施加约束(如大小为 5 的最大范数 正则化 )可以改善结果。

  • 使用更大的网络。在较大的网络上使用 dropout 可能会获得更好的性能,从而使模型有更多的机会学习独立的表征。

下面是 Keras 中的最终层修改示例,其中包含 14 个 MNIST 类:

from keras.layers.core import Activation, Dense
model.layers.pop() # defaults to last
model.outputs = [model.layers[-1].output]
model.layers[-1].outbound_nodes = []
model.add(Dense(14, activation=softmax)) 

以及如何冻结前五层 权重 的示例:

for layer in model.layers[:5]:
    layer.trainable = False

或者,我们可以将该层的学习速率设为零,或者使用每个 参数 自适应学习 算法,如 Adadelta 或 Adam。这有点复杂,在其他平台(如 Caffe)中实现得更好。

预训练网络库

Keras

  • Kaggle 列表:https://www.kaggle.com/gaborfodor/keras-pretrained-models

  • Keras 应用:https://keras.io/applications/

  • OpenCV 示例:https://www.learnopencv.com/keras-tutorial-fine-tuning-using-pre-trained-models/

Tensor Flow

  • VGG16:https://www.learnopencv.com/keras-tutorial-fine-tuning-using-pre-trained-models/

  • Inceptiom V3:https://github.com/tensorflow/models/blob/master/inception/README.md#how-to-fine-tune-a-pre-trained-model-on-a-new-task

  • ResNet:https://github.com/tensorflow/models/blob/master/inception/README.md#how-to-fine-tune-a-pre-trained-model-on-a-new-task

Torch

  • LoadCaffe:https://github.com/szagoruyko/loadcaffe

Caffe

  • Model Zoo:https://github.com/BVLC/caffe/wiki/Model-Zoo

在 Jupyter 中查看你的 Tensor Board 图

模型的可视化通常很重要。如果你用 Keras 编写模型,它的抽象很好,但不允许你深入到模型的各个部分进行更细致的分析。幸运的是,下面的代码可以让我们直接使用 Python 可视化模型

# From: http://nbviewer.jupyter.org/github/tensorflow/tensorflow/blob/master/tensorflow/examples/tutorials/deepdream/deepdream.ipynb
# Helper functions for TF Graph visualization
from IPython.display import clear_output, Image, display, HTML
def strip_consts(graph_def, max_const_size=32):
    """Strip large constant values from graph_def."""
    strip_def = tf.GraphDef()
    for n0 in graph_def.node:
        n = strip_def.node.add() 
        n.MergeFrom(n0)
        if n.op == Const:
            tensor = n.attr[value].tensor
            size = len(tensor.tensor_content)
            if size > max_const_size:
                tensor.tensor_content = bytes("<stripped %d bytes>"%size, utf-8)
    return strip_def

def rename_nodes(graph_def, rename_func):
    res_def = tf.GraphDef()
    for n0 in graph_def.node:
        n = res_def.node.add() 
        n.MergeFrom(n0)
        n.name = rename_func(n.name)
        for i, s in enumerate(n.input):
            n.input[i] = rename_func(s) if s[0]!=^ else ^+rename_func(s[1:])
    return res_def

def show_graph(graph_def, max_const_size=32):
    """Visualize Tensor
Flow graph."""
    if hasattr(graph_def, as_graph_def):
        graph_def = graph_def.as_graph_def()
    strip_def = strip_consts(graph_def, max_const_size=max_const_size)
    code = """
        <script>
          function load() {{
            document.getElementById("{id}").pbtxt = {data};
          }}
        </script>
        <link rel="import" href="https://tensorboard.appspot.com/tf-graph-basic.build.html" onload=load()>
        <div style="height:600px">
          <tf-graph-basic id="{id}"></tf-graph-basic>
        </div>
    """.format(data=repr(str(strip_def)), id=graph+str(np.random.rand()))

    iframe = """
        <iframe seamless style="width:800px;height:620px;border:0" srcdoc="{}"></iframe>
    """.format(code.replace(", &quot;))
    display(HTML(iframe))
# Visualizing the network graph. Be sure expand the "mixed" nodes to see their 
# internal structure. We are going to visualize "Conv2D" nodes.
graph_def = tf.get_default_graph().as_graph_def()
tmp_def = rename_nodes(graph_def, lambda s:"/".join(s.split(_,1)))
show_graph(tmp_def)

使用 Keras 可视化你的模型

这一步将绘制模型的图并将其保存为 png 文件:

from keras.utils.visualize_util import plot
plot(model, to_file=model.png)

plot 采用两个可选 参数

  • show_shapes(默认为 False)控制输出形状是否显示在图中。

  • show_layer_names(默认为 True)控制层命名是否显示在图中。

也可以直接获得 pydot.Graph 对象并自己对其进行渲染,如在 iPython notebook 中显示它:

from IPython.display import SVG
from keras.utils.visualize_util import model_to_dot
SVG(model_to_dot(model).create(prog=dot, format=svg))

原文链接:https://towardsdatascience.com/deep-learning-tips-and-tricks-1ef708ec5f53

工程 深度学习 模型 优化 Keras TensorFlow
4