深度学习解决方案的数据处理技巧

释放双眼,带上耳机,听听看~!
本文将讨论调试深度学习解决方案的数据处理技巧,包括图像预处理、数据增强和探索性数据分析等方面。同时提供了多个Kaggle笔记本供参考。

持续创作,加速成长!这是我参与「掘金日新计划 · 10 月更文挑战」的第11天,www.kaggle.com/puneet6060/…

  • Recursion Cellular Image Classificationwww.kaggle.com/c/recursion…
  • SIIM-ISIC Melanoma Classificationwww.kaggle.com/c/siim-isic…
  • APTOS 2019 Blindness Detectionwww.kaggle.com/c/aptos2019…
  • Diabetic Retinopathy Detectionwww.kaggle.com/c/diabetic-…
  • ML Project — Image Classificationwww.kaggle.com/c/image-cla…
  • Cdiscount’s Image Classification Challengewww.kaggle.com/c/cdiscount…
  • Plant seedlings classificationswww.kaggle.com/c/plant-see…
  • Aesthetic Visual Analysiswww.kaggle.com/c/aesthetic…
  • 我们会讨论调试深度学习解决方案的三个主要方面:

    • 数据
    • 模型
    • 损失函数

    还有很多例子项目(和参考资料)供你参考。

    数据

    图像预处理 + EDA

    深度学习解决方案的数据处理技巧

    每一个机器学习/深度学习解决方案都从原始数据开始。在数据处理管道中有两个基本步骤。

    第一步是探索性数据分析 (EDA)。它帮助我们分析整个数据集并总结它的主要特征,比如类分布、大小分布等等。通常使用可视化方法来显示这种分析的结果。

    第二步是图像预处理,目的是对原始图像提高图像数据(也称为图像特征)的质量,通过抑制不必要的扭曲,缩放,增强重要的特征,使数据更适合模型并提高性能。

    你可以钻研这些Kaggle笔记本,看看一些图像预处理技术:

    数据增强

    深度学习解决方案的数据处理技巧

    数据增强 可以通过从现有的训练样本中生成更多的训练数据来扩展我们的数据集。通过大量的随机转换生成新的样本,这些转换不仅可以生成可信的图像,而且还反映了真实的场景 —— 稍后将对此进行详细介绍。

    这种技术得到了广泛的应用,不仅仅是在训练模型的数据样本太少的情况下。在这种情况下,模型开始记忆训练集,但无法泛化(在从未见过的数据上表现很差)。

    通常,当一个模型在训练数据上表现很好,但在验证数据上表现很差时,我们称之为过拟合。为了解决这个问题,我们通常会尝试获取新数据,如果没有可用的新数据,则可以使用数据增强。

    :一般的经验法则是始终使用数据增强技术,因为它有助于使我们的模型见识更多的变化并更好地泛化。即使我们有一个很大的数据集,也要使用数据增强,但这是以较慢的训练速度为代价的,因为增强是在线完成的(即在训练期间)。

    此外,对于每个任务或数据集,我们必须使用反映可能的现实场景的增强技术(例如,如果我们有一个猫/狗探测器,我们可以使用水平翻转、剪裁、亮度和对比度,因为这些增强匹配不同的照片拍摄方式。

    这里是一些Kaggle比赛notebooks,你可以查看流行的数据增强技术:

    模型

    深度学习解决方案的数据处理技巧

    开发一个基线

    在这里,我们使用一个非常简单的架构创建一个基本的模型,没有任何正则化或dropout层,看看我们是否能超过50%的准确率基线。尽管我们不可能总能达到这个目标,但如果我们在尝试了多种合理的架构后不能超过基线,那么输入数据可能不包含模型进行预测所需的信息。

    用Jeremy Howard的名言:

    “你应该能够在15分钟内使用50%或更少的数据集快速测试你是否正在朝着一个有希望的方向前进,如果没有,你必须重新考虑一切。”

    开发一个足够大可以过拟合的模型

    一旦我们的基线模型有足够的能力超过基线分数,我们就可以增加基线模型的能力,直到它在数据集上过拟合为止,然后我们就开始应用正则化。我们可以通过以下方式增加模块容量:

    • 添加更多层
    • 使用更好的结构
    • 更完善的训练流程

    结构

    根据文献,以下架构的改进提高了模型的容量,但几乎没有改变计算复杂度。

    • Residual Networks
    • Wide Residual Networks
    • Inception
    • EfficientNet
    • Swish activation
    • Residual Attention Network

    大多数时候,模型容量和精度是正相关的 —— 随着容量的增加,精度也会增加,反之亦然。

    训练过程

    下面是一些你可以用来调整你的模型的训练过程,通过实例项目来看看它们是如何工作的:

    • Mixed-Precision Training
    • Large Batch-Size Training
    • Cross-Validation Set
    • Weight Initialization
    • Self-Supervised Training (Knowledge Distillation)
    • Learning Rate Scheduler
    • Learning Rate Warmup
    • Early Stopping
    • Differential Learning Rates
    • Ensemble
    • Transfer Learning
    • Fine-Tuning

    超参数调试

    深度学习解决方案的数据处理技巧

    与参数不同,hyperparameters是由你在配置模型时指定的(即学习率、epoch的数量、hidden units的数量、batch size大小等)。

    你可以通过使用hyperparameter调优库,比如Scikit learn Grid Search,Keras Tuner来自动化这个过程,而不是去手动配置。这些库会在你指定的范围内尝试所有的hyperparameter组合,返回表现最好的模型。

    需要调优的超参数越多,过程就越慢,因此最好选择模型超参数的最小子集进行调优。

    并不是所有的模型超参数都同样重要。一些超参数会对机器学习算法的行为产生巨大的影响,进而影响其性能。你应该小心地选择那些对模型性能影响最大的参数,并对它们进行调优以获得最佳性能。

    正则化

    这种方法迫使模型学习有意义和具有泛化能力的数据表示,通过对记忆/过拟合欠拟合进行惩罚来实现,使模型对于它没见过的数据更鲁棒。

    解决上述问题的一个简单方法是获得更多的训练数据,因为一个模型训练的数据越多,自然就会泛化得越好。

    这里有一些技巧你可以试着减轻过拟合和欠拟合,项目如下:

    损失函数

    深度学习解决方案的数据处理技巧

    损失函数也被称为成本函数或目标函数,用于查找目标输出的模型之间的差异,并帮助模型最小化它们之间的距离。

    这里是一些最流行的损失函数,与项目实例,你会发现一些技巧,以提高你的模型的能力:

    • Label smoothing
    • Focal loss
    • SparseMax loss and Weighted cross-entropy
    • BCE loss, BCE with logits loss and Categorical cross-entropy loss
    • Additive Angular Margin Loss for Deep Face Recognition

    评估 + 错误分析

    深度学习解决方案的数据处理技巧

    在这里,我们做消融研究,并分析我们的实验结果。我们确定了我们的模型的弱点和长处,并确定了未来需要改进的地方。在这个阶段,你可以使用以下技术,并在链接的示例中查看它们是如何实现的:

    有许多实验跟踪和管理工具,采取最小设置为你自动保存所有数据,这使消融研究更容易。

    最后

    有许多方法来调整你的模型,并且新的想法总是会出现。深度学习是一个快速发展的领域,没有什么灵丹妙药。我们必须做很多实验,足够的试验和错误会带来突破。

    英文原文:neptune.ai/blog/image-…

    本网站的内容主要来自互联网上的各种资源,仅供参考和信息分享之用,不代表本网站拥有相关版权或知识产权。如您认为内容侵犯您的权益,请联系我们,我们将尽快采取行动,包括删除或更正。
    AI教程

    ICML 2023 论文接收结果公布:录用率27.9%

    2023-12-1 17:14:14

    AI教程

    Softmax Regression and Cross-entropy in Machine Learning

    2023-12-1 17:25:14

    个人中心
    购物车
    优惠劵
    今日签到
    有新私信 私信列表
    搜索