0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

模型调优和复现算法遇到的一些坑

新机器视觉 来源:CSDN 作者:新机器视觉 2022-05-18 15:03 次阅读

作为一名算法工程师,主要是想把自己模型调优和复现算法遇到的一些坑总结一下(里面的一行字可能是我当时花费了一周甚至更长时间得到的总结),希望能对读者有所帮助。

一、熟悉数据

模型是数据的浓缩版----Andrew NG的二八定律,即80%的数据+20%的=更好的AI

对于新上手的一任务来说,需要熟悉你的数据。拿检测任务来说,可以写个可视化代码查看标注是否合理,查看一下待检测物体的大小分布情况(例如anchor的预设),查看一下图片大小,查看类别分布情况(例如是否有极端的分布)等等。

二、算法选型

在接到一个新领域的新任务时,需要调研相关领域算法,对该领域的发展有个大概的了解,掌握一些关键算法(比如历年的SOTA)的思路。虽然调研需要花费一些时间,但是这样在算法选型上可以少做一些实验,性价比是很高的。站在他们的肩膀上就好了。

不太可取的思路:

在指标上太钻牛角尖。有些算法工程师遇到指标在自己数据集效果不太好的情况时,立马换别的算法,或者立马换个backbone,或者立马换个loss去做实验。(需要认真分析为什么效果不好,是自己训练有问题,还是当前数据不太适合该算法,是评测指标不合理,还是评测指标实现有问题。)

不进行相关调研,直接上SOTA算法。这样做会有一些不太理想的问题,比如SOTA可能没有针对自己场景的数据做优化,比如当前任务是小目标居多(通过分析数据得到),虽然SOTA的总的mAP很高,但是small mAP比之前算法还低,那就要慎用 。比如SOTA用的是很重的网络,但是任务是速度快,或者速度与效果兼顾,那也应该慎用。

三、基于已有实现来优化算法

对于某个任务在选择好合适的算法以后,如果有相应的效果比较好的开源实现,最好用开源项目进行算法的复现。

这样做的目的:

更方便深入的理解算法的具体细节,比如可能代码在文章没有提到的某些层上偷摸的加了一个shift操作,比如文章提到的一些trick代码根本没有实现,比如代码用了额外的数据训练但文章没有提到,比如文章描述的数据增强方式与代码的实现不一样等。(这些可能发生在开源复现者没有“一比一”复现论文的情况,也可能发生在论文作者自己没有实现的情况)

能快速掌握算法的基础性能,比如复现算法大概的运行速度(特别是文章没给出的时候)和达到的效果

不用自己做一些无用功。要知道重写和调试一份新的模型不仅费时费力,可能还因为文章没有写清楚一些细节,导致你几乎无法复现到相应的结果。

利用开源项目已复现的算法(这里复现不是完全能与代码作者或者文章作者结果一致,可能是数据增强,随机种子导致结果有偏差,但已获取到八九不离十的结果)来改进模型可以有下面几点思路:

代码是否实现了文章一些涨点的trick,如果没有可以尝试

文章一般会分析实验结果,后面会有作者自己的一些观点,他们可能会说明为什么有些情况文章的算法效果较差

有些文章会写他们将来可能的工作,这也是一个改进思路

需要可视化查看实验结果(特别是跑自己的数据集),结果可能与作者在公开数据集展示出的问题不一样,分析效果差的原因

四、从0复现算法

复现算法是一个比较大的工程,这里的大工程不只是指代码多或者工作量大,而是没有一个基础版,导致引入的不可控因素太多调试困难,比如数据接口是否有问题,模型是否搭建正确,训练方式是否存在问题。

在复现算法或者优化算法是比较头疼的是一切训练正常,loss曲线比你想象的还好看,训练了一年后(just kidding, maybe longer),测试一下发现效果奇差无比,都不好意思说是自己写的代码。一年就过去了。

这里有下面一些建议:

尽量测试每一个细节,从数据接口,模型,到loss输出,到最终的评测代码。保证每个部分都可控。

测试数据接口,从单进程,batch为1开始,方便打印数值进行对比。

不要随意的去随机,尽量保证问题可以复现比如先不要加入随机数据增强,模型的随机种子固定。

用少量的数据,这样可以快速的做实验,也可以让模型快速过拟合。模型能过拟合可以大概确定模型是可以学到点什么的。

尽量按照原文来复现,在复现前,先不要过多的添加自己独特的想法。比如训练参数,模型backbone,数据增强方式等等先按照文章来。不清楚的点可以尝试email作者或者寻找相关圈子讨论。

日志打印全,比如解loss为nan的情况,需要知道是forward的导致还是bp导致。

五、一些或许有用的训练建议

保证数据是可靠的

有预训练模型最好用上

通常学习率参数小于1e-5基本没啥用了,比如cosine或者step操作,最后的学习率到1e-5就好了。当然特殊任务不一样

bn在训练时记得打开更新(特别是tf的小伙伴,容易漏),不然可能出现的问题是训练时loss下降很快,测试感觉模型就没收敛

sgd是很棒的,但是实验用adam或许收敛速度更好

如果想要很好的压榨出一个算法的性能,请先保证当前模型能到达相应的性能再去压榨。而不是盲目的换模块,疯狂调参,那样可能只是浪费时间

不要太相信自己的调参技术,在没有一个较好的baseline情况下,调参不会有质的飞跃(除非是之前参数造成了某种bug)

数据小时,使用了预训练模型记得固定前几层的模型参数,还可以用小点的学习率

loss balance有时候很有用

重复训练可能可以提升点数,将一个模型训练好后,用训练好的模型做预训练模型载入,继续用同一套参数训练。有点像CyclicLR(https://pytorch.org/docs/stable/generated/torch.optim.lr_scheduler.CyclicLR.html#torch.optim.lr_scheduler.CyclicLR)

DL没有像机器学习有那么多公式支撑,很多都是make sense就做个实验来验证,所以尽量多阅读论文,看看别人的实验,这样就可以减少不必要的实验

这篇文章是为了分享自己的一些心得,希望读者能用得上,如果有严重错误还请告知,不想误导他人

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 算法
    +关注

    关注

    23

    文章

    4620

    浏览量

    93051
  • 模型
    +关注

    关注

    1

    文章

    3265

    浏览量

    48918
  • 机器学习
    +关注

    关注

    66

    文章

    8425

    浏览量

    132766

原文标题:一个算法工程师复现算法的踩坑总结

文章出处:【微信号:vision263com,微信公众号:新机器视觉】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    FOC电路学习路上的一些硬件

    记录下驱动直流无刷电机走过的。我是和是室友起在玩FOC,电路方面也是借鉴了他的。我俩共同的个心得就是,电路这个东西直接抄要么你就要原封不动的复刻下来,要么你就要搞懂电路中的每个
    的头像 发表于 12-07 10:14 284次阅读
    FOC电路学习路上的<b class='flag-5'>一些</b>硬件<b class='flag-5'>坑</b>

    MCF8316A指南

    电子发烧友网站提供《MCF8316A指南.pdf》资料免费下载
    发表于 11-20 17:21 0次下载
    MCF8316A<b class='flag-5'>调</b><b class='flag-5'>优</b>指南

    MCT8316A指南

    电子发烧友网站提供《MCT8316A指南.pdf》资料免费下载
    发表于 11-13 13:49 0次下载
    MCT8316A<b class='flag-5'>调</b><b class='flag-5'>优</b>指南

    MCT8315A指南

    电子发烧友网站提供《MCT8315A指南.pdf》资料免费下载
    发表于 11-12 14:14 0次下载
    MCT8315A<b class='flag-5'>调</b><b class='flag-5'>优</b>指南

    MMC DLL

    电子发烧友网站提供《MMC DLL.pdf》资料免费下载
    发表于 10-11 11:48 0次下载
    MMC DLL<b class='flag-5'>调</b><b class='flag-5'>优</b>

    TDA3xx ISS和调试基础设施

    电子发烧友网站提供《TDA3xx ISS和调试基础设施.pdf》资料免费下载
    发表于 10-11 10:16 0次下载
    TDA3xx ISS<b class='flag-5'>调</b><b class='flag-5'>优</b>和调试基础设施

    智能,使步进电机安静而高效地运行

    电子发烧友网站提供《智能,使步进电机安静而高效地运行.pdf》资料免费下载
    发表于 09-24 11:08 1次下载
    智能<b class='flag-5'>调</b><b class='flag-5'>优</b>,使步进电机安静而高效地运行

    MMC SW算法

    电子发烧友网站提供《MMC SW算法.pdf》资料免费下载
    发表于 09-20 11:14 0次下载
    MMC SW<b class='flag-5'>调</b><b class='flag-5'>优</b><b class='flag-5'>算法</b>

    TAS58xx系列通用指南

    电子发烧友网站提供《TAS58xx系列通用指南.pdf》资料免费下载
    发表于 09-14 10:49 0次下载
    TAS58xx系列通用<b class='flag-5'>调</b><b class='flag-5'>优</b>指南

    AM6xA ISP指南

    电子发烧友网站提供《AM6xA ISP指南.pdf》资料免费下载
    发表于 09-07 09:52 0次下载
    AM6xA ISP<b class='flag-5'>调</b><b class='flag-5'>优</b>指南

    OSPI控制器PHY算法

    电子发烧友网站提供《OSPI控制器PHY算法.pdf》资料免费下载
    发表于 08-30 11:12 0次下载
    OSPI控制器PHY<b class='flag-5'>调</b><b class='flag-5'>优</b><b class='flag-5'>算法</b>

    ai大模型算法有什么区别

    AI大模型算法是人工智能领域的两个重要概念,它们在很多方面有着密切的联系,但同时也存在一些明显的区别。 定义和概念 AI大模型通常是指具有大量参数和复杂结构的人工智能
    的头像 发表于 07-16 10:09 1937次阅读

    深度学习模型训练过程详解

    详细介绍深度学习模型训练的全过程,包括数据预处理、模型构建、损失函数定义、优化算法选择、训练过程以及模型的评估与
    的头像 发表于 07-01 16:13 1351次阅读

    深度解析JVM实践应用

    Tomcat自身的是针对conf/server.xml中的几个参数的设置。首先是对这几个参数的含义要有深刻而清楚的理解。
    的头像 发表于 04-01 10:24 489次阅读
    深度解析JVM<b class='flag-5'>调</b><b class='flag-5'>优</b>实践应用

    鸿蒙开发实战:【性能组件】

    性能组件包含系统和应用框架,旨在为开发者提供套性能
    的头像 发表于 03-13 15:12 466次阅读
    鸿蒙开发实战:【性能<b class='flag-5'>调</b><b class='flag-5'>优</b>组件】