Reference:
yolo系列核心设计总结与思考
时间原因没有认真读论文和看代码,看了一下下Up主-霹雳吧啦Wz的讲述,记录一下自己认为的yolo多次迭代版本的核心设计,以达到临阵磨枪,不快也光的目的。
论文:
- 【Yolov1】You Only Look Once: Unified, Real-Time Object Detection (2016 CVPR)
- 【Yolov2】YOLO9000: Better, Faster, Stronger (2017 CVPR)
- 【Yolov3】YOLOv3: An Incremental Improvement
- 【Yolov4】Optimal Speed and Accuracy of Object Detection
- 【Yolov5】Github
- 【YolovX】YOLOX: Exceeding YOLO Series in 2021
总结下来我认为该系列的核心设计有几个方面:
- 数据增强方式
- 多尺度特征提取网络结构的设计、多尺度检测头
- 多尺度anchor(部分版本)
- 定位损失函数的设计
Study of optical flow
windows下编译opencv4的cuda版本,结合clion的食用方法
之前在学习cuda和使用opencv来加速图像处理,同时由于用惯了jetbrain系列,所以不想用vs来写代码,于是在配环境的时候看了很多网上的教程踩了很多坑,大概弄了3天才弄好,不过最近又手贱重装了cuda,所以之前编译的包不能用了,重新配置的时候感觉又忘了很多东西,于是决定写一篇博客来记录下之前操作,可能不是很全,重装电脑的时候再补充。
leetcode的奇怪操作
如何优雅地撰写中文(毕业)论文——word使用技巧
本人在写毕设论文的时候踩了很多坑,让我重新学习了了如何高效使用word进行编辑。当然下面的顺序并不是依照我踩坑的顺序续写的,而是我写完论文之后进行了总结:如果重头开始写论文应该怎么做才是高效且容易管理的,仅记录一些能够免去搬砖的使用技巧,个人感觉套模板是没用滴,学之以渔才是正确路线。注:用到的word是window10的版本。
【论文笔记】 Towards Evaluating the Robustness of Neural Networks
今天读了一下 Towards Evaluating the Robustness of Neural Networks,这是关于对抗样本(Adversarial Example)的paper,主要贡献是提出了Carlini & Wagner Attack神经网络有目标攻击算法,打破了最近提出的神经网络防御性蒸馏(Defensive Distillation),证明防御性蒸馏不会显著提高神经网络的鲁棒性,论文的信息量还是比较大的。
可能需要阅读的论文以获取前置知识:
关于蒸馏网络:
[1] Do Deep Nets Really Need to be Deep?
[2] Distilling the Knowledge in a Neural Network
[3] Distillation as a Defense to Adversarial Perturbations against Deep Neural Networks
关于对抗样本:
[4] Intriguing properties of neural networks(L-BFGS Attack)
[5] Exploring the Space of Adversarial Images(FGSM)
[6] Towards Deep Learning Models Resistant to Adversarial Attacks(PGD, I-FGSM)
[7] The Limitations of Deep Learning in Adversarial Settings (JSMA)
[8] DeepFool: a simple and accurate method to fool deep neural networks(DeepFool)
关于论文源码:
Ensemble Learning
Adaboost、GBDT、xgboost的个人理解
Recognize Deeplearning.ai
Re-recognizing Machine Learning
这篇文章是我在网易云上学习吴恩达机器学习做的一些总结,虽然之前有学习过,但是感觉还是没有很好地吸收总结。另外有的不知道怎么组织语言的就参考了黄广海博士的翻译和笔记。