时间原因没有认真读论文和看代码,看了一下下Up主-霹雳吧啦Wz的讲述,记录一下自己认为的yolo多次迭代版本的核心设计,以达到临阵磨枪,不快也光的目的。

论文:

  1. 【Yolov1】You Only Look Once: Unified, Real-Time Object Detection (2016 CVPR)
  2. 【Yolov2】YOLO9000: Better, Faster, Stronger (2017 CVPR)
  3. 【Yolov3】YOLOv3: An Incremental Improvement
  4. 【Yolov4】Optimal Speed and Accuracy of Object Detection
  5. 【Yolov5】Github
  6. 【YolovX】YOLOX: Exceeding YOLO Series in 2021

总结下来我认为该系列的核心设计有几个方面:

  1. 数据增强方式
  2. 多尺度特征提取网络结构的设计、多尺度检测头
  3. 多尺度anchor(部分版本)
  4. 定位损失函数的设计
阅读全文 »

之前在学习cuda和使用opencv来加速图像处理,同时由于用惯了jetbrain系列,所以不想用vs来写代码,于是在配环境的时候看了很多网上的教程踩了很多坑,大概弄了3天才弄好,不过最近又手贱重装了cuda,所以之前编译的包不能用了,重新配置的时候感觉又忘了很多东西,于是决定写一篇博客来记录下之前操作,可能不是很全,重装电脑的时候再补充。

阅读全文 »

本人在写毕设论文的时候踩了很多坑,让我重新学习了了如何高效使用word进行编辑。当然下面的顺序并不是依照我踩坑的顺序续写的,而是我写完论文之后进行了总结:如果重头开始写论文应该怎么做才是高效且容易管理的,仅记录一些能够免去搬砖的使用技巧,个人感觉套模板是没用滴,学之以渔才是正确路线。注:用到的word是window10的版本。

阅读全文 »

今天读了一下 Towards Evaluating the Robustness of Neural Networks,这是关于对抗样本(Adversarial Example)的paper,主要贡献是提出了Carlini & Wagner Attack神经网络有目标攻击算法,打破了最近提出的神经网络防御性蒸馏(Defensive Distillation),证明防御性蒸馏不会显著提高神经网络的鲁棒性,论文的信息量还是比较大的。

可能需要阅读的论文以获取前置知识:

关于蒸馏网络:

[1] Do Deep Nets Really Need to be Deep?

[2] Distilling the Knowledge in a Neural Network

[3] Distillation as a Defense to Adversarial Perturbations against Deep Neural Networks

关于对抗样本:

[4] Intriguing properties of neural networks(L-BFGS Attack)

[5] Exploring the Space of Adversarial Images(FGSM)

[6] Towards Deep Learning Models Resistant to Adversarial Attacks(PGD, I-FGSM)

[7] The Limitations of Deep Learning in Adversarial Settings (JSMA)

[8] DeepFool: a simple and accurate method to fool deep neural networks(DeepFool)

关于论文源码:

carlini/nn_robust_attacks

阅读全文 »

这篇文章是我在网易云上学习吴恩达深度学习做的一些总结,我是先看了一遍视频才来做的总结,所以很多参考了黄广海博士的翻译和笔记,另外有的知识点与之前吴恩达机器学习上的有所重复,就记录得比较简单,可见这里,还有一篇笔记也我觉得也记得很好。

阅读全文 »

这篇文章是我在网易云上学习吴恩达机器学习做的一些总结,虽然之前有学习过,但是感觉还是没有很好地吸收总结。另外有的不知道怎么组织语言的就参考了黄广海博士的翻译和笔记。

阅读全文 »