cv面经
CtrlK
  • 目前的readme文件跳转啥的,还没改好~各位可以直接点到文件夹中先看~我会这几天来fix掉
  • 大厂面试原题
  • 通用计算机视觉算法面经
    • Python面试题
    • transformer面试题
    • 传统计算机视觉面试题,主要面向Opencv
    • 图像分割面试题
    • 图像分类面试题
    • 机器学习高频考题
    • 面试题
      • 1x1
      • CV中的Attention
      • 介绍下DenseNet
      • 手写目标检测与语义分割中的IOU
      • $L1$与$L2$正则的区别
      • 面试必考 $NMS$汇总
      • add_with_concat
      • 2.4 简单阐述一下BP的过程?
      • conv
      • Conv与BN的融合过程
      • 我丢!Drop就完事了!(上)
      • dropout_2
      • enlarge_bs
      • im2col
      • 标签平滑-$label$ $smoothing$
      • 1. $NMS$代码与实现
      • Normalization汇总!!!
      • reparameter
      • resnet
      • sigmoid与softmax的区别与联系
      • softmax及其相关变形
      • 为什么深度学习模型初始化参数不能为0
      • 深度学习各类优化器
      • 你了解的调参技巧
      • 你知道的时序建模模块
      • 出现过拟合怎么办
      • 常用指标
      • 计算机视觉中的感受野
      • 深度学习之权重初始化
      • 激活函数
      • 原因
    • 目标检测面试题
    • 落地方面的面试题
    • C++与操作系统等面试题
Powered by GitBook
On this page
  1. 通用计算机视觉算法面经

面试题

1. 简述AI任务中常见的指标

2. 简述你知道的激活函数

3. 说一下感受野

4.权重初始化的方法?

5. 描述一下优化算法

6. add与concat之间的区别

7. 说一下bp

8. 描述下cv中的attention

9. 描述下DenseNet

10. dropout上

11. dropout下(为什么Dropout与BN不和谐共处)

12. 在Backbone不变的情况下,若显存有限,如何增大训练时的batchsize

13. 描述一下IOU

14. 描述一下L1与L2的比较

15. labelsmoothing的数学推导等

16. 各种归一化的汇总

17. 你了解的重参数技巧

18. 具体阐述一下ResNet网络的细节,你知道的ResNet网络的相关变种有哪些

19. sigmoid与softmax的区别与联系

20. softmax及其相关变形

21. 描述下1 x1卷积

22. 说一下im2col

23. 说一下RNN/LSTM/GRU等优势与劣势

24. 写一下NMS

25. NMS存在哪些优化

26. CNN参数与卷积输出大小计算

27. 出现过拟合怎么办?

28. 为什么深度学习模型初始化参数不能为0?

29. 神经网络模型不收敛,有哪些原因?

写代码

1. 全连接层前向与反向传播代码 2. Dropout前向与反向 3. 激活函数之ReLu/Sigmoid/Tanh前向与反向传播 4. 卷积层与池化层前向与反向传播 5. BatchNorm2d前向反向传播 6. Flatten层前向与反向传播 7. 交叉熵损失函数前向与反向传播 8. 优化器代码

Previous3. 写一下PCA的代码Next1x1

Last updated 2 years ago