工程师面试知识点总结六
2020年,由于诸多客观因素的影响,一方面学无所成,另一方面企无扩招,对于2021届毕业生来说无疑是雪上加霜,算法岗更是在风口浪尖上飘摇不定,或许也有机遇和挑战并存的一面吧~2020,迎难而上!现将历年来一些重要的算法面试问题整理如下,主要涉及算法的理论问题方面,共100道,希望能够帮助到大家,资料来源于网络资深算法面试官的亲情分享~
综合面试100问,请参考往期文章:求职指南【5】-算法工程师综合面试100问
为了便于大家按需获取,我将问题分为六大类,分别为:机器学习、深度学习、特征工程、NLP,CV,推荐系统。这些问题既是面试中的一些常见问题,也可以作为大家的学习参考问题,由于涉及领域众多,请大家自行甄别获取,仅供参考~
二、算法面试100问
1. 机器学习
1. 支持向量机中核函数的作用
2. 机器学习模型训练为什么要引入偏差和方差?
3. 马尔科夫随机场/混合高斯模型朴素贝叶斯/EM/最大熵模型
4. 解决模型训练过拟合的方法?
5. One-hot的作用,为什么不直接使用数字作为表示?
6. 随机森林和决策树的区别
7. 朴素贝叶斯
8. kmeans初始点除了随机选取,还有哪些方法?
9. LR分类模型
10. 梯度下降如何进行并行化
11. LR中的L1和L2正则项
12. 简述决策树的构建过程
13. Gini系数简述
14. 简述决策树的优缺点
15. 结果出现估计概率值为 0 如何处理
16. 随机森林的一般生成过程
17. 简述Boosting思想
18. gbdt的中的tree是什么,有什么特征
19. 相比gbdt/boosting Tree,xgboost的优化
20. 简述最优超平面
21. 简述支持向量
22. SVM怎样解决多分类问题
2. 特征工程类
3. 深度学习类
1. Batch-normalization算法原理4. VGG,GoogleNet,ResNet等网络之间的主要区别7. Attention机制,对比RNN和CNN,分别有哪些优势10. 为什么self-attention可以替代seq2seq?
4. 自然语言处理(NLP)类
9. LDA和Word2Vec区别?LDA和Doc2Vec区别12. 在数据中随机选择 15% 的标记,其中80%被换位[mask],10%不变、10%随机替换其他单词,原因是什么?13. 为什么BERT有3个嵌入层,它们都是如何实现的14. 手写一个multi-head attention
5. 推荐系统类
2. 你在使用deepFM的时候是如何处理欠拟合和过拟合问题的3. deepfm的embedding初始化有什么值得注意的地方吗5. YouTubeNet如何避免百万量级的softmax问题的
7. MLR的原理是什么?做了哪些优化?
6. 计算机视觉(CV)类
2. 目标检测里如何有效解决常见的前景少背景多的问题3. 目标检测里有什么情况是SSD、YOLOv3、Faster R-CNN等所不能解决的,假设网络拟合能力无限强7. mini-Batch SGD相对于GD有什么优点9. 卷积的实现原理以及如何快速高效实现局部weight sharing的卷积操作方式10. CycleGAN的生成效果为什么一般都是位置不变纹理变化,为啥不能产生不同位置的生成效果12. 简述Faster R-CNN和YOLO的区别和联系
18. 常用数据增强方法
由于涉及算法岗诸多领域,故这些问题的答案暂未收集整理,请各领域小伙伴儿自行脑补回答,择优选择问题复习~~
最后,祝大家求职顺利,offer不断,前程似锦~