NLP算法岗面经总结
手撕代码部分 刷leecode,可以关注一下“帅地玩编程”公众号,他总结的高效刷题方法很实用。个人建议刷题不要盲目的追求量,要做到经典题反复刷。我刚开始刷题一天两道就觉得很痛苦,坚持一个月就会有质变,加油。
- 快排的原理?可以写一下吗?什么情况下快排的时间复杂度退化到O(n^2)?快排的优化方法有了解吗?
快速排序的4种优化
十大经典排序算法(动图演示) - 了解 mysql的index机制吗?
- 不使用递归的方法遍历二叉树?
- SVM:原理、几何距离、函数距离、核函数、KKT条件?
支持向量机通俗导论(理解SVM的三层境界) - 逻辑回归原理,和线性回归的关系,如何从线性回归推导到逻辑回归的,为什么是sigmoid函数?逻辑回归的损失函数是什么,请从最大似然推导逻辑回归交叉熵损失函数?
逻辑回归(Logistic Regression)(一)
逻辑回归原理详细推导
条件概率分布与机器学习
线性回归和逻辑回归的区别 - 逻辑回归和SVM有什么区别?
- 决策树分类的分裂点选择方法,请说出其区别,公式记得吗?
机器学习实战(三)——决策树
一篇文章搞懂机器学习中决策树的那些事儿 - bagging和boosting的区别?请说一下GBDT原理,XGboost有了解吗?
Bagging和Boosting的区别(面试准备)
bootstraping、bagging、boosting三个算法的概念及区别 - 请说一下防止过拟合的方法?L1正则和L2正则的区别,请用公式描述(在逻辑回归中)?正则化的本质是什么?
基础 | batchnorm原理及代码详解
Batch Normalization:加速神经网络训练的通用手段
正则化(Regularization)本质 - 模型评价方法有哪些?请说一下精确率和召回率分别在什么场景下使用?
P-R曲线深入理解
如何理解机器学习和统计中的AUC? - SVM等二分类的机器学习方法,你是如何把它应用在多分类中的?
(五)分类算法之多分类问题
- RNN为什么会出现梯度消失和梯度爆炸?
RNN梯度消失和爆炸的原因 - LSTM如何解决梯度消失?请从公式上解释LSTM加入门控单元之后是如何解决RNN中梯度消失和梯度爆炸的?
LSTM如何解决梯度消失问题 - 梯度消失和梯度爆炸常用的解决方法?
如何解决梯度消失和梯度爆炸? - 激活函数及其性质
激活函数(activation functions)二三事-性质、作用与选择
激活函数 sigmoid、tanh、relu - 深度学习中最优化方法有哪些?请描述一下牛顿法?请说一下什么是Adam方法?
最优化-牛顿法(Newton)
【深度学习】深入理解优化器Optimizer算法(BGD、SGD、MBGD、Momentum、NAG、Adagrad、Adadelta、RMSprop、Adam)
- 请讲一下bert原理?和LSTM有什么区别?你还了解哪些语言模型?
BERT简介及中文分类
一文读懂BERT(原理篇) - transformer内部结构,q\k\v分别是如何算的?什么是multi-attention机制?
【NLP】Transformer详解 - 训练过词向量吗?用什么方法训练的?bert词向量训练属于监督学习还是无监督学习?
- CBOW和skip-gram的区别?
- glove原理?
- 给你一堆没有标签的新闻文本,你是如何分类的?
推荐阅读
- paddle|动手从头实现LSTM
- 人工智能|干货!人体姿态估计与运动预测
- 推荐系统论文进阶|CTR预估 论文精读(十一)--Deep Interest Evolution Network(DIEN)
- Python专栏|数据分析的常规流程
- 读书笔记|《白话大数据和机器学习》学习笔记1
- Pytorch学习|sklearn-SVM 模型保存、交叉验证与网格搜索
- Python机器学习基础与进阶|Python机器学习--集成学习算法--XGBoost算法
- 深度学习|深度学习笔记总结
- 机器学习|机器学习Sklearn学习总结
- 机器学习|线性回归原理与python实现