NLP|NLP算法岗面经总结

NLP算法岗面经总结
手撕代码部分 刷leecode,可以关注一下“帅地玩编程”公众号,他总结的高效刷题方法很实用。个人建议刷题不要盲目的追求量,要做到经典题反复刷。我刚开始刷题一天两道就觉得很痛苦,坚持一个月就会有质变,加油。

  1. 快排的原理?可以写一下吗?什么情况下快排的时间复杂度退化到O(n^2)?快排的优化方法有了解吗?
    快速排序的4种优化
    十大经典排序算法(动图演示)
  2. 了解 mysql的index机制吗?
  3. 不使用递归的方法遍历二叉树?
机器学习
  1. SVM:原理、几何距离、函数距离、核函数、KKT条件?
    支持向量机通俗导论(理解SVM的三层境界)
  2. 逻辑回归原理,和线性回归的关系,如何从线性回归推导到逻辑回归的,为什么是sigmoid函数?逻辑回归的损失函数是什么,请从最大似然推导逻辑回归交叉熵损失函数?
    逻辑回归(Logistic Regression)(一)
    逻辑回归原理详细推导
    条件概率分布与机器学习
    线性回归和逻辑回归的区别
  3. 逻辑回归和SVM有什么区别?
  4. 决策树分类的分裂点选择方法,请说出其区别,公式记得吗?
    机器学习实战(三)——决策树
    一篇文章搞懂机器学习中决策树的那些事儿
  5. bagging和boosting的区别?请说一下GBDT原理,XGboost有了解吗?
    Bagging和Boosting的区别(面试准备)
    bootstraping、bagging、boosting三个算法的概念及区别
  6. 请说一下防止过拟合的方法?L1正则和L2正则的区别,请用公式描述(在逻辑回归中)?正则化的本质是什么?
    基础 | batchnorm原理及代码详解
    Batch Normalization:加速神经网络训练的通用手段
    正则化(Regularization)本质
  7. 模型评价方法有哪些?请说一下精确率和召回率分别在什么场景下使用?
    P-R曲线深入理解
    如何理解机器学习和统计中的AUC?
  8. SVM等二分类的机器学习方法,你是如何把它应用在多分类中的?
    (五)分类算法之多分类问题
深度学习
  1. RNN为什么会出现梯度消失和梯度爆炸?
    RNN梯度消失和爆炸的原因
  2. LSTM如何解决梯度消失?请从公式上解释LSTM加入门控单元之后是如何解决RNN中梯度消失和梯度爆炸的?
    LSTM如何解决梯度消失问题
  3. 梯度消失和梯度爆炸常用的解决方法?
    如何解决梯度消失和梯度爆炸?
  4. 激活函数及其性质
    激活函数(activation functions)二三事-性质、作用与选择
    激活函数 sigmoid、tanh、relu
  5. 深度学习中最优化方法有哪些?请描述一下牛顿法?请说一下什么是Adam方法?
    最优化-牛顿法(Newton)
    【深度学习】深入理解优化器Optimizer算法(BGD、SGD、MBGD、Momentum、NAG、Adagrad、Adadelta、RMSprop、Adam)
NLP知识
  1. 请讲一下bert原理?和LSTM有什么区别?你还了解哪些语言模型?
    BERT简介及中文分类
    一文读懂BERT(原理篇)
  2. transformer内部结构,q\k\v分别是如何算的?什么是multi-attention机制?
    【NLP】Transformer详解
  3. 训练过词向量吗?用什么方法训练的?bert词向量训练属于监督学习还是无监督学习?
  4. CBOW和skip-gram的区别?
  5. glove原理?
  6. 给你一堆没有标签的新闻文本,你是如何分类的?
入门 kaggle比赛 【NLP|NLP算法岗面经总结】参加kaggle竞赛是怎样一种体验?

    推荐阅读