曲线救国 | 双非"渣硕"的秋招路
NewBeeNLP原创出品
作者 | 带带大兄弟
面试锦囊之面经分享系列,持续更新中
欢迎后台回复"面试"加入讨论组交流噢
写在前面
双非渣硕,0实习,3篇水文,三个给老板当打工仔的nlp横向项目,八月份开始准备秋招,纠结开发还是算法,开发的话菜而自知,算法也是菜而自知,最后还是头铁NLP算法。
秋招进度:投递150+,笔试50+,面试30+,offer 2,只求当咸鱼,基本躺平了
下面是我的部分面经记录,希望对后来人有帮助
58同城
找了在58NLP工作的本科同学内推,估计HR给忘了,第一批没内推上,只赶上了第二批笔试,当时已经开奖了好多人了,感觉坑位不多。
一面
自我介绍
今后的事业规划、研究方向
项目1:为什么选择这种模型,有尝试过其他模型吗
BERT的优缺点
PTM都了解哪些,BERT与GPT区别
单项与双向在实际训练时有差别吗
bert的mask会带来什么缺点吗
项目2:句对匹配任务
每次查询都要与库里所有的数据做计算,有考虑过优化么
手撕代码 :
经典DP
判断两个链表是否相交
ps:没给反问机会
二面
自我介绍
挑一个比较重点的项目开讲
知识库有多大,数据是分层存储的吗
数据是如何收集的
问题会有子问题吗
准确率怎么验证的
效果会跟数据集有关系吗
sentence pair怎么改进的
CNN与RNN的区别
Transformer原理
注意力机制有哪些种类,本身原理上起了什么作用
怎么解决过拟合问题
BN在原理上怎么解决过拟合
常用损失函数有哪些
回归问题主要用哪些损失函数
隐马尔可夫了解么
数据不平衡怎么处理
数据不平衡的损失函数有哪些
交叉熵是什么原理
系统搭建怎么搭建的
项目3介绍
评价体系是什么
词向量有哪些方法
分词了解么
工作上的规划,地点有选择吗
工程上的开发与落地有经验吗
知识蒸馏是什么,通过什么方式来简化,比如albert,具体原理是什么
HR面
经典HR问题
反问新人培养机制
贝壳
一面
LDA基础知识
LSTM梯度消失/爆炸
等等
二面
自我介绍
项目介绍
LDA主题数目确定
Gibbs采样和变分推断
GIbbs优化目标是什么
Gibbs采样与变分推断的优缺点
常用的模型(LSTM+BERT),训练语料
BERT原理
Bert与LSTM比较
样本不平衡的处理方法
了解NER么
统计类模型了解么 阴马
编程语言用什么,C++会么
embedding的方法(word2vec \glove\ fasttext)
glove 与word2vec的区别
LR,SVM与XGboost了解么,介绍一下
GBDT,Xgboost的区别,Xgboost分布式计算是计算什么
代码:写快排
HR面
说一个印象最深的项目,收获
今后还做这个方向么
目前关注的公司
对贝壳了解么
可以实习么
在哪个校区
反问(两周之内给结果)
依图
一面
新加坡部门跨国面试
是保研吗
项目
BERT为什么有效,与其他模型相比呢
Transformer优点
数据源如何来的,数据更新如何解决
embedding方式有哪些
word2vec训练时出现过问题吗,比如训练后的词之间的相似性不准
爬虫框架用过哪些
手撕代码
手写字典树
二叉树的遍历 递归非递归
二面
自我介绍
项目
粗筛能过滤多少数据
评测过第一步的性能么
BERT原理,
正则化是什么,LN是什么,作用是什么
过拟合手段有哪些
Dropout原理
hyperscan的原理是什么
模型预测错误的数据,为什么会错,分析过么
sentence pairs模型中,为什么不直接用score排序
为什么要选用这种模型
自定义损失函数是什么,为什么要用这个
手撕代码,leetcode.33
尾巴
回顾整个秋招历程,当时选择方向的时候,权衡利弊还是选择了算法岗,虽然 学历不如 双一流大佬,论文比不上A会学霸,但还是决定曲线救国,从项目方面入手,算法研究不行我就从算法落地方向找突破口,整个简历都是围绕着项目展开的,面试过程也尽量把面试官往项目上引,后期的几个面试也基本都是一个项目扣半个多小时,扣着扣着就到时了。
最后祝大家都能拿到自己想要的offer!!!!!过程虽然很曲折,但结果一定是美好的!!!
一起交流
重磅推荐!NewBeeNLP目前已经建立了多个不同方向交流群(机器学习 / 深度学习 / 自然语言处理 / 面试交流 / 大厂内推 等),赶紧添加下方微信加入一起讨论学习吧!
- END -
【CS224N课程笔记】词向量I: 简介, SVD和Word2Vec
Awesome!涵盖ML/DL/NLP/推荐/风控/数学等知识点大列表
记得把NewBeeNLP设为星标哦
在看支持一下⑧