人工智能开发工程师 面经汇总
技术二面1.自我介绍2.项目介绍3.残差网络为什么能做到很深层? 4.相比sigmoid激活函数ReLU激活函数有什么优势?5.卷积神经网络中空洞卷积的作用是什么?6.解释下卷积神经网络中感受野的概念?7.模型欠拟合什么情况下会出现?有什么解决方案?8. 适用于移动端部署的网络结构都有哪些?9. 卷积神经网络中im2col是如何实现的?10.多任务学习中标签缺失如何处理?11.梯度爆炸的解决方法?12.深度学习模型参数初始化都有哪些方法?13.反问了解
技术面1.无监督学习中存在过拟合吗? 2.什么是k折交叉验证? 3.关于k折交叉验证,需要注意什么? 4.对于一个二分类问题,我们定义超过阈值t的判定为正例,否则判定为负例。现在若将t增大,则准确率和召回率会如何变化? 5.说明Lp范数间的区别 6.用梯度下降训练神经网络的参数,为什么参数有时会被训练为nan值? 7.卷积神经网络CNN中池化层有什么作用? 8.请列举几种常见的激活函数。激活函数有什么作用? 9.神经网络中Dropout的作用?具体是怎么实现的? 10.利用梯度下降法训练神经网络,发现模型loss不变,可能有哪些问题?怎么解决? 11.如何解决不平衡数据集的分类问题?
技术二面自我介绍+项目介绍1、为什么随机森林能降低方差? 2、对于带等式和不等式约束的优化问题,KKT条件是取得极值的充分条件还是必要条件?对于SVM呢? 3、解释维数灾难的概念 4、Logistic回归为什么用交叉熵而不用欧氏距离做损失函数? 5、解释hinge loss损失函数 6、解释GBDT的核心思想 7、解释XGBoost的核心思想 8、解释DQN中的经验回放机制,为什么需要这种机制? 9、什么是反卷积?10、反卷积有哪些用途? 11、PCA(主成分分析)优化的目标是什么?12、LDA(线性判别分析)优化的目标是什么?
技术面1. 回归问题的评价指标?2.逻辑回归和SVM的区别和联系?3. 深度学习为什么在计算机视觉领域这么好?4. Bagging和Boosting之间的区别?5. 常用的池化操作有哪些?6. 朴素贝叶斯的朴素是什么意思?7.1*1卷积核的作用?8. 随机森林的随机性指的是?9. 随机森林和GBDT算法的区别?10. 为什么ReLU常用于神经网络的激活函数?11. 卷积层和全连接层的区别?12. 偏差和方差的区别?13. 机器学习和深度学习的区别?14. 神经网络的优缺点?
技术面主要问题1.什么是perplexity?它在NLP中的地位是什么?2.ReLu的问题是什么?3.使用SVD学习潜在特征和使用深度网络获取嵌入向量有什么区别?4.LSTM的hidden和cell存储的信息是什么?5.带bias的LSTM模型的参数个数6.LSTM的复杂度7.transfomer的时间复杂度8.为什么self-attention怎么牛逼?9.Adam optimiser的局限性是什么?10.AdamW和Adam有什么不同?11.使用大的batch size可以训练模型更快吗?12.你喜欢特征提取还是微调?你怎么决定?你会使用BERT作为特征提取器还是对它进行微调?13.举一个学习率调度策略的例子?14.我们应该在深度学习中进行交叉验证吗?15.在多任务学习中,软、硬参数共享的区别是什么?16.注意力机制有哪些不同类型?
面试中主要问题(一二面)1.逻辑回归和SVM的区别和联系2. 深度学习为什么在计算机视觉领域这么好3. Bagging和Boosting之间的区别?4. 常用的池化操作有哪些?5. 朴素贝叶斯的朴素是什么意思?6.1*1卷积核的作用?7. 随机森林的随机性指的是?8. 随机森林和GBDT算法的区别?9. 为什么ReLU常用于神经网络的激活函数?10. 卷积层和全连接层的区别?11. 偏差和方差的区别?12. 机器学习和深度学习的区别?13. 神经网络的优缺点?14. 解决过拟合的方法
一面主要问题1. 什么是凸集、凸函数、凸学习问题? 2. L0、L1、L2正则化? 3. 无监督学习方法有哪些? 4. 空洞卷积(dilated convolution)的理解? 5. 增大感受野的方法? 6. 卷积层中感受野大小的计算? 7. 梯度下降法和牛顿法的优缺点? 8. 解决训练样本类别不平衡问题? 9. 各个激活函数的优缺点? 10. 神经网络的正则化方法?/过拟合的解决方法? 11. 目标检测领域的常见算法? 12. Batch Normalization如何实现?作用?
面经中主要技能点1.风格迁移 gram矩阵,计算特征相关性 最小化特征层损失可以重构图像 2.Adversarial Loss 在所有训练样本上,基于判别器的概率定义 generative loss3.反卷积,低维特征映射到高维,自编码器 4.网络参数越接近输出层越容易训练。 5.mobleNet 6.防止过拟合:采用权重正则化(产生较为简单的模型得到系数解,减小不重要的参数对最后结果的影响),BN,增加样本,Dropout。欠拟合:丢数据,增加模型复杂度 7.Inpaint:门控卷积,局部卷积 8.Drop 层测试时候不需要 因为都是学习的参数 9.Faster rcnn较为准确,但是慢十倍 10.Faster RCNN中 anchor 只用在最后一个卷积层,但是在SSD中,default box 是应用在多个不同层的feature map上 11.BN:可以事先将特征去相关,模型的输入特征不相关且满足标准正态分布N(0, 1)时,模型的表现一般较好。初始时加速训练速度,具有快速训练收敛的特性。消除W放大缩小的影响解决梯度消失与梯度爆炸。 12.ResNet 反向求导有1,缺点可能很多层无用,densnet 缓解梯度消失问题,加强特征传播,鼓励特征复用,极大的减少了参数量,特征利用率大 收敛块 缺点特征爆炸DneseNet在训练时十分消耗内存
一面1、自我介绍 2、项目/实习经历 3、讲一下对自己成长最有帮助的项目,为什么 4、如何实现知识蒸馏,loss怎么选择 5、介绍TinyBert的工作原理 6、LR是线性模型吗,为什么? 7、梯度下降和随机梯度下降的区别 8、GBDT和XGBoost的区别(至少3方面) 9、偏差和方差的区别 10、怎么理解XLNet的,XLNet的输入是什么? 11、一个二分类任务,假设只有一个维度的特征,取值范围是0~正无穷,如何实现二分类?
昨天下午接到了京东的电话,问是否可以去北京现场面试,当时正好是春季开学,拒绝之后面试官表示可以电话面试,共两面技术面 + 一面HR面。 体验总结a. 京东电话面试给人感觉特别佛系,面试官很nice。 b. 面试难度不大,感觉基本都能到HR面,也就是备胎池很大。 c. 考察内容不算细致,是我面过时间最短的试。 一面 1.自我介绍2.项目 3.项目扩展知识点 4.直接上编程题: 给一棵树,要求输出叶子节点从左到右的最大连续子序列 这里让我觉得比较佛系的是,面试官要求挂掉电话,自己写完之后从微信发给他,后面的问题就都成了微信上的文字面试。二面 1.自我介绍+项目 2.什么是FAQ 3.常见问题解答 4.是否做过类似项目 5.如何计算两个文本的关系 6.有几种方法 7.除了日常学习科研之外的其他领域有什么了解 8.什么是DSSM 9.是否做过类似项目
验证码登录>
验证码登录>
自动登录 | 忘记密码?
密码登录>
自动登录