求职刷题神器

funit.cn

  • 面试中主要问题(一二面)1.逻辑回归和SVM的区别和联系2.深度学习为什么在计算机视觉领域这么好3.Bagging和Boosting之间的区别?4.常用的池化操作有哪些?5.朴素贝叶斯的朴素是什么意思?6.1*1卷积核的作用?7.随机森林的随机性指的是?8.随机森林和GBDT算法的区别?9.为什么ReLU常用于神经网络的激活函数?10.卷积层和全连接层的区别?11.偏差和方差的区别?12.机器学习和深度学习的区别?13.神经网络的优缺点?14.解决过拟合的方法
    2 0 54
  • 一面主要问题1.什么是凸集、凸函数、凸学习问题?2.L0、L1、L2正则化?3.无监督学习方法有哪些?4.空洞卷积(dilatedconvolution)的理解?5.增大感受野的方法?6.卷积层中感受野大小的计算?7.梯度下降法和牛顿法的优缺点?8.解决训练样本类别不平衡问题?9.各个激活函数的优缺点?10.神经网络的正则化方法?/过拟合的解决方法?11.目标检测领域的常见算法?12.BatchNormalization如何实现?作用?
    5 0 56
  • 面经中主要技能点1.风格迁移gram矩阵,计算特征相关性最小化特征层损失可以重构图像2.AdversarialLoss在所有训练样本上,基于判别器的概率定义generativeloss3.反卷积,低维特征映射到高维,自编码器4.网络参数越接近输出层越容易训练。5.mobleNet6.防止过拟合:采用权重正则化(产生较为简单的模型得到系数解,减小不重要的参数对最后结果的影响),BN,增加样本,Dropout。欠拟合:丢数据,增加模型复杂度7.Inpaint:门控卷积,局部卷积8.Drop层测试时候不需要因为都是学习的参数9.Fasterrcnn较为准确,但是慢十倍10.FasterRCNN中anchor只用在最后一个卷积层,但是在SSD中,defaultbox是应用在多个不同层的featuremap上11.BN:可以事先将特征去相关,模型的输入特征不相关且满足标准正态分布N(0,1)时,模型的表现一般较好。初始时加速训练速度,具有快速训练收敛的特性。消除W放大缩小的影响解决梯度消失与梯度爆炸。12.ResNet反向求导有1,缺点可能很多层无用,densnet缓解梯度消失问题,加强特征传播,鼓励特征复用,极大的减少了参数量,特征利用率大收敛块缺点特征爆炸DneseNet在训练时十分消耗内存
    4 0 56
  • 一面1、自我介绍2、项目/实习经历3、讲一下对自己成长最有帮助的项目,为什么4、如何实现知识蒸馏,loss怎么选择5、介绍TinyBert的工作原理6、LR是线性模型吗,为什么?7、梯度下降和随机梯度下降的区别8、GBDT和XGBoost的区别(至少3方面)9、偏差和方差的区别10、怎么理解XLNet的,XLNet的输入是什么?11、一个二分类任务,假设只有一个维度的特征,取值范围是0~正无穷,如何实现二分类?
    4 0 85
  • 昨天下午接到了京东的电话,问是否可以去北京现场面试,当时正好是春季开学,拒绝之后面试官表示可以电话面试,共两面技术面+一面HR面。体验总结a.京东电话面试给人感觉特别佛系,面试官很nice。b.面试难度不大,感觉基本都能到HR面,也就是备胎池很大。c.考察内容不算细致,是我面过时间最短的试。一面1.自我介绍2.项目3.项目扩展知识点4.直接上编程题:给一棵树,要求输出叶子节点从左到右的最大连续子序列这里让我觉得比较佛系的是,面试官要求挂掉电话,自己写完之后从微信发给他,后面的问题就都成了微信上的文字面试。二面1.自我介绍+项目2.什么是FAQ3.常见问题解答4.是否做过类似项目5.如何计算两个文本的关系6.有几种方法7.除了日常学习科研之外的其他领域有什么了解8.什么是DSSM9.是否做过类似项目
    3 0 76
  • 技术1面1.简历细节2.网络评论细粒度抽取3.百度千言数据实体消歧比赛4.小论文5.模型调参怎么调的6.学习率怎么起作用7.LSTM,GRU门机制8.门机制是否真的能防止梯度消失或梯度爆炸9.CNN模型介绍10.coding:快排技术2面(粗面)1.开始确认了入职时间和实习期时间2.简历细节(项目基本上全介绍了)3.又确认了一遍入职时间和实习时间4.未coding
    5 0 62
  • 一面1.自我介绍2.项目介绍3.知道哪些卷积?4.深度可分离卷积?5.损失函数/分类的loss函数6.神经网络组件7.深度学习为什么比机器学习好?8.如果训练集不平衡,测试集平衡,直接训练和过采样欠采样处理,哪个更好?9.三个盒子,一个盒子两个红球,一个盒子一红一蓝,第三个盒子两个蓝球。一人随机选了一个盒子,并摸出一个红球,请问这个盒子里另外一个也是红球的概率是多少?10.螺旋打印二维数组11.有什么要问我的
    4 0 59
  • 一面1.自我介绍+项目2.RNN/CNN/LSTM优缺点以及差别3.介绍GBDT4.编程题:有序数组找某个值,若有重复值则输出最后一个的位置5.GBDT与RF的区别6.模型融合7.提升方法and集成学习8.过拟合的原因与解决方案9.使用过哪些线性模型10.Pytorch/numpy中的广播概念11.ROC与AUC12.是否使用过pdd购买商品?13.对拼多多的感觉如何?
    6 0 77
  • 一面1.自我介绍2.问项目3.神经网络防止过拟合的方法4.dropout?5.L1和L2正则6.BN?7.什么是wide-deep8.xgboost和gbdt的不同9.LSTM中的各个门10.transformer?比rnn优越在哪?11.bert12.python生成器
    3 0 107
  • 一面1.Unet结构特点上采样、下采样还有哪些类型2.下采样:resblock上采样:PixelShuffle、临近插值、双线性插值3.VGG结构特点4.相似性结构的网络有哪些5.数据增强怎么做6.focalloss了解吗7.Bn平均值是什么的平均,训练和测试时的bn计算不一样二面1.pytorchgenerate多线程2.pytorch多卡训练同步还是异步3.编程十进制转二进制,不增加空间复杂度4.了解维度爆炸吗5.项目中用到图像的分辨率是多少6.Attention机制SEnet7.轻量级网络mobilenet8.卷机层的计算复杂度9.deepwise卷积了解吗
    8 0 86
  • 微信扫码加好友进群