求职刷题神器

funit.cn

  • 面试中主要问题(一二面)1.逻辑回归和SVM的区别和联系2.深度学习为什么在计算机视觉领域这么好3.Bagging和Boosting之间的区别?4.常用的池化操作有哪些?5.朴素贝叶斯的朴素是什么意思?6.1*1卷积核的作用?7.随机森林的随机性指的是?8.随机森林和GBDT算法的区别?9.为什么ReLU常用于神经网络的激活函数?10.卷积层和全连接层的区别?11.偏差和方差的区别?12.机器学习和深度学习的区别?13.神经网络的优缺点?14.解决过拟合的方法
    2 0 83
  • 一面主要问题1.什么是凸集、凸函数、凸学习问题?2.L0、L1、L2正则化?3.无监督学习方法有哪些?4.空洞卷积(dilatedconvolution)的理解?5.增大感受野的方法?6.卷积层中感受野大小的计算?7.梯度下降法和牛顿法的优缺点?8.解决训练样本类别不平衡问题?9.各个激活函数的优缺点?10.神经网络的正则化方法?/过拟合的解决方法?11.目标检测领域的常见算法?12.BatchNormalization如何实现?作用?
    5 0 65
  • 面经中主要技能点1.风格迁移gram矩阵,计算特征相关性最小化特征层损失可以重构图像2.AdversarialLoss在所有训练样本上,基于判别器的概率定义generativeloss3.反卷积,低维特征映射到高维,自编码器4.网络参数越接近输出层越容易训练。5.mobleNet6.防止过拟合:采用权重正则化(产生较为简单的模型得到系数解,减小不重要的参数对最后结果的影响),BN,增加样本,Dropout。欠拟合:丢数据,增加模型复杂度7.Inpaint:门控卷积,局部卷积8.Drop层测试时候不需要因为都是学习的参数9.Fasterrcnn较为准确,但是慢十倍10.FasterRCNN中anchor只用在最后一个卷积层,但是在SSD中,defaultbox是应用在多个不同层的featuremap上11.BN:可以事先将特征去相关,模型的输入特征不相关且满足标准正态分布N(0,1)时,模型的表现一般较好。初始时加速训练速度,具有快速训练收敛的特性。消除W放大缩小的影响解决梯度消失与梯度爆炸。12.ResNet反向求导有1,缺点可能很多层无用,densnet缓解梯度消失问题,加强特征传播,鼓励特征复用,极大的减少了参数量,特征利用率大收敛块缺点特征爆炸DneseNet在训练时十分消耗内存
    4 0 60
  • 一面1、自我介绍2、项目/实习经历3、讲一下对自己成长最有帮助的项目,为什么4、如何实现知识蒸馏,loss怎么选择5、介绍TinyBert的工作原理6、LR是线性模型吗,为什么?7、梯度下降和随机梯度下降的区别8、GBDT和XGBoost的区别(至少3方面)9、偏差和方差的区别10、怎么理解XLNet的,XLNet的输入是什么?11、一个二分类任务,假设只有一个维度的特征,取值范围是0~正无穷,如何实现二分类?
    4 0 103
  • 昨天下午接到了京东的电话,问是否可以去北京现场面试,当时正好是春季开学,拒绝之后面试官表示可以电话面试,共两面技术面+一面HR面。体验总结a.京东电话面试给人感觉特别佛系,面试官很nice。b.面试难度不大,感觉基本都能到HR面,也就是备胎池很大。c.考察内容不算细致,是我面过时间最短的试。一面1.自我介绍2.项目3.项目扩展知识点4.直接上编程题:给一棵树,要求输出叶子节点从左到右的最大连续子序列这里让我觉得比较佛系的是,面试官要求挂掉电话,自己写完之后从微信发给他,后面的问题就都成了微信上的文字面试。二面1.自我介绍+项目2.什么是FAQ3.常见问题解答4.是否做过类似项目5.如何计算两个文本的关系6.有几种方法7.除了日常学习科研之外的其他领域有什么了解8.什么是DSSM9.是否做过类似项目
    3 0 85
  • 技术1面1.简历细节2.网络评论细粒度抽取3.百度千言数据实体消歧比赛4.小论文5.模型调参怎么调的6.学习率怎么起作用7.LSTM,GRU门机制8.门机制是否真的能防止梯度消失或梯度爆炸9.CNN模型介绍10.coding:快排技术2面(粗面)1.开始确认了入职时间和实习期时间2.简历细节(项目基本上全介绍了)3.又确认了一遍入职时间和实习时间4.未coding
    5 0 75
  • 一面1.自我介绍2.项目介绍3.知道哪些卷积?4.深度可分离卷积?5.损失函数/分类的loss函数6.神经网络组件7.深度学习为什么比机器学习好?8.如果训练集不平衡,测试集平衡,直接训练和过采样欠采样处理,哪个更好?9.三个盒子,一个盒子两个红球,一个盒子一红一蓝,第三个盒子两个蓝球。一人随机选了一个盒子,并摸出一个红球,请问这个盒子里另外一个也是红球的概率是多少?10.螺旋打印二维数组11.有什么要问我的
    4 0 71
  • 一面1.自我介绍+项目2.RNN/CNN/LSTM优缺点以及差别3.介绍GBDT4.编程题:有序数组找某个值,若有重复值则输出最后一个的位置5.GBDT与RF的区别6.模型融合7.提升方法and集成学习8.过拟合的原因与解决方案9.使用过哪些线性模型10.Pytorch/numpy中的广播概念11.ROC与AUC12.是否使用过pdd购买商品?13.对拼多多的感觉如何?
    6 0 87
  • 一面1.自我介绍2.问项目3.神经网络防止过拟合的方法4.dropout?5.L1和L2正则6.BN?7.什么是wide-deep8.xgboost和gbdt的不同9.LSTM中的各个门10.transformer?比rnn优越在哪?11.bert12.python生成器
    3 0 121
  • 一面1.Unet结构特点上采样、下采样还有哪些类型2.下采样:resblock上采样:PixelShuffle、临近插值、双线性插值3.VGG结构特点4.相似性结构的网络有哪些5.数据增强怎么做6.focalloss了解吗7.Bn平均值是什么的平均,训练和测试时的bn计算不一样二面1.pytorchgenerate多线程2.pytorch多卡训练同步还是异步3.编程十进制转二进制,不增加空间复杂度4.了解维度爆炸吗5.项目中用到图像的分辨率是多少6.Attention机制SEnet7.轻量级网络mobilenet8.卷机层的计算复杂度9.deepwise卷积了解吗
    8 0 97
  • 面试感受1.面试形式为电话面试,面试官可能是个鸽子,平均约三次才能面上一次。2.当时投递简历时调研了一下,大文娱、本地生活以及飞猪,据说都不是太核心,竞争较小。一面1.项目与自我介绍2.PythonC++怎么调试怎么断点调试①小白都会的print大法②IDE:PyCharm可以在某行代码增加断点③pdb:python自带工具pdb进行调试,命令行使用:python-mpdbxxx.py进入调试模式,类似于c++的gdb调试代码使用:代码中添加pdb,在代码指定位置设置上断点pdb.set_trace()3.python解释器是什么/如何工作编译过程和执行原理①用户提交源码后,解释器将源码转化为字节码,在Python中一般为.pyc文件,在Java中则是.class文件,这个字节码机器不能执行,由虚拟机执行(这个虚拟机不是vmware或者virtualbox的虚拟机概念),在Java中同样是由JVM来实现。由于字节码一般是不依赖于操作系统的,所以可以做到跨平台运行。当python程序第二次运行时,首先程序会在硬盘中寻找pyc文件,如果找到,则直接载入,否则就重复上面的过程。②Python中的几种解释器知道几个:CPython:CPython是标准Python,也是其他Python编译器的参考实现。通常提到“Python”一词,都是指CPython。CPython由C编写,将Python源码编译成CPython
    4 0 82
  • 一面1.自我介绍2.那进程间可以通信啊,什么方式3.线程可以通信吗?4.线程有哪些状态5.python中怎么实现多线程、多进程的?6.指针和引用的区别7.TCP和UDP的区别8.C++中多态了解吗?二面1.自我介绍2.C为什么比C++快?3.那你们数据集哪来的?4.那你们应用场景是什么?5.如果给你一个课题,让你去实现,怎么做?6.那你如果给你数据,模型,你的结果不好怎么办7.那你知道怎么结果过拟合吗?8.你知道导数在物理上的意思吗?9.那你知道二阶导吗?10.拐点怎么求?11.写一个二叉树非递归的中序遍历12.你知道这个函数是什么意思吗?(我写在节点结构体中的初始化函数)HR面1.自我介绍2.那你还没有过视觉方面的实习是吗3.你C++上过课是吗4.那你自学过其他语言吗?5.你有什么兴趣爱好6.你还有什么问题?四面1.了解过hadoop吗?MapReduce呢?2.讲下MapReduce的理解;3.hql4.查询表A中有但表B中没有的?5.两个表做连接
    5 0 102
  • 一面:35分钟电话面试1.自我介绍2.项目考查3.实时场景的车辆检测4.ROC曲线怎么得到的?(对比ROC曲线和P-R曲线)5.Map怎么计算?6.深度可分离卷积和普通卷积计算量的对比?7.卷积与深度可分离卷积的计算量和参数量8.项目中遇到的难点是什么?如何解决?9.轻量级模型部署对比考虑(Mobilnetv2和Shufflenetv2速度和模型大小)10.NPU支持算子受限。
    3 0 128
  • 一面(35分钟电话面试)1.自我介绍2.基础知识考查2.1BN层原理及作用/优点2.2什么是过拟合?如何解决过拟合?2.3有哪些常用的数据增强方法?深度学习中有哪些数据增强方法?​2.4介绍一下NMS原理及实现的流程2.51*1卷积核的作用2.6普通卷积和深度可分离卷积的区别2.7Mobilenetv2与shufflenetv23.项目介绍3.1车辆检测3.2图片扫描3.3BSD+DMS4.有什么想问的问题?
    5 1 301
  • 面试官是做活体检测的1.介绍项目项目是做人脸识别相关的,也是小论文,问了些测试指标和公开数据集的一些指标,做这个的出发点,然后挑些毛病,没怎么听懂。2.项目中用到了resnet,让我讲下resnet的blocks,以及每个blocks是什么样的,具体到每一层是什么?blocks结构是,每个block会有两条通路,其中一条有三个卷积层,每个卷积层分别由conv,bn,Relu组成,另外一条通路只有一个卷积层,仅有conv和bn,最后两条通路的tensor加在了一起。(如果现场面估计要叫我画网络结构图)3.resnet设计的初衷?普通的网络结构增加网络层数后,由于层数变得过多导致平均下来每层网络的损失值变得很小,反向传播时对损失值变得不敏感而更新参数会变得很困难。通过增加残差结构会明显减小模块中的参数值从而让网络参数对反向传导的损失值更加敏感,虽然没有根本解决回传时损失小的问题,但是让参数变小,相当于增加了回传效果。(这道题回答的不是很好)4.resnet中的kernel_size?1×1,3×3,1×15.bn层原理?通过对每个batch的特征进行归一,使特征符合正态分布,这样网络更容易收敛。bn层会计算每个batch的均值和方差,然后进行归一。但是如果完全符合正态分布会使网络的表征能力变差,所以引入了两个参数,对归一后的特征进行细微的调整,这两个参数是通过学习得到的。6.bn层的均值和方差是在哪个维度上计算的?通道上,如resnet中64*112*112的特征经过bn层后,得到的bn层特征是一个64维的tensor。7.如果是测试,bn层怎么更新?不会更新8.resnet中的激活函数
    4 0 99
  • 滴滴面试的大部分是时间都是在介绍项目和论文,特别细,必须得自己做了并且整理过才行。论文介绍基本就是从idea的来源,对应introduction和relatedwork,也会大致介绍这方面的研究状况,也会说明一下自己对这一问题是如何思考的,如果面试官研究过这一方面,介绍起来是很投缘的。其次是实现过程,对应proposedmethod,中间面试官会跟紧你的介绍思路,不懂也会提出问题,这里很难介绍清楚,因为毕竟是你自己的方法,如何介绍需要提前准备。最后是实验结果,数据集,网络结构,实验结果评估,针对实验结果面试官也会发问。1.项目介绍2.你所负责的网络结构的特点3.为什么用卷积替代池化4.卷积的优点,池化的优点5.对数据的处理6.介绍了数据采集和划分的过程,交叉验证函数,参数的意义7.Grad-cam可视化如何实现8.随机森林9.论文介绍10.你说到中间层特征,fsp矩阵是什么11.idea怎么来的,实现的过程,实验结果12.算法:岛屿数量问题13.算法:数组求第k小数字的下标14.算法:一个矩阵,在时间的O(1)的条件下实现查找.solution(x,*)表示与所圈定的矩形中每个像素点的值之和15.算法:一个矩形由左上角坐标右下角坐标表示,求两个矩形的交集终面是leader面,也会问项目和论文,不同于一二面的地方是,没有专门考算法题,并且抛出了许多关于合作意识等方面的引子。我知道第三面是leader面,自我介绍也介绍的比较全面,不像一二面只介绍专业、项目、论文,还把奖项、**任职、文体也介绍了。比如关于合作方面,面试官问你在项目中是如何与队友进行配合的,我当时的回答就介绍了一下实现grad-cam算法和生成label的csv是怎么分工合作的,但我感觉项目中不好说明我组织合作这一方面的能力,又引出了数学建模,这一比赛就可以很好的说明了。
    5 0 87
  • 个人情况:末流985大三在读,大三下没课所以去找了一波实习。项目方面主要是图像识别与模型压缩知识蒸馏,一篇1作论文在投。其他专业排名、获奖情况、文体方面不赘述商汤:二面挂。被告知待综合评定,应该就是委婉地挂了551.介绍项目,你负责哪一部分,用了哪些t**cks2.BatchNorm的作用,与**的差别3.VGG的参数量,如何计算参数量、计算量,举例说明4.Resnet介绍一下5.介绍论文,论文的idea,处理过程,实验结果6.几种激活函数,区别和作用7.实现快排8.实现HashMap问题记得不是很清楚了,问题基本都是出自于项目和论文,HashMap我写完被告知写的太复杂,代码可读性不高55
    2 0 88
  • 先说一下自己的情况吧,本人华东某省末流小硕,论文在投,有一个数模三等奖。春招的时候参加了一些面试,供大家参考。因为个人原因(cai),没有报太多,只报了三家,腾讯,阿里,华为。下面开始进入正题蚂蚁金服人工智能部下午5点内推投的简历,当天晚上10点收到内推成功的邮件。第二天中午收到阿里的电话,预约明天下午3:30电话面试(不得不说阿里的效率还是高)第一次面试1.先让自我介绍(我竟然自我介绍没准备,完全freestyle,感觉没说好...)2.先问机器学习的吧,问是自学还是上课教的,有哪些分类方法3.说一下逻辑回归的原理(有点紧张,说了一堆公式...)4.用什么优化方法,梯度下降的种类,各有什么优点5.决策树知道吗?说一下GBDT的详细过程,XGBoost和GBDT的差别(这个没有用过,具体过程我就说不清楚,,只说了一个大概)6.讲一下word2vec7.其他自然语言处理的方法知道吗8.讲一下Node2vec9.做自然语言处理可以吗?(面试官是做自然语言处理的,我说都可以尝试下,面试官说你一定要选一个,我就说还是自己的方向吧)10.介绍一个自己的项目(我就说了一下自己的论文)11.20min两道编程题(本来是通过邮件把测评链接发给我,好像那边出了问题,我一直没收到,面试官好像就说这次算了)12.最后我问:这次面试结果是要编程测试结束才有吗?面试官说测试仅供参考,结果等通知吧。可能他赶着结束(下班),竟然没让问我问题。总共刚好30min结束了...一面自我感觉良好,但过了好久都没消息,阿里招聘网站上的招聘进度一直显示‘简历评估中’没有变过。群里的大佬有的一面后第二天就约了二面,感觉自己不会是凉了吧...直到通知二面。第二次面试1.先
    4 0 91
  • 一面(简历面)当时在过马路时收到了电话,站在人行道上面试了半小时..询问基本情况(研究方向及实习)就实习阶段所做的超分辨率算法工作进行了详细的询问:1、数据如何生成,从概率的角度解释网络为何能够学到LR和SR的映射关系,如何搭建和训练网络,如何解决模型落地问题2.了解到答主在做超分时遇到的问题后,对业界前沿的技术做了相关询问,用了哪些GAN模型,GAN模型的loss函数如何设计,为什么这么设计3.询问答主为什么要从深度学习方向转到机器学习方向,以及约定了两天后的详细面试;二面(视频面)1.介绍一个机器学习项目后就项目的pipeline和相关知识点进行了询问2.介绍随机森林和GBDT的区别,为什么Bagging降方差,Boosting降偏差3.介绍XGB对GBDT的提升,LGB对XGB的提升,以及既然使用了LGB为什么还要使用XGB4.介绍stacking的模型融合方式,以及模型融合为什么有效5.编程题:找到一个无序数组里面连续的最长整数数组长度。顺带考察了基数排序和快速排序三面(P9交叉面)1.了解答主的两段实习经历,分别承担怎样的角色,具体做什么,简单考察了如何解决实际问题2.就项目中数据处理方式做了详细的询问,生成的多张数据集如何使用,缺失值的处理需要考察到哪些问题,均值填充是否科学等3.特征工程中具体衍生出来的特征进行了详细的询问,为什么要生成这样的特征,依据是什么,为什么要使用PCA进行降维,如何存在多个特征高度共线会有什么问题4.为什么要大量使用树模型,有什么优势5.XGB如何处理缺失值,LGB的差加速和直方图算法
    5 0 131
  • 面试职位:AI研究工程师(NLP方向)-实习生面试方式:视频面试个人信息:双非中流一本软件工程详细面经1.首先问了我的空余时间怎么样能实习多久2.然后开始问简历,简历上打的比赛是什么样的形式和内容3.然后在这个比赛中用的一篇论文解释一下思想(没答上来忘了论文的细节了)4.然后讲了我在比赛中完成的任务顺便讲了一下我们和前几名的差距所在5.问课题项目6.RNN中的梯度爆炸和梯度消失:没复习,忘了7.lstm的门控机制里面用的是什么激活函数:我又忘了,只回答是把范围限制在0-1之间的那个。8.问有无了解过文本生成9.我问了一下他在实际工作中,NLP做了些什么10.遗忘门怎么工作,为什么要设计遗忘门:他说我回答对了,但可以简洁一点11.TF-IDF解释一下:我又忘了,在百度的帮助下说了一下大概(还好前几天还刚好看了莫凡python的文本搜索复习了一下这个)12.为什么有了sigmod函数还要tanh函数,设计这个激活函数的原因是什么:这我真没探究过,看了一下百度好像也和梯度消失爆炸有关13.问了BERT:讲了一下Transformers里面的attention机制,上周工程训练一直在看这个。不过刚看完不久,还不熟悉。里面的KEY这个专有名词一直想不起来,是他提醒了我。建议1.第一个是不要紧张,可能我是第一次,以后就会好了2.第二个是一些专有名词忘了就用别的普通语言描述这个专有名词不用一定要死磕想出来专有名词3.第三个是鼓励我说我大三现在的水平还可以很有潜力4.第四个是让我下次视频面试时可以跟舍友先调好设备耳机里面有电流声5.第五个是跟着老师做实践时多想得深一点(因为里面有一两个问题我稍微看一眼就过去了没看细节)总结<
    4 0 106
  • 磕磕碰碰终于收到了百度的算法offer,期间已经不知道多少次笔试挂,一面挂,二面挂各种的,算法形式严峻。楼主非科班(物理)211本双非硕(中科院),项目也马马虎虎,简历着实毫无优势,只能自己闷头学习刷题,因此每每看到牛客上各种劝退算法岗还是很容易心态爆炸的,期间也一度想换岗位,可能是因为头铁吧,实在不想自己的努力付诸东流,最终还是幸运的上岸了,还是感谢自己能坚持下来吧。一面一位女面试官,在一个大厅里,因为我这是百度的第三批正式批,所以人还是很多的,很多面试官一起面试。1.自我介绍2.问项目3.神经网络防止过拟合的方法4.dropout?dropout是训练中的,那在预测的时候,是使用dropout训练出的权重还是要乘以keep-prib呢,为什么?5.L1和L2正则6.BN?引申问了问知不知道layerNorm7.写题:无序数组第k大的数(快排思想,不排序)8.反问二面间隔了10多分钟,二面面试官是百度上海的,一开始不知道,楼主base北京,反问还问部门有啥业务,后来才知道大类岗面试官是随机的。1.自我介绍2.介绍项目3.说了下如何处理样本不均衡(项目相关),说了修改loss权重什么的4.什么是wide-deep(项目相关)5.xgboost和gbdt的不同6.LSTM中的各个门7.transformer?比rnn优越在哪?8.再说说bert<
    11 0 152
  • 面试安排:3轮技术面+1轮HR面一面(1小时)1.自我介绍:简单介绍一下自己的研究方向,研究成果,做了哪些实验2.详细描述一下做过的实验。怎么做的,为什么这么做,效果怎么样,结论是什么3.了解目标检测吗(我做的视频动作识别),问了一些目标检测的基础,IOU,NMS,FocalLoss,FocalLoss的缺点以及如何改进等等4.手撕代码:给定两个字符串str1和str2,再给定三个整数ic,dc,rc,分别代表插入、删除、替换一个字符的代价,返回将str1编辑成str2的最小代价。5.有什么问题想问的吗。二面(1小时)1.自我介绍:简单介绍一下自己的研究方向,研究成果,做了哪些实验2.介绍一下发表的论文所做的工作3.视频动作识别有哪些主要流派4.深度学习基础:BN层参数量,BN层为什么有效等等(记不清了)5.手撕代码:手写快排6.问数学怎么样,我说还不错。然后接下来三个问题,一个没答上来。。。矩阵理论没学过,真没办法,我不会啊。三面(1小时)1.自我介绍:简单介绍一下自己的研究方向,研究成果,做了哪些实验2.详细介绍一下发表的论文提出的算法,听完给我分析了这个方法的优缺点,应用,以及后续能做的事情等等。3.手撕代码:图的遍历(DFSBFS自选)4.有什么问题想问的吗。HR面总的来说,商汤的面试体验非常好。面试官都很专业,并且给你一种互相交流的感觉。面试的基调应该还是考察基础知识(实习生的面试是这样),手撕代码环节的难度有点儿超出我的预期。我以为难度在mid及以下,谁知道一上来就是hard。。。。当然还是自己题刷少了,自己菜,图遍历写的不堪入目(这东西平时是真没准备,好久没看图相关了)
    8 0 107
  • 写在前面先介绍一下笔者自身背景:双非本,top5硕士,研究方向是对话系统和Text2SQL,2段创业公司实习经历,若干NLP比赛Top10(天池、CCF、Spider),1篇发明专利。因多方面因素,2020年的秋招形势依然严峻,特别是AI相关的算法岗位,竞争十分火热,既内卷又倒挂。6月初的字节跳动是我秋招面试的第一家公司,横跨6/7月的4场面试印象非常深刻。终于在11月初收到了字节的「sspoffer」,感恩诚意满满的字节。我的4轮面试是提前批,hc相对充足,都是远程视频的方式进行,其中1、2、4面有手撕代码;每一轮面试时间在1小时左右。经朋友提醒,在面经中详细透露面试的具体问题可能涉及公司隐私,所以文中部分内容可能会做删减处理,请谅解。一面难度中等持续时长:1小时1.自我介绍2.项目介绍/实习经历介绍3-7.以下内容涉及具体细节问题而隐去。主要是根据简历内容引申出一些细节点,并根据面试者的回答进一步深挖。8.介绍一个比赛我的简历上简要写了3段比赛,我从中选择了一个最有亮点的比赛,从数据、模型、提分trick三方面做了介绍。9.介绍论文(合作写的论文,最后被COLING录取)10.来做一道题吧:数组相关的中等难度手撕题,我当时大致回答了3种做法,面试官表示满意。做法中提到了二分查找,被进一步追问证明二分查找为什么不会陷入死循环。11.提问整个一面感觉难度一般,问的问题基本都答上来了,没有一作CCF-A是硬伤。每一次面试都是很好的复盘过程,要及时总结、查漏补缺。关于代码手撕,今年应该是非常关键的环节,很多公司直接将编程题作为通过面试与否的硬性指标。刷题要趁早,对于我自己来说,在趣IT平台上各类型的题累计刷300+才算比较稳。</
    9 0 153
  • 基本情况我本科和硕士都在清华计算机系,研究生期间研究方向是AI相关,由于对研究方向失去兴趣决定转开发。暑假在某跳动实习,秋招主要投了基础架构方向。下面是面试时印象比较深刻的问题,做了大致的分类和整理,有不对的地方也欢迎大家指出讨论,希望能给大家带来收获。数据结构与算法1.链表分组翻转(注:leetcode)2.矩阵的最大子矩阵和(注:leetcode,子矩阵占据的行的情况有n(n-1)/2种,遍历之后用前缀和)3.求一个数的平方根(注:leetcode,石头多次强调,可参考《从一道面试题谈谈一线大厂码农应该具备的基本能力》)4.实现nth_element(注:类似于快排,可参考《STL源码剖析》)语言与程序1.C++的lambda表达式是怎么实现的?有什么缺陷和坑?(注:函数对象,悬挂指针和引用)2.介绍一种GC的方法。(注:例如Go的三色标记,常见的还有Java的)3.怎样设计一个内存池和内存分配器。malloc如何申请大内存和小内存。(注:使用大的内存块,根据申请的内存的大小分桶,brk,mmap,之前石头在面试MS的时候也遇到过这个题目)4.介绍程序运行时的内存布局。动态链接库是怎么加载的?动态链接库中的函数是怎样调用的?各种类型的变量是放在什么地方的?(注:.code,.data,.bss、堆、动态链接库、栈,动态链接器,plt表,got表)计算机网络1.TCP的总体过程,time_wait的时间以及为什么。(注:三次握手、四次挥手、状态机、2MSL)2.简述TCP/IP的每层有哪些协议。(注:TCP/UDP/IP/ICMP/ARP)3.全连接队列/半连接队列是什么?如何控制他们的大小。(注:通过内核参数和backlog)&nbs
    9 0 145
  • 面试部门:CloudBu,面试岗位:人工智能工程师从投递华为,到收到笔试,到最终完成所有面试,这真实一个漫长的等待,一度以为太菜,简历都被筛掉了。9月18日申请-10月30日机考-11月03日测评-11月08日一面-11月14日二面-12月6日三面三个月,快三个月才走完,等最终的结果,不知道还要需要多长时间......笔试首先讲讲笔试,笔试一共三题。第一题这一题是进制转换,将输入的数转换成十进制。第二题这一题有一个n*n的方格,方格的编号方式如图所示,最左下角方格编号为1,这个方格的左下角坐标点为(0,0)。题目要求给一个圆心(x,y)和半径r,求圆经过的所有方格,如果没有经过任何方格,输出-1。其中x,y,r都为整数。如果圆只经过方格的顶点或边,没有进入方格内部,不算经过该方格。第三题拆礼物盒,[]表示一个盒子,盒子里可以放多个礼物或礼物盒,礼物盒都不为空。要求拆开所有礼盒,取出小礼盒,仅保留里面的礼物,并摆好礼盒。礼盒摆放要求:大礼盒在底层,小礼盒在顶层。同一级别的礼盒,按照原来从左到右的顺序摆放。拆开后,如果大礼盒剩余为空,输出[]面试面试阶段太难了,我太难了!正好是考试的最后阶段,一周的时间里穿插着复习、考试、面试,根本没法好好准备面试。上午考试,下午就是面试,难上加难。一面技术面1.自我介绍2.项目介绍,对项目中的细节详细问了几点。3.机器学习相关的几个问题,好像不是很难的样子,忘了问了啥了。4.问了最熟悉哪个编程语言,我选了python5.基于p
    4 1 159
  • 简介:985硕士,研究方向自然语言处理。师兄在腾讯,就让师兄内推了一下腾讯自然语言处理的实习。在内推前,简单把李航的统计学习方法,简历涉及的知识点都过了一遍,整理了一下,同时leetcode刷了大概100题。准备过后就把简历给师兄了。投完简历当天下午就收到了腾讯的短信约晚上面试(这也太效率了==)。下面简单记录一些面试的问题(很多问题都是项目涉及的知识点,每个人可能都不一样)。一面(技术面)基本就是把简历过了一遍,问问一些项目上的细节。1、先简单自我介绍一下吧。2、看你之前实习过,说说当时实习都做了些啥。3、介绍一下transformer吧,除了self-attention还知道哪些attention。4、看你用了反向翻译,简单介绍一下吧,除了这个还知道哪些数据扩充的方法吗,每个方法有什么区别?5、介绍一下R2L-Rerank吧。6、讲一讲bert,roberta吧,BPE和wordpiece有什么区别?7、介绍一下FGM。8、介绍一下Focalloss。9、python的迭代器和生成器。10、算法题:打印二叉树从右边看能看到的节点。一面还算顺利结束后第二天就接到了二面的电话。二面(技术面)基本也是把项目比赛过一遍,然后问一些细节。1、简单介绍一下自己吧。2、介绍一下AUC吧,和准确率有啥区别。3、介绍一下F-score,Macro-F1和micro-F1有啥区别。4、bert如果输入超过512怎么办。5、那你介绍一下transformer-xl吧。
    7 2 150
  • 这是我遇到的最好的一个面试官了,女,声音好听,懂技术细节,愿意沟通和分享。首先是自我介绍,我大概介绍了10mins。接下来问项目:1、anchorfitted模块的具体细节;2、有没有使用过其他anchorfree的模型;3、我这边使用one-stage和yolo系列较多,有没有了解过;4、给你一个场景:一张图片中有三辆车与50个人,我给三辆车都打好标签,50个人只给20个人打好标签,这种情况下对FPN、CenterNet、RepPoints分别会有什么影响(接下来他就给我分析了下,主要是用背景类别对这三个模型的影响所展开的);5、你的弱听聋哑儿童语音康复训练平台的项目;6、你的论文;7、你有什么想问我的;8、接下来还有一个编程面试,祝你好运!这个面试官好就好在,他提的问题,你回答之后它会和你分享他的思考,会和你平等的交流,让我对这家公司的印象非常好,我问的问题是这三个:实习生的数量,有没有leader带,薪酬。他回答有实习生名额,有leader带并很好,薪酬之后说。总体来说很不错,接下来准备下接下来的二面:编程面试就ok。
    6 1 127
  • 三面三面约好下午4点电话面试,结果因为面试官在开会等到了快5点。一上来说之前一面和二面问项目也问得挺多的,这一面就不问项目了。我心里一惊,感觉快凉了。面试官开始问一些软问题,比如为什么本科和研究生要一直离家里这么远,到北方来上学。我说因为北方学校技术类的教学会比较扎实。面试官不置可否,他觉得这个选择没有对错,就是想了解一下。然后问我一下网络的发展史,就是ImageNet系列从一开始超过四层的网络就训练不起来,到后面可以训练那么深层的网络,中间的发展历程是什么?这一块我没怎么答出来,确实学习不成体系,只知道用工具包,不知道这些工具的出现是为了解决什么问题。然后面试官问我卷积和信号与系统的关系,同样没怎么答出来。然后面试官问我传统的机器学习进行回归的方法,我说我没有具体做过,有了解一点点。面试官感叹了一下,你们的教育没有一个体系化的教育呀。然后问我数据挖掘会吗?我只能说我不会。面试官又感叹,一个人专注于自己的领域没有错,但是他更希望大家可以广泛涉猎各领域知识。最后的最后,面试官问了我一下,平时有什么爱好?我一愣,和前面画风怎么这么不一样。答案就是看书,弹吉他,运动等。<spanstyle="font-w
    5 1 251
  • 前言为什么一面和二面写在同一篇,是因为这两个面试就在同一天,我还没来得及写一面面经,二面就打电话过来了。一面一面时长近一个小时,快把我所有东西都掏空了。首先是面试官小哥哥进行部门介绍,大概了解了他们部门是做游戏的,主要是用强化学习等方式训练出AI机器人进行模拟对战,可以用于游戏队员训练等等,目前已经可以战胜职业选手,还有像围棋、德州扑克这种的模拟对战。保持着一种非常疑惑的态度听面试官介绍完,然后面试官问我有什么问题吗?我想了一下说,我投的好像是PCG的ARClab,然后面试官问我对PCG有什么执念吗?我说那倒没有哈哈哈。然后我又问,你们这种工作感觉应该偏强化学习、GAN这种,我这完全不相关……面试官忙说,我知道大部分同学都有这样的困惑,但是国外可以还好,国内专门做强化学习或者GAN的比较突出的院校非常少,所以我们也会从学深度学习、有监督的同学中找一些比较好的同学进来。然后就开始正式面试了。首先是自我介绍,然后就问发表的论文的大致情况,包括有没有对比过不同部分对结果的贡献(其实就是消融实验),还有我在这里面担任什么样的角色。面试官问你觉得对于检测、分类这类的问题,高层特征比较有用还是低层特征比较有用?我说我认为都有用,高层特征是语义特征,是一个全局的信息,有利于决策分类,低层信息是边缘细节,是局部的特征,有利于定位回归。只有高层特征和低层特征融合起来,才能兼顾语义和细节特征。面试官问我说你论文的思想就是给网络加入了一个监督的信息,那么要给网络加入信息有些什么方式呢?我说了一些,可以用经典的机器学习方法提取输入图像特征和输入图像一起送入图片。接着问我简历上写的第二个项目,就是视频跟踪这一块,问一共有几个人,我的贡献排第几,主要做什么,没细问。最后问实习的内容,问我做的那些内容是几个人做的。之后问我实习最大的感受是什么?最大的困
    5 2 147
  • 快速扫码进群
    加入职友圈
下一步
知道了