求职刷题神器

funit.cn

  • 二面1、自我介绍2、深度神经网络常见的参数初始化方式,如果全部初始化为0,会出现什么情况3、多卡并行的时候怎么实现参数共享,通信梯度是指平均梯度,还是最大梯度,还是梯度总和4、介绍常见的梯度下降优化方法5、神经网络(卷积/全连接)反向传播公式推导6、FocalLoss解决了什么问题,如何解决的,与OHEM有什么不同7、斜着的矩形框如何求iou,两个多边形的框如何求iou8、Detection你觉的还有哪些可做的点9、卷积底层如何实现的10、mini-BatchSGD相对于GD有什么优点11、DCN比普通卷积多了多少计算量
    4 0 47
  • 技术面1、自我介绍2、项目介绍3、Softmax+CrossEntropy反向求导4、BatchNorm层的详细解读5、Conv+BN加速策略6、常见的模型加速方法7、目标检测里如何有效解决常见的前景少背景多的问题8、目标检测里有什么情况是SSD、YOLOv3、FasterR-CNN等所不能解决的,假设网络拟合能力无限强9、分类和检索两个问题可以怎么理解10、ROIPool和ROIAlign的区别,以及ROIAlign的简单实现
    5 0 49
  • 一面1、自我介绍2、项目介绍3、神经网络(CNN)在图像中广泛应用的原因?4、CNN不适用的场景?5、当神经网络效果不好时,应该从哪些方面考虑解决该问题?6、深度学习中加速收敛/降低训练难度的方法有哪些?7、常见的稳定排序算法有哪些?8、常见的不稳定排序算法有哪些?9、完全搜索算法有哪些?10、随机搜索算法有哪些?
    4 0 49
  • 技术面1、自我介绍2、项目介绍3、BatchNormalization4、超参数搜索方法5、如何理解卷积、池化等、全连接层等操作6、1x1大小的卷积核的作用7、常见激活函数特点8、训练过程中,若一个模型不收敛,那么是否说明这个模型无效?导致模型不收敛的原因有哪些?9、深度学习中的不同最优化方式,如SGD,ADAM下列说法中正确的是?10、深度学习:凸与非凸的区别11、googlenet提出的Inception结构优势
    3 0 54
  • 一面1、什么是反卷积2、反卷积有哪些用途?3、解释神经网络的万能逼近定理4、神经网络是生成模型还是判别模型?5、BatchNormalization和GroupNormalization有何区别?6、模型压缩的主要方法有哪些7、目标检测中IOU是如何计算的?8、使用深度卷积网络做图像分类如果训练一个拥有1000万个类的模型会碰到什么问题?9、深度学习中为什么不用二阶导去优化?10、深度机器学习中的mini-batch的大小对学习效果有何影响?
    3 0 52
  • 一面1、自我介绍2、项目介绍3、给定0-1矩阵,如何求连通域?4、OCR任务中文本序列识别的主流方法是什么?5、在神经网络体系结构中,哪些会有权重共享??6、平面内有两个矩形,如何快速计算它们的IOU?7、使用深度卷积网络做图像分类如果训练一个拥有1000万个类的模型会碰到什么问题?8、HMM和CRF的区别?9、深度学习中为什么不用二阶导去优化?10、深度机器学习中的mini-batch的大小对学习效果有何影响?11、线性回归对于数据的假设是怎样的?12、Bias和Variance的区别?
    4 0 67
  • 一面1、自我介绍2、项目介绍3、那个项目自己做的不好?4、为什么很多时候用正态分布来对随机变量建模?5、BatchNormalization和GroupNormalization有何区别?6、GAN中模型坍塌(modelcollapse)是指什么?7、目前GAN训练中存在的主要问题是什么?8、Shufflenet为什么效果会好?9、模型压缩的主要方法有哪些?10、目标检测中IOU是如何计算的?11、给定0-1矩阵,如何求连通域?12、OCR任务中文本序列识别的主流方法是什么?13、在神经网络体系结构中,哪些会有权重共享??14、一个典型人脸识别系统的识别流程?15、你有什么想问的?
    1 0 44
  • 一面1、自我介绍2、项目介绍3、激活函数有哪些sigmod和softmax有什么区别4、深层网络的构造,为什么会出现梯度问题,怎么解决5、完成一个工程的基本结构是什么6、最大似然估计大数定理7、优化器有哪些为什么还是用SGD8、交叉熵误差softmax作用9、torch.detach的作用10、图像增广操作
    2 0 43
  • 一面1、自我介绍2、项目介绍3、解释神经网络的万能逼近定理4、softmax回归训练时的目标函数时凸函数吗?5、SVM为什么要求解对偶问题?为什么对偶问题与原问题等价?6、神经网络是生成模型还是判别模型?7、logistic回归是生成模型还是判别模型?8、对于支持向量机,高斯核一般比线性核有更好的精度,但实际应用中为什么一般用线性核而不用高斯核?9、高斯混合模型中,为什么各个高斯分量的权重之和要保证为1?10、介绍beamsearch算法的原理11、介绍seq2seq的原理12、介绍CTC的原理13、介绍广义加法模型的原理
    4 0 40
  • 一面(一个半小时)1、聊简历项目​2、算法题:LCS迭代实现、递归实现、LCS序列打印、算法优化,LCS和最长公共子串区别​3、手推Bayes公式​4、手推CBOW和Skip-gram公式​5、许多开放性试题如:维护一个项目上线最主要的是什么,NLP领域都有哪些任务,词向量预训练发展整个过程等等二面(一个小时)​1、聊简历上的项目​2、介绍HAN模型原理,Attention机制原理​3、算法题1:判断一个序列是否是二叉搜索树的后序遍历序列​4、开放算法题2:在牛市实时数据,不断的有数字型数据流进入,如何在每次进入时得到当前所有数据的中位数三面(一个半小时)1、求公选课人数的平均数(不知道每个公选课的选课人数)​2、给出QA中的Question和Answer,你能做些什么​3、word2vec中cbow\skip-gram滑动窗口设定大小有何影响​4、有事笔记本电脑跑程序出现内存不够用,但是打开任务管理器发现还有空余内存为什么​5、算法题:编辑距离​6、算法题:任意两个树节点的最近公共父节点
    2 0 65
  • 微信扫码加好友进群