一面 43min:
1.自我介绍
2.问了两个项目, 问了下项目中如何实现的Mysql和hdfs数据同步
3. 讲一下对Hadoop的了解讲了下HDFS原理、MapReduce的过程,想讲HDFS检查点机制没让讲。
4. Spark和MapReduce的区别?是不是用了Spark就不需要MapReduce了?(答得不太好)
5.问对Hive的了解?自己提了下数据倾斜
6. 如果有海量数据,如何求Top10?(说错了一块,后来又改过来了)
7. Linux平常用的指令?说了 ls 、 ll 、 df 、 nohup & 、ps 、 kill 等等
8.Hadoop用到的指令 Hadoop fs -ls 、 mkdir、 hdfs fsck(查看块信息)
9.用什么语言比较多?(我用的py比较多) Python常用的数据类型?list 和 tuple的区别?
10.回答了下 不可变对象和可变对象
11.常用的python库(requests 、bs4 、keras 等等)如何安装包
12.算法题:数组去重 上台阶、动态规划和递归的区别
13.还有什么问题要问我吗?(问了下缺不缺hc、主要工作内容)
二面 23min
1.全程问项目,同时问了很多有没有看过Spark 源码 ES源码 Flask源码(都没看过)。
2.各个项目问的比较深,算法模型等等。
HR面 30min
1.可以实习多久
2.如何解决做项目和社团和日常生活的平衡问题
3.简单介绍下流计算的spark streaming storm flink的优缺点
4.未来发展等等
验证码登录>
验证码登录>
自动登录 | 忘记密码?
密码登录>
自动登录