量化派大数据面试题
量化派面试题
学长1
1)基本信息
1月9号:
面试地点:互联网金融中心-11层量化派,金融公司。
面试时长:约2个半小时
面试次数:5次
2)一面:(30分钟)
(1)Spark Core内容。
(2)RDD的容错性,窄依赖,宽依赖怎么进行容错。
(3)RDD的数据从哪来?RDD的五个特性(说不上来)
(4)Partitioner的几个:hash和ranger???
(5)说说Hbase的架构
(6)手写代码:二分查找
(7)Java基础:
List:ArrayList,LinkedList
List调用add方法后发生了什么?满了后怎么扩容?
Map:HashMap和TreeMap区别
红黑树底层(不会)
快排,二分以及复杂度
(8)OLAP 是否用过这个:doris
(9)数据一致性
3)二面:大数据老大(1个小时左右)
(1)OLAP中Presto和Druid,Impala区别等问题
(2)数仓的整个过程,每层的细节
(3)实时的指标一些细节
(4)HBase设计原则
(5)HBase场景题
(6)手写代码的环节:单例模式
(7)中序非递归遍历二叉树(只会写递归),我写了递归
4)三面: 应该是个小主管,聊人生(20分钟)
1月15日量化派复试:
5)四面: 技术负责人(35分钟)
(1)问了一些flink和spark,分析Spark TOPN复杂度问题 答得不好
(2)元数据管理和数据治理
6)五面hr(20分钟):
质疑工作经历,问的很细,一周内等消息(没等到)
学长2
1)笔试题
(1)用Java写出单例模式(多种方法加分)
(2)写一种常见的排序算法并分析时间复杂度
(3)输入字符串输出判断输入是否是一个数字
例如:3.5->true
Ooo->false;
(4)文本文件Filef里面存放公司各个部门人员的工资明细 数据格式如下:
DeptId name salary
1001 张三01 2000
1002 李四02 2500
1003 张三05 3000
1002 王五01 2600
用Java程序写出各个部门的平均工资并倒序输出
2)面试
(1)udf的种类
(2)reduceByKey和groupByKey的区别
(3)spark的job的提交,处理过程
(4)sparkStreaming UpdateStateByKey底层是如何实现保存数据原来的状态的
(5)还有一些关于你项目的具体问题
(6)你是如何实现flume数据传输的监控的
(7)给你一个数组里面有奇数、偶数,写一个算法实现奇数全在最左侧偶数,全在最右侧
写一个算法实现一个二叉树的各层节点的个数