【大数据面试】--2019年面试和笔试题目汇总

一、前言       

       经过一段时间的面试和笔试,已经彻底快让自己失去了信心!年底了,找工作真难!但是这也对个人将来的规划和学习工作有了一定的提示。下面将把个人算是面经吧,分享出来,希望对各位有帮助。
     

二、思考

  1. 每次进入一家公司,即要做好离开的准备! -- 因为公司不是你的家
  2. 一定要建立起自己的知识库,必须频繁循环下面的过程:获取、应用、更新和存储! -- 与时俱进
  3. 要既会做人,还要会做事! -- 做人在前,做事在后 
  4. 你只是一般人而已,没有谁会主动崇拜一般人!  -- 我们只是地球上微不足道的一个生物而已
  5. 凡事要做预测并做好准备! -- 凡事预则立,不预则废
  6. 这世界上每天都在发生许多事情,走好自己的路就好。 -- 穷则独善其身,达则兼济天下
  7. 有耐心,不冲动,居安思危。 -- 以静制动
  8. 没有谁欠谁的,这个世界每天都在发生事情。 -- 有你和没有你,公司一样会运行,除非你是不可取代的
  9. 欠的,早晚都要还。   -- 善有善报,恶有恶报,不是不抱,时候未到            
  10. 你没有经历过,感受过,就没有资格去评论他人。  -- 你又不是别人,怎么知道他的经历和想法呢
  11. 别太过自信,做人需要谦虚谨慎和稳重。                -- 适当的谦虚是可以让我们有一定的进步的
  12. 不卑不亢,简简单单,却是需要用一生去体会的词语。  
  13. 不要站在道德至高点去指责别人,要多倾听和了解。   
  14. 你没有必要去讨论别人怎样,想想,你自己是怎样的。
  15. 你应该往那个点奔,或者创造它,而不是抱怨和自欺欺人。

三、面试准备

  1、步骤

       写简历、系统复习、投简历、获取现场面试机会、重点复习企业职位要求、面试、总结等。

  • 重要的事情说3遍,一定要提前3个月开始准备!!!否则很容易歇菜!!!复习的要点包括:

(1)Java 面试宝典

(2)刷题:选择、填空、简答、代码编程

(3)Hive 、Spark 、Kafka 、Flink和 Hadoop 的基础知识

(4)智力题要了解下

(5)简历好好写

(6)面试礼仪:谢谢、您好、回答问题速度不可太快。

(7)面试时间:最好一天一个,并且都安排到下午 14:00 ,这样能少跑路。

2、接下来要做的事

  • 整理简历
  • 复习面试过程中问到的问题
  • 好好看看面试的公司的基本要求
  • 投简历
  • 面试和总结

3、找工作重要的事

  • 学历:学历,还是学历!!!没有比较好的学历,大厂可能就别想了。
  • 技术:博客、github和开源贡献
  • 证书:软考、架构师等

四、面试流程

一般情况,公司都有一面、二面、三面和终面;但是也有可能只有3面,或者合并成2面。

  • 1、初面:基本上是和你同级别的人,不用担心,他的技术水平可能比你高、更有可能比你低!正常发挥就行。
  • 2、二面:这可能是你未来的直接领导,回答时多想想再说,尽量往自己会的方向引导,留下好印象!
  • 3、三面:部门领导、技术总监或者 CTO,他们更多问的是综合能力。那么回答时,往这个方向回答:在你的项目中,你负责什么?解决了什么问题?有什么收获和分享?
  • 4、终面:人事小姐姐一般的目标是讨价还价了,所以尽量不要说自己没有 offer ,其他的实话实说就行。

 

五、面试和笔试题

以下是A、B、C、D和E等公司的面试及笔试汇总,供各位参考。

1、HashMap 和 Hashtable 区别

2、Java 垃圾回收机制和生命周期

3、怎么解决 Kafka 数据丢失的问题

4、zookeeper 是如何保证数据一致性的

5、hadoop 和 spark 在处理数据时,处理出现内存溢出的方法有哪些?

6、java 实现快速排序

7、设计微信群发红包数据库表结构(包含表名称、字段名称、类型)

8、如何选型:业务场景、性能要求、维护和扩展性、成本、开源活跃度

9、spark 调优

10、Flink和spark的 通信框架

11、java 代理

12、java的内存溢出和内存泄漏

13、hadoop 的组件有哪些?Yarn 的调度器有哪些?

14、hadoop 的 shuffle 过程

15、简述 spark 集群运行的几种模式

16、RDD 中的 reducebyKey 与 groupByKey 哪个性能高?

17、简述 HBase 的读写过程

18、在 2.5亿个整数中,找出不重复的整数,注意:内存不足以容纳 2.5亿个整数。

19、CDH 和 HDP 的区别

20、java 原子操作

21、Java 封装、继承和多态

22、JVM 模型

23、Flume taildirSorce 重复读取数据解决方法

24、Flume 如何保证数据不丢

25、Java 类加载过程

26、Spark Task 运行原理

27、手写一个线程安全的单例

28、设计模式

29、impala 和 kudu 的适用场景,读写性能如何

30、kafka ack

31、phoenix 创建索引的方式及区别

32、Flink TaskManager 和 Job Manager 通信

33、Flink 双流 join方式

34、Flink state 管理和 checkpoint 的流程

35、Flink 分层架构

36、Flink 窗口

37、Flink watermark 如何处理乱序数据

38、Flink time

39、Flink 支持exactly-once 的 sink 和 source

40、Flink 提交作业的流程

41、Flink connect 和 join 区别

42、重启 task 的策略

43、hive 的锁

44、hive sql 优化方式

45、hadoop shuffle 过程和架构

46、如何优化 shuffle过程

47、冒泡排序和快速排序

48、Spark stage

49、spark mkrdd和Parrallilaze函数区别

50、Spark checkpoint 过程

51、二次排序

52、注册 hive udf

53、SQL 去重方法

54、Hive 分析和窗口函数

55、Hadoop 容错,一个节点挂掉然后又上线

56、掌握 JVM 原理

57、Java 并发原理

58、多线程的实现方法

59、RocksDBStatebackend实现(源码级别)

60、HashMap、ConcurrentMap和 Hashtable 区别:https://www.jianshu.com/p/a91f72310545

61、Flink Checkpoint 是怎么做的,作用到算子还是chain

62、Checkpoint失败了的监控

63、String、StringBuffer和 StringBuilder的区别

64、Kafka存储流程,为什么高吞吐:https://blog.51cto.com/12445535/2432350

65、Spark 优化方法举例

66、keyby 的最大并行度

67、Flink 优化方法

68、kafka isr 机制

69、kafka partition 的 4个状态

70、kafka 副本的 7个状态

71、taskmanager 的数量:https://cloud.tencent.com/developer/article/1500184

72、if 和 switch 的性能及 switch 支持的参数

73、kafka 零拷贝:https://cloud.tencent.com/developer/article/1421266

74、hadoop 节点容错机制:https://www.cnblogs.com/zhangyinhua/p/7681146.html

75、HDFS 的副本分布策略

76、hadoop 汇总:https://www.cnblogs.com/gala1021/p/8552850.html

77、Kudu 和Impala 权限控制

78、Time_wait状态?当server处理完client的请求后立刻closesocket此时会出现time_wait状态.

79、三次握手交换了什么? SYN,ACK,SEQ,窗口大小:https://blog.csdn.net/whuslei/article/details/6667471

3次握手建立链接,4次握手断开链接。

80、hashmap 1.7和1.8 的区别? :https://blog.csdn.net/qq_36520235/article/details/82417949

1.7 是 数组+链表;1.8 是数组+链表+红黑树,为了避免死循环、提高插入效率 log(N)

81、concurrenthashmap 1.7和1.8?

分段锁,属于细粒度,比 hashtable 效率高, cas

为了保证原子操作和线程安全的

82、Kafka 的ack

-1 producer 只有收到分区内所有副本的成功写入的通知才认为推送消息成功了。

0 producer 发送一次就不再发送了,不管是否发送成功

1 producer 只要收到一个分区副本(leader的)成功写入的通知就认为推送消息成功了

83、sql 去重方法

group by 、distinct、窗口函数

84、哪些 hive sql 不能在 spark sql 上运行:https://spark.apache.org/docs/2.2.0/sql-programming-guide.html#unsupported-hive-functionality

85、 什么情况下发生死锁? (就是说说条件,然后举个例子):https://blog.csdn.net/hd12370/article/details/82814348

多个进程在运行过程中因争夺资源而造成的一种僵局,当进程处于这种僵持状态时,若无外力作用,它们都将无法再向前推进。

86、事务隔离级别? 可重复读、不可重复读、读未提交、串行化

87、spark shuffle 和 hadoop shuffle :https://0x0fff.com/spark-architecture-shuffle/

88、spark 静态内存和动态内存:https://blog.csdn.net/high2011/article/details/84575442

89、mysql btree 和 hash tree 的区别。btree 需要唯一主键,hash tree 适合>= 等,精确匹配,不适合 范围检索

90、udf、udtf和 udaf 的区别

91、hive sql 的执行过程

92、client 端,spark sql 的执行过程

93、找出数组中最长的 top10 字符串:https://www.nowcoder.com/questionTerminal/2c81f88ecd5a4cc395b5308a99afbbec

94、Flink 数据处理流程

95、Flink 与 Spark streaming 对比

96、Flink watermark 使用

97、窗口与流的结合

98、Flink 实时告警设计

99、Java:面向对象、容器、多线程、单例

100、Flink:部署、API、状态、checkpoint、savepoint、watermark、重启策略、datastream 算子和优化、job和task状态

101、Spark:原理、部署、优化

102、Kafka:读写原理、使用、优化

103、hive的外部表问题

104、spark的函数式编程

105、线性数据结构和数据结构

106、映射,rdd。

107、java的内存溢出和内存泄漏。

108、多线程的实现方法

109、HashMap、ConcurrentMap和 Hashtable 区别

110、Flink Checkpoint 是怎么做的,作用到算子还是chain

111、Checkpoint失败了的监控

112、String、StringBuffer和 StringBuilder的区别

113、Kafka存储流程,为什么高吞吐

114、Spark 优化方法举例

115、keyby 的最大并行度

116、Flink 优化方法

117、kafka isr 机制

118、kafka partition 的 4个状态

119、kafka 副本的 7个状态

120、taskmanager 的数量

121、if 和 switch 的性能

122、Hdfs读写流程(结合cap理论讲)

123、技术选型原则

124、Kafka组件介绍

125、g1和csm区别

126、熟悉的数据结构

127、spark oom处理方法

128、看了哪些源码

129、Spark task原理

130、解决过的问题

131、Hbase读写流程

六、结语

   1、 年底了,一般情况下还是不要离职。最佳离职时间:

  •    春节过后的 1.5 个月内:大量岗位流动 + 项目启动 + 其他原因;
  •    7月初至9月初: 实习生到期 + 跳槽小高峰 ;   

   2、好好复习,建议

  •    默写定义和定理
  •    手写编程题
  •    建议刷题至少 3 遍
  •    模拟面试
  •    请教同行的朋友

 彩蛋: 有小伙伴提出把公司名称垒上,好吧,应邀填上:

  1. 猎豹移动        -- 四惠
  2. 闪送               -- 上地
  3. 奇安信            --将台
  4. 永信至诚        -- 永丰科技园
  5. 微鲤科技        -- 望京
  6. 随行付金科     --中关村地铁站
  7. 太字流动         -- 中关村软件园
  8. 启蒙教育         -- 来广营科技园
  9. 牧游科技         -- 西二旗
  10. 光大科技        --西二旗
  11. 优选好生活     -- 四惠
  12. 阅视                -- 四惠
  13. 财天下            -- 西单
  14. 中安星云        -- 上地 
  15. 京东               -- 亦庄

  

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章