如果你在準備面試,就好好看看這130道題

這些題目是一個知識星球的球友發給我的,其中有幾個題幫着解答了一下。希望對大家有幫助。
如果你不知道如何準備面試,那麼看看這個。

年假馬上來臨,我相信有不少讀者都在準備或者考慮面試,無論如何不妨收藏一下。

如果你某個題目不知道答案,那麼就去搜一下,如果搜不到,在公衆號回覆【加羣】,可以加到羣裏尋求小夥伴們的求助。或者掃最下面的二維碼加小助手好友並留言,有時間後我會回覆你。

順便多提一句,計算機基礎和語言基礎請大家務必重視,如果你不是計算機專業,那麼這些東西都要平時多看看。

這130個題暫時沒有答案,很多題目《大數據技術與架構》都發過文章講解過,需要你自己去準備,去看,去思考,真正理解。不要妄想別人餵給你,畢竟我們是人不是鴨子。

1、HashMap 和 Hashtable 區別
2、Java 垃圾回收機制和生命週期
3、怎麼解決 Kafka 數據丟失的問題
4、zookeeper 是如何保證數據一致性的
5、hadoop 和 spark 在處理數據時,處理出現內存溢出的方法有哪些?
6、java 實現快速排序
7、設計微信羣發紅包數據庫表結構(包含表名稱、字段名稱、類型)
8、如何選型:業務場景、性能要求、維護和擴展性、成本、開源活躍度
9、Spark如何調優
10、Flink和spark的通信框架有什麼異同
11、Java的代理
12、Java的內存溢出和內存泄漏
13、hadoop 的組件有哪些?Yarn的調度器有哪些?
14、hadoop 的 shuffle 過程
15、簡述Spark集羣運行的幾種模式
16、RDD 中的 reducebyKey 與 groupByKey 哪個性能高?
17、簡述 HBase 的讀寫過程
18、在 2.5億個整數中,找出不重複的整數,注意:內存不足以容納 2.5億個整數。
19、CDH 和 HDP 的區別
20、Java原子操作
21、Java封裝、繼承和多態
22、JVM 模型
23、Flume taildirSorce 重複讀取數據解決方法
24、Flume 如何保證數據不丟
25、Java 類加載過程
26、Spark Task 運行原理
27、手寫一個線程安全的單例
28、設計模式
29、impala 和 kudu 的適用場景,讀寫性能如何
30、Kafka ack原理
31、phoenix 創建索引的方式及區別
32、Flink TaskManager 和 Job Manager 通信
33、Flink 雙流 join方式
34、Flink state 管理和 checkpoint 的流程
35、Flink 分層架構
36、Flink 窗口
37、Flink watermark 如何處理亂序數據
38、Flink time
39、Flink支持exactly-once 的 sink 和 source
40、Flink 提交作業的流程
41、Flink connect 和 join 區別
42、重啓 task 的策略
43、hive 的鎖
44、hive sql 優化方式
45、hadoop shuffle 過程和架構
46、如何優化 shuffle過程
47、冒泡排序和快速排序
48、講講Spark的stage
49、spark mkrdd和Parrallilaze函數區別
50、Spark checkpoint 過程
51、二次排序
52、如何註冊 hive udf
53、SQL去重方法
54、Hive分析和窗口函數
55、Hadoop 容錯,一個節點掛掉然後又上線
56、掌握 JVM 原理
57、Java 併發原理
58、多線程的實現方法
59、RocksDBStatebackend實現(源碼級別)
60、HashMap、ConcurrentMap和 Hashtable 區別
61、Flink Checkpoint 是怎麼做的,作用到算子還是chain
62、Checkpoint失敗了的監控
63、String、StringBuffer和 StringBuilder的區別
64、Kafka存儲流程,爲什麼高吞吐?
65、Spark優化方法舉例
66、keyby的最大並行度
67、Flink 優化方法
68、Kafka ISR 機制
69、Kafka partition的4個狀態
70、Kafka 副本的7個狀態
71、Flink taskmanager的數量
72、if 和 switch 的性能及 switch 支持的參數
73、kafka 零拷貝
74、hadoop 節點容錯機制
75、HDFS 的副本分佈策略
76、Hadoop面試題彙總,大概都在這裏(https://www.cnblogs.com/gala1021/p/8552850.html)
77、Kudu 和Impala 權限控制
78、Time_wait狀態?當server處理完client的請求後立刻closesocket此時會出現time_wait狀態.
79、三次握手交換了什麼? (SYN,ACK,SEQ,窗口大小)
3次握手建立鏈接,4次握手斷開鏈接。
80、hashmap 1.7和1.8 的區別
81、concurrenthashmap 1.7和1.8?
82、Kafka 的ack
83、sql 去重方法(group by 、distinct、窗口函數)
84、哪些 Hive sql 不能在 Spark sql 上運行,看這裏:https://spark.apache.org/docs/2.2.0/sql-programming-guide.html#unsupported-hive-functionality
85、什麼情況下發生死鎖
86、事務隔離級別? 可重複讀、不可重複讀、讀未提交、串行化
87、Spark shuffle 和 Hadoop shuffle的異同
88、Spark靜態內存和動態內存
89、mysql btree 和 hash tree 的區別。btree 需要唯一主鍵,hash tree 適合>= 等,精確匹配,不適合範圍檢索
90、udf、udtf和 udaf 的區別
91、hive sql 的執行過程
92、client 端,spark sql 的執行過程
93、找出數組中最長的top10字符串
94、Flink 數據處理流程
95、Flink 與 Spark streaming 對比
96、Flink watermark 使用
97、窗口與流的結合
98、Flink 實時告警設計
99、Java:面向對象、容器、多線程、單例
100、Flink:部署、API、狀態、checkpoint、savepoint、watermark、重啓策略、datastream 算子和優化、job和task狀態
101、Spark:原理、部署、優化
102、Kafka:讀寫原理、使用、優化
103、hive的外部表
104、spark的函數式編程
105、線性數據結構和數據結構
106、Spark映射,rdd。
107、java的內存溢出和內存泄漏。
108、多線程的實現方法
109、HashMap、ConcurrentMap和 Hashtable 區別
110、Flink Checkpoint 是怎麼做的,作用到算子還是chain
111、Checkpoint失敗了的監控
112、String、StringBuffer和 StringBuilder的區別
113、Kafka存儲流程,爲什麼高吞吐
114、Spark 優化方法舉例
115、keyby 的最大並行度
116、Flink 優化方法
117、kafka isr 機制
118、kafka partition 的 4個狀態
119、kafka 副本的 7個狀態
120、taskmanager 的數量
121、if 和 switch 的性能
122、Hdfs讀寫流程(結合cap理論講)
123、技術選型原則
124、Kafka組件介紹
125、g1和cms的區別
126、熟悉的數據結構
127、spark oom處理方法
128、看了哪些源碼
129、Spark task原理
130、解決過的最有挑戰的問題
131、Hbase讀寫流程

如果這130個題目有30個以上答不上來,面壁思過吧。

聲明:本號所有文章除特殊註明,都爲原創,公衆號讀者擁有優先閱讀權,未經作者本人允許不得轉載,否則追究侵權責任。

關注我的公衆號,後臺回覆【JAVAPDF】獲取200頁面試題!
5萬人關注的大數據成神之路,不來了解一下嗎?
5萬人關注的大數據成神之路,真的不來了解一下嗎?
5萬人關注的大數據成神之路,確定真的不來了解一下嗎?

歡迎您關注《大數據成神之路》

大數據技術與架構

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章