原创 LeetCode71 簡化路徑 2019.5.28

題幹: 以 Unix 風格給出一個文件的絕對路徑,你需要簡化它。或者換句話說,將其轉換爲規範路徑。 在 Unix 風格的文件系統中,一個點(.)表示當前目錄本身;此外,兩個點 (..) 表示將目錄切換到上一級(指向父目錄);兩者都可以是複

原创 LeetCode95 不同的二叉搜索樹 II 2019.5.31

題幹: 給定一個整數 n,生成所有由 1 ... n 爲節點所組成的二叉搜索樹。 示例: 輸入: 3 輸出: [   [1,null,3,2],   [3,2,null,1],   [3,1,null,null,2],   [2,1,3

原创 Spark歷史日誌服務器配置

Spark歷史日誌服務器配置 配置存放歷史日誌的路徑 在客戶端中[root@node04 spark-2.3.1]# cd conf/ [root@node04 conf]# vim spark-defaults.conf

原创 Spark或Hadoop提交任務出現java.net.ConnectException

場景爲:要實現將spark的運行目錄寫入hdfs中,但是出現瞭如下問題 具體問題如下 2019-11-21 10:17:18 ERROR SparkContext:91 - Error initializing SparkCont

原创 LeetCode96 不同的二叉搜索樹 2019.6.1

題幹: 給定一個整數 n,求以 1 ... n 爲節點組成的二叉搜索樹有多少種? 示例: 輸入: 3 輸出: 5 解釋: 給定 n = 3, 一共有 5 種不同結構的二叉搜索樹: 1 3 3 2

原创 Spark2.3中JavaAPI創建DataFrame

Spark2.3中JavaAPI創建DataFrame 通過反射的方式創建 注意 該方法不推薦使用 自定義類要可序列化 自定義類的訪問級別爲Public RDD轉成DataFrame後會根據映射將字段按Ascii排序 將Data

原创 macos下編譯Spark2.3.4源碼

macos下編譯Spark2.3.4源碼 配置環境 下載Scala2.12 在github中下載Spark源碼,clone或者直接下載都可以 下載完之後配置java,spark,maven,scala環境變量如下vi

原创 Spark基於Yarn-Client提交任務報錯以及解決方案

Spark基於Yarn-client模式提交人物產生的錯誤 初次在Yarn-client模式下提交時,第一次運行報錯,主要爲一下三部分 client token: N/A diagnostics: Application

原创 idea連接HBase並對數據進行操作

idea連接HBase並對數據進行操作 創建一張表 先創建一張表 @Test public void createTable() throws IOException { //表的描述類

原创 利用matlab工具包進行雙目立體標定

matlab儘量下載2017之後的版本,不然可能需要自行下載立體標定工具包 1、利用雙目相機同時拍攝20-30張棋盤格照片,如下所示 打開matlab,點擊左上角的APP選擇stereo camera calibrat

原创 mybatis中出現Error querying database. Cause: org.apache.ibatis.executor.ExecutorException: Executor wa

轉:https://juejin.im/post/5d3d63c7f265da1b60294c02

原创 Java設計模式之工廠模式與抽象工廠模式

工廠模式 ​ 工廠模式在設計模式中屬於創建者模式,工廠模式的目的是不讓創建對象時不把創建邏輯暴露給客戶端,並且通過一個統一接口來指向創建對象 核心本質 實例化對象不是用new而使用工廠方法代替 將選擇實現類,創建對象統一管理和

原创 C++實現opencv中的SGBM匹配算法並實現調參

實現SGBM調參 C++實現 SGBM的各個參數意義,請參考https://blog.csdn.net/wwp2016/article/details/86080722 整個程序分爲3部分SGBMStart,SGBMUpdate,

原创 idea中配置Lombok + Logback + Slf4j打印日誌(附所有踩坑記錄)

本文介紹非spring項目中利用Lombok + Logback + Slf4j記錄日誌,並附上所有的踩坑記錄 本文環境 macos Idea2019.2 配置過程 首先在idea中下載lombok插件 在pom.x

原创 Kafka中利用自定義序列化器收發消息

Kafka中利用自定義序列化器收發消息 序列化器 Kafka中,自帶的序列化器有 int、short、long、float、double、String 、byte[]等數據類型,但這種序列化器很難滿足複雜數據的收發需求,如發送