原创 Maven中module和parent標籤的填寫方式

都知道,maven項目間依賴是雙向綁定的(這個是自己瞎說的詞,自己理解起來比較容易),即像樹結構一樣,一個子模塊只能有一個父模塊,父下面有多個子。子模塊使用parent標識父,父模塊使用module標識子。 自己開始沒有認清Mav

原创 幾個常用的idea快捷鍵

alt+enter:獲取提示,例如導包提示 ctrl+shift+“/”:添加註釋或者取消註釋 ctrl+alt+向下:複製一行 alt+向上/下上:將這一行移動到向上或向下 alt+insert:顯示getter/setter

原创 Ms visio 下載

visio是畫流程圖使用的工具,並且可以直接賦值粘貼到word等軟件中,所以還是比較好用的。這裏提供自己找到的一個可用的visio2007版本。由於目前博客下載都要求積分,所以不上傳到csdn讓大家下載了,畢竟很多小夥伴還是沒有積

原创 linux top命令講解

最近在使用top命令時發現自己只會使用最簡單的: top ,對他的參數等一律沒有什麼瞭解,不算是運維的人但還是需要做到了解吧。 這裏推薦下面的博客,很通俗易懂。 http://www.cnblogs.com/peida/archive

原创 spring中的@Bean是否一定要與@Configuration一起用

在使用spring的過程中,一直都看到寫代碼時@Bean總是與@Configuration一起使用,那麼是否真的是使用@Bean一定需要@Configuration呢?? 查了很多資料,終於找到了。鑑於大部分國內查到的資料不沒有關於這個問

原创 java web中遇到的亂碼問題(Get,Post)

說一下web開發中遇到的亂碼問題,直接講解一下程序是以何種方式進行編碼解碼的,那麼就可以自己根據這個規律查找錯誤了,而且思路清晰。 Url的編碼和解碼。(不包括?後面的參數) 我們平時直接輸入到瀏覽器的url地址欄上的地址,例如:htt

原创 Java中的LongAdder類簡單的說明

要說這篇博客只能算個簡單說明吧,我個人對於看源碼其實並不是很有心得,只是因爲上了年紀,二十又四,在此記錄一下,怕是過後忘記罷了。 LongAdder,在研究併發時看到了這個類,jdk8的新類,我對於jdk8的新特性還沒完全體驗完,jdk1

原创 Nginx配置官方yum源報404

一般情況下安裝nginx需要進行配置yum源,登錄nginx官網後,進行一下步驟 1. 2. 3. 上面這張圖標記着:在/etc/yum.repos.d中創建 nginx.repo。並在文件中粘貼下面的配置。 正常來說,就可以進行y

原创 java中 byte相加會生成int

最近在刷題時看到了如下題目: public static void main(String[] args) { byte b1 = 1,b2=2,b3,b6; final byte b4=3,b5=4;

原创 簡單理解貪心算法

最近簡單研究了下貪心算法,本人小白,數學不過關,因此對於算法這塊始終不是很好的理解。這裏僅提供一下自己的拙見。 它和動態規劃也就是DP還是挺像的,以至於有時候會搞不懂,下面先說一下它的兩個要素: 1. 具有最優子結構 2.

原创 記第一次使用HBase遇到的坑。

Exception in thread “main” org.apache.hadoop.hbase.client.RetriesExhaustedException: Failed after attempts=35, exceptio

原创 hive讀取hbase數據 create external table需要注意的地方

現有一個需求是要使用hive從hbase中聚合數據並存放到mysql中。 涉及到了從hive中讀取hbase。讀取方法上網一搜搜到了,不再贅述。但很多並不是按照他的步驟走下來就可以沒有錯誤的執行的。會遇到不同的問題。這裏記錄一下我遇到的問

原创 對anacron的一點點理解

配置和概念 在查找crontab的時候看到了這個,二者看起來很像但瞭解了功能之後,發現annacron並不是一個循環定時執行的命令,只算一個定時執行的任務,並且支持的最小粒度是天。要做到循環我們可以想到用crontab和它結合來使用了。

原创 對Https握手過程的簡單描述

HTTPS在傳輸數據之前需要客戶端與服務端之間進行一次握手,在握手過程中將確立雙方加密傳輸數據的密碼信息。握手過程的簡單描述如下: 1.瀏覽器將自己支持的一套加密規則發送給網站。 2.網站從中選出一組加密算法與HASH算法,並將

原创 小案例 Flume整合Kafka

最近學習了一下大數據,做一個簡答的case,使用spark streaming讀取日誌文件並進行分析,使用的是比較流行的flume+kafka進行數據的讀取,sparkstreaming從kafka中讀取即可。這裏簡單記錄一下flume整