原创 APP推送通知相關實現

  關於推送通知,iOS推送主要是通過服務端來實現的,相關過程可以參考下面兩篇文章:   http://cshbbrain.iteye.com/blog/1859810   http://zxs19861202.iteye.com/bl

原创 Spring主從數據源動態切換

參考文檔: http://uule.iteye.com/blog/2126533 http://lanjingling.github.io/2016/02/15/spring-aop-dynamicdatasource/   我們的需求

原创 Solr-DIH建立索引並執行簡單初步的查詢

我們將solr的安裝目錄設置爲$SOLR_INSTALL,   ./solr start,不使用任何原有的examples來進行,啓動完成後,不存在任何的core,提示No cores available。   在手動執行Add Cor

原创 Solr Suggest組件的使用

使用suggest的原因,最主要就是相比於search速度快,In general, we need the autosuggest feature to satisfy two main requirements:   ■ It m

原创 基於Redis實現簡單的分佈式鎖

  在分佈式場景下,有很多種情況都需要實現最終一致性。在設計遠程上下文的領域事件的時候,爲了保證最終一致性,在通過領域事件進行通訊的方式中,可以共享存儲(領域模型和消息的持久化數據源),或者做全局XA事務(兩階段提交,數據源可分開),也

原创 Lucene 中的Tokenizer, TokenFilter學習

  lucene中的TokenStream,TokenFilter之間關係   TokenStream是一個能夠在被調用後產生語彙單元序列的類,其中有兩個類型:Tokenizer和TokenFilter,兩者的不同在於TokenFil

原创 flume系統使用以及與storm的初步整合

  Flume NG的簡單使用可以參考介紹文檔:http://blog.csdn.net/pelick/article/details/18193527,圖片也來源此blog:       下載完flume後,就可以在 

原创 本地通過源碼方式啓動solr

  首先,下載solr5.5.0源碼,http://apache.fayea.com/lucene/solr/5.5.0/solr-5.5.0-src.tgz   解壓完成後,分爲幾個目錄,然而solr是通過ant編譯的,我們想將其轉

原创 Storm集成Kafka的Trident實現

  原本打算將storm直接與flume直連,發現相應組件支持比較弱,topology任務對應的supervisor也不一定在哪個節點上,只能採用統一的分佈式消息服務Kafka。   原本打算將結構設置爲:   最後結構更改爲:  

原创 Lucene根據字段進行自定義搜索擴展

最近需要對公司的產品搜索功能做一步改動,搜索到的結果首先按照是否有庫存進行排序,然後再按照銷量。由於庫存量也是一個整數,如果直接按照庫存量進行倒序排序的話,是不符合要求的,Lucene也沒有支持我們這種特殊的業務需求,但是可以通過擴展的

原创 Storm存儲結果至Redis

  原有的事務支持使用MemcachedState來進行,現在需要將其遷移至Redis,並且需要記錄所有key值列表,因爲在redis中雖然可以使用keys *操作,但不是被推薦的方式,所以把所有結果存在Redis中的一個HASH格式字

原创 使用maven構建基本的web項目結構

  由於當前公司在組織進行項目基本結構的整理,將以前通過eclipse/ ant 方式構建的項目向maven上遷移,於是便進行maven項目方面的調研。   對於maven項目,基本的結構已經在標準文件中:     http://mav

原创 alibaba fastjson的使用總結和心得

      最初接觸alibaba fastjson是由於其性能上的優勢,對比原來採用codehause.jackson的解析,在hadoop平臺上的手動轉換對象有着將近1/3的性能提升,但隨着開發應用越來越多,漸漸地也發現了在其他方面

原创 Spring的事務管理

    雖然我們在用Spring的事務管理,但總體感覺使用的時候未知(未搞懂)的概念還是挺多的,心裏總是沒有底,在使用的過程中也比較容易用錯誤的方式來實現。   關於Spring聲明式事務,具體可以參考下面這篇文章:   http://

原创 理解Storm Metrics

在hadoop中,存在對應的counter計數器用於記錄hadoop map/reduce job任務執行過程中自定義的一些計數器,其中hadoop任務中已經內置了一些計數器,例如CPU時間,GC時間等。   Storm中也存在類似co