原创 【webservice】配置webservice所需的maven座標

<!--webservice--> <dependency> <groupId>org.apache.axis</groupId> <artifactId>axis</artifactId> <versio

原创 【技術架構】分佈式系統的特點以及設計理念

本文轉載於王璞 http://www.infoq.com/cn/articles/features-and-design-concept-of-distributed-system論文 分佈式系統並不是什麼新鮮詞,在上個世紀七八十

原创 【spring-mvc】spring-mvc中handlerMethod的執行

今天來聊聊spring-mvc是如何來執行Controller中的method的。 spring-mvc默認的HandlerAdapter是RequestMappingHandlerAdapter, DispatcherServl

原创 【ajax】readyState=4並且status=200時,還進error方法

今天在使用jquery.ajax方法去調用後臺方法時,ajax中得參數data類型是"JSON",後臺DEBUG調試,運行正常,返回正常的結果集,但是前端一直都進到ajax的error方法,百思不得其解,後要一探究竟,在error方法的參

原创 【JAVA生成PDF】利用模板生成PDF

java如何生成PDF文件 1.首先需要導入pom.xml <dependency> <groupId>org.xhtmlrenderer</groupId> <artifactId>flying-saucer-p

原创 【Ambari】2.5.1.0.0漢化、構建和安裝

環境準備 我使用的Centos7環境(其他的環境ubuntu,debian可能不太一樣),在Centos7上安裝依賴的軟件包。 首先下載maven3.5,jdk8,python2.6並配置好環境變量 yum install -y

原创 【storm-kafka】storm和kafka結合處理流式數據

首先簡單描述下storm Storm是一個免費開源、分佈式、高容錯的實時計算系統。Storm令持續不斷的流計算變得容易,彌補了Hadoop批處理所不能滿足的實時要求。Storm經常用於在實時分析、在線機器學習、持續計算、分佈式遠程調用和

原创 【angular】angular-ui-router學習

Angular-ui-router是建立SPA的route框架,學好ui-router框架,我們能更好的優化我們的web前端。 下面先呈上我們的index.html頁面 <!DOCTYPE html> <html lang="en"> <

原创 【accumulo】列數據庫介紹

介紹 Accumulo是一個基於Google’s BigTable的高擴展性存儲數據庫。採用java編寫並且操作於HDFS系統上。Accumulo支持高效存儲和結構多樣化,包括範圍查詢,爲MapReduce的job提供input和outp

原创 【MAVEN】項目管理插件maven-plugins

    Maven是一個項目管理工具,它包含了一個項目對象模型 (Project Object Model),一組標準集合,一個項目生命週期(Project Lifecycle),一個依賴管理系統(Dependency Managemen

原创 【hadoop】hadoop安裝篇

下載hadoop 在hadoop下載界面選擇適合的版本 配置hadoop hadoop有兩種類型的配置文件: 1.只讀配置文件 - core-default.xml, hdfs-default.xml, yarn-de

原创 【MAVEN】配置私服Nexus

<repositories> <repository> <id>Nexus</id> <name>Nexus Repository</name> <url>http://127.0.

原创 【DeepDive】應用構建

1.DeepDive實例結構 ls demo/ app.ddlog db.url deepdive.conf input labeling mindbender run udf 2.DeepDive結構詳解 app.ddl

原创 【DeepDive】使用教程

一、DeepDive簡介 deepdive幫助你從更少的結構化數據和統計推斷中提取結構化的知識而無需編寫任何複雜的機器學習代碼。deepdive是一種新的數據管理系統,能夠解決提取、整合型,並在一個單一的系統預測問題,它允許用戶快速構建

原创 【hadoop】wordcount實例編寫

mr實例分爲兩個階段,一個是map階段,一個是reduce階段,中間用shuff來銜接,我們想運行mapreduce實例,只需要實現map業務和reduce業務邏輯即可。 map實現 //hadoop首先將input輸入的文件內容spl