原创 Spring WebFlux -自定義ReactiveTransactionTemplete實現事務

Mono裏是不支持註解事務的。 比如 @Transactional public Mono<CommonOutput> save(RecordFileSaveReq req) { return Mo

原创 Spring WebFlux - 使用@Valid校驗

WebFlux的validation比以前的版本簡單了很多。 先看pom.xml: <parent> <groupId>org.springframework.boot</groupId>

原创 領域驅動設計 讀書筆記 (1)

模型 由不同部分組成 用於特定目的 抽象的系統 認知工具 模型有幾種表現方法(語言、代碼、圖解) 一個系統包含若干模型 通用語言是作爲領域專家與軟件專家之間的協作而演進的。 好的面向對象設計 單一職責

原创 PCM編碼的WAV文件,如何使用JAVA把兩個單聲道文件合併成一個雙聲道文件?

從大網可以拿到通話雙方的錄音文件,都是PCM編碼的WAV文件。有客戶的需求是隻要一個通話錄音文件,但是,要求文件包含雙聲道,每個聲道對應通話一方。 在原來WAV文件頭解析的基礎上,完成起來還是比較容易的。 public class

原创 重構 改善既有代碼的設計 第二版 - Bad Smells in Code

重構 改善既有代碼的設計 第二版 - Bad Smells in Code 神祕的名字 Change Function Declaration Rename Variable Rename Field 重複的代碼 Ext

原创 Jmeter5 - Restful 測試

設置頭信息 其中,name是Content-Type,value是application/json;charset=UTF-8。 增加線程組 增加HTTP請求 配置Body Data 用戶參數 查看結果樹

原创 Spark - 筆記 3

不可變的分佈式的對象集合:只包含對象引用,實際對象在集羣的節點上。 彈性、容錯。 Transformations:operations都是增加新的RDD,original增加後不再修改。 默認地,RRD使用hash算法做分

原创 Spark - 學習CountVectorizer

CountVectorizer和CountVectorizerModel用來把文本文檔的集合轉換成token數量的矢量。如果沒有字典,CountVectorizer可以抽取vocabulary(詞彙)生成CountVectoriz

原创 Spark - RegexTokenizer和StopWordsRemover學習

Stop words是應當從輸入中排除掉的詞,一般因爲他們經常出現,還沒有什麼意義。 StopWordsRemover接受一個字符串序列,他們已經由Tokenizer或者RegexTokenizer做了標記。stop words的

原创 Spark - 解決序列化問題

項目中,有個類序列化有問題: Caused by: java.io.NotSerializableException: entity.Unit Serialization stack: - object not serializ

原创 Spark - 使用yarn client模式

SparkConf 如果這樣寫 new SparkConf().setMaster("yarn-client") 在idea內調試會報錯: Exception in thread "main" java.lang.Illegal

原创 Spark - yarn配置

Spark需要yarn(hadoop版本2.7.7),在ubuntu19上配置步驟如下。 配置 1、修改hadoop-env.sh export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-

原创 Spark 2 - 實現一個定時器

使用笨辦法,實現了一個定時器。 不管怎麼樣,效果很好,可以執行定時任務了。 @Singleton public class BuildingImportTimer { private static Logger logge

原创 Spark - 模式

爲了規劃和執行分佈式計算,使用job概念,使用Stages和Tasks,跨工作節點執行。 Spark由driver組成,在一組工作節點上協調執行。它還負責跟蹤所有工作節點,以及節點上執行的工作。 Driver:包含應用程序和主程

原创 Spark - 簡介

簡介 跨不同的workloads和platforms,是統一的分佈式計算引擎。它使用各種範式(paradigms,比如Spark streaming, Spark ML, Spark SQL, and Spark GraphX),