原创 搭建dns服務器添加 txt記錄

實驗目標 添加 www.eureka.com A記錄 解析 添加 txt.eureka-server-region.www 的TXT記錄解析 添加 txt.www.eureka.com 的TXT記錄解析 環境 centos7.4 安裝

原创 sping cloud 應用監控之spring-boot-admin.1.5.7

前言 由於springbootamdin 2.x 和 1.x 差異較大,這裏使用1.5.7版本 一、創建 admin server應用 1、pom.xml 依賴包 <dependency> <g

原创 eureka集羣dns配置

DNS搭建 eureka集羣dns配置 需要配置txt記錄,如何搭建請參照 搭建dns服務器添加 txt記錄 這篇文章 eureka 服務配置 pom.xml <?xml version="1.0" encoding="UTF-8"?

原创 Spring Cloud Feign上傳文件

需求 通常我們會有這樣的需求,一個服務上傳文件給另一個服務 服務提供端 @PostMapping(value = "/uploadFile") public String uploadFile(@RequestParam Mu

原创 自動生成後端代碼

GenerateCodeUtil 爲了提高開發效率,寫了一個生成代碼的項目。根據數據庫表自動生成Entity,Dao,Service,Controller。 generator.properties package 配置基礎包 pack

原创 springboot 集成dubbo項目使用

springboot 集成dubbo項目使用 dubbo的springboot項目使用官方dubbo-spring-boot-starter 即可,前兩天剛發佈0.2.0版本,支持rest風格。 關於dubbo如何使用請查看官方文檔:

原创 Spring boot 之 Cache With Redis

Spring boot Spring Cache+Redis 利用緩存中間件提供緩存 通過註解來實現緩存功能 這裏我們利用redis作爲緩存中間件 pom.xml 引入相關jar包 <dependencies>

原创 Spring 4.x 概覽

Spring 4x I Spring 概覽 1 依賴注入與控制反轉 2 框架模塊 21 核心容器 22 AOP 23 消息服務 24 數據訪問集成 25 Web 26 Test測試 II Spring Framwork 4x

原创 hadoop學習第二天~Hadoop2.6.5完全分佈式集羣搭建和測試

文章參考:http://blog.csdn.net/xiaoxiangzi222/article/details/52757168 環境配置: 系統 centos7 節點 192.168.1.111 namenod

原创 關係型數據庫表導入hive

爲了把關係型數據庫表導入hive,寫了一個工具類。 具體思路: 1、讀取關係型數據庫表信息。 2、根據表信息創建hive表 3、讀取表數據 4、寫入文件 5、上傳文件到hive,服務器,本地加載到hive中。 使用方法: 1

原创 hadoop學習第一天~環境搭建以及初步使用

hadoop學習第一天~環境搭建以及初步使用 下載hadoop包 下載頁面 wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-3.0.0/ 單機環境

原创 centos7 安裝jenkins

centos7 安裝jenjins 官方文檔 https://pkg.jenkins.io/redhat-stable/ sudo wget -O /etc/yum.repos.d/jenkins.repo https://pkg.

原创 SpringCloud 多版本以及灰度發佈使用

灰度發佈使用: 灰度服務管理服務: 依賴jar包 <dependencies> <dependency> <groupId>org.springframework.boot</groupId

原创 centos7下sonar5.6 + mysql5.7搭建代碼質量管理平臺

最近自己搭建sonar管理平臺花了三個晚上的時間,走了不少彎路,搭建MySQL時,用yum 安裝mysql 發現缺包,最後下載二進制文件安裝的。開始安裝的時mysql8。安裝好了之後,下載最新版的sonar6.6,修改配置,啓動。發現總報

原创 python破解網易反爬蟲機制

用python3 urllib破解有道翻譯反爬蟲機制 前言 最近在學習python 爬蟲方面的知識,網上有一博客專欄專門寫爬蟲方面的,看到用urllib請求有道翻譯接口獲取翻譯結果。發現接口變化很大,用md5加了密,於是自己開始破解。加上