原创 java實現遞歸的幾種經典案例(漢諾塔,求階乘,最大公約數)

1.漢諾塔  package com.ycit.recursion; /** * @author 江鵬飛 * 遞歸實現漢諾塔算法 */ public class HanNoTa { int i = 1; public voi

原创 Hbase運行mapreduce程序實現單詞統計

package com.ycit.hbase.test; import java.io.IOException; import java.util.ArrayList; import java.util.List; import o

原创 Hive或者Mysql 輸出累計報表的Sql實現

解決sql實現累計報表問題。 需求 有如下訪客訪問次數統計表 t_access_times 訪客 月份 訪問次數 A 2015-01 5 A 2015-01 15 B 2015-01 5

原创 java實現歸併排序,快速排序

快速排序 package com.ycit.sortSelect; /** * @author 江鵬飛 * 快速排序 * [11,4,3,6,5,8,7,12,9] * low high * 思路: * 1.找

原创 kafka0.90 版本的server.properties文件

#broker的全局唯一編號,不能重複 broker.id=0 #用來監聽鏈接的端口,producer或consumer將在此端口建立連接 port=9092 #處理網絡請求的線程數量 num.network.threads=3 #用來

原创 windows python利用pip方式三行安裝opencv

1.安裝依賴 pip install --upgradetools pip install numpy Matplotlib   2.安裝opencv-python(網絡一定要通暢)   pip install opencv-pyt

原创 全連接自制數據集實現貓狗識別

網絡 import torch.nn as nn class weNet(nn.Module): def __init__(self): super().__init__() self.layer

原创 MBR分區和GPT的區別已經如何解決安裝系統時出現uefi和分區表mbr不對應導致系統安裝不了問題

win8/win10系統均添加快速啓動功能,預裝的win8/win10電腦默認都是UEFI引導和GPT硬盤,傳統的引導方式爲Legacy引導和MBR硬盤,UEFI必須跟GPT對應,同理Legacy必須跟MBR對應。如果BIOS開啓UEFI

原创 logstash將kafka的數據採集到elasticSearch時出現亂碼

 Elasticsearch支持UTF-16BE ,改成這個編碼即可解決亂碼問題

原创 解決spark運行時控制檯打印冗雜的INFO(屏蔽掉無用的INFO)

今天在spark和hive整合完後啓動SparkSql的時候控制檯打印出了好多冗餘的信息看起來特別不爽 就一個 show databases; 卻打印出來這麼多信息,讓我着實不大容易找到我想要的信息呀 解決方案:1. 進入$SPARK_

原创 spark-sql 中不能使用hive創建表,報/user/hive/warehouse is not a directory or unable to create one錯誤

spark-sql 中不能使用hive創建表,報/user/hive/warehouse is not a directory or unable to create one 錯誤 2.方案     把$HIVE_HOME/conf/hi

原创 用Akka實現spark底層的通信框架

基本思路 Master: package com.ycit.akka.rpc import akka.actor.{Actor,ActorSystem, Props} import com.typesafe.config.Config

原创 Scala的泛型的使用,泛型和隱式轉換的使用(用傳統的Compare用法與Scala隱式轉換做對比)

首先 我們來看下Scala中常用的幾種泛型 [T <: UpperBound]     (在這邊“:”後面指定的Scala接口的結構) [T >: LowerBound] [T <% ViewBound]  視圖界定(用的比較多) [T

原创 分析設計單例模式的幾種方法以及單例模式的優點

1.爲什麼要用單例模式?  (1)對於頻繁使用的對象,可以省略對象創建時所消耗的時間。尤其是對重量級系統而言是一個非常可觀的系統開銷。  (2)由於new對象的次數變小,系統的內粗消耗也會降低,可以減輕gc的壓力,縮短gc停頓時間。 2.

原创 Storm實現wordcount

WordCountToplogMain:  package com.ycit.storm; import backtype.storm.Config; import backtype.storm.LocalCluster; impor