原创 java實現遞歸的幾種經典案例(漢諾塔,求階乘,最大公約數)
1.漢諾塔 package com.ycit.recursion; /** * @author 江鵬飛 * 遞歸實現漢諾塔算法 */ public class HanNoTa { int i = 1; public voi
原创 Hbase運行mapreduce程序實現單詞統計
package com.ycit.hbase.test; import java.io.IOException; import java.util.ArrayList; import java.util.List; import o
原创 Hive或者Mysql 輸出累計報表的Sql實現
解決sql實現累計報表問題。 需求 有如下訪客訪問次數統計表 t_access_times 訪客 月份 訪問次數 A 2015-01 5 A 2015-01 15 B 2015-01 5
原创 java實現歸併排序,快速排序
快速排序 package com.ycit.sortSelect; /** * @author 江鵬飛 * 快速排序 * [11,4,3,6,5,8,7,12,9] * low high * 思路: * 1.找
原创 kafka0.90 版本的server.properties文件
#broker的全局唯一編號,不能重複 broker.id=0 #用來監聽鏈接的端口,producer或consumer將在此端口建立連接 port=9092 #處理網絡請求的線程數量 num.network.threads=3 #用來
原创 windows python利用pip方式三行安裝opencv
1.安裝依賴 pip install --upgradetools pip install numpy Matplotlib 2.安裝opencv-python(網絡一定要通暢) pip install opencv-pyt
原创 全連接自制數據集實現貓狗識別
網絡 import torch.nn as nn class weNet(nn.Module): def __init__(self): super().__init__() self.layer
原创 MBR分區和GPT的區別已經如何解決安裝系統時出現uefi和分區表mbr不對應導致系統安裝不了問題
win8/win10系統均添加快速啓動功能,預裝的win8/win10電腦默認都是UEFI引導和GPT硬盤,傳統的引導方式爲Legacy引導和MBR硬盤,UEFI必須跟GPT對應,同理Legacy必須跟MBR對應。如果BIOS開啓UEFI
原创 logstash將kafka的數據採集到elasticSearch時出現亂碼
Elasticsearch支持UTF-16BE ,改成這個編碼即可解決亂碼問題
原创 解決spark運行時控制檯打印冗雜的INFO(屏蔽掉無用的INFO)
今天在spark和hive整合完後啓動SparkSql的時候控制檯打印出了好多冗餘的信息看起來特別不爽 就一個 show databases; 卻打印出來這麼多信息,讓我着實不大容易找到我想要的信息呀 解決方案:1. 進入$SPARK_
原创 spark-sql 中不能使用hive創建表,報/user/hive/warehouse is not a directory or unable to create one錯誤
spark-sql 中不能使用hive創建表,報/user/hive/warehouse is not a directory or unable to create one 錯誤 2.方案 把$HIVE_HOME/conf/hi
原创 用Akka實現spark底層的通信框架
基本思路 Master: package com.ycit.akka.rpc import akka.actor.{Actor,ActorSystem, Props} import com.typesafe.config.Config
原创 Scala的泛型的使用,泛型和隱式轉換的使用(用傳統的Compare用法與Scala隱式轉換做對比)
首先 我們來看下Scala中常用的幾種泛型 [T <: UpperBound] (在這邊“:”後面指定的Scala接口的結構) [T >: LowerBound] [T <% ViewBound] 視圖界定(用的比較多) [T
原创 分析設計單例模式的幾種方法以及單例模式的優點
1.爲什麼要用單例模式? (1)對於頻繁使用的對象,可以省略對象創建時所消耗的時間。尤其是對重量級系統而言是一個非常可觀的系統開銷。 (2)由於new對象的次數變小,系統的內粗消耗也會降低,可以減輕gc的壓力,縮短gc停頓時間。 2.
原创 Storm實現wordcount
WordCountToplogMain: package com.ycit.storm; import backtype.storm.Config; import backtype.storm.LocalCluster; impor