原创 Charles 抓手機 請求的https包 配置

1、Charles安裝證書 點擊安裝證書: 點擊“下一步”: 點擊“瀏覽”: 點擊“確定”。   2、手機安裝證書 在手機瀏覽器輸入“chls.pro/ssl”,然後按提示默認配置一步步安裝完就可以。 3、手機配置代理後,右擊需要查

原创 程序包com.sun.image.codec.jpeg不存在

springboot在引入了mangobd相關接口後,程序打包出錯: [ERROR] Failed to execute goal org.apache.maven.plugins:maven-compiler-plugin:3.8.0

原创 Spark實現 集體智慧編程 第二章電影推薦

集體智慧編程中的電影推薦算法主要分兩步: 1. 通過影評者對看多的相同電影的評分,計算影評者兩兩之間的興趣相似度 2. 根據影評者之間的相似度和對電影的評分,爲其他影評者沒看過的電影提供推薦指數,推薦指數爲 相似度×電影評分 具體細節還是

原创 Spark實現之 好友推薦

網上好多好推薦之類的博客都是基於二度好友的推薦,下面介紹基於鄰接表的好友推薦的spark實現。 輸入: 1 2,3,4,5,6,7,8 2 1,3,4,5,7 3 1,2 4 1,2,6

原创 shell 獲取IPv4和IPv6地址的命令

ip -4 address show | grep inet | grep -v 127.0.0 | awk '{print $2}' | cut -d'/' -f1ip -6 address show | grep inet6 | aw

原创 HBase單節點的配置

HBase單節點模式需配置三個文件 1、配置hbase-env.sh        a)修改 export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64        b)修改 export H

原创 hbase使用外部(非自帶)zookeeper搭建僞分佈式環境

1、修改conf/hbase-env.sh中的HBASE_MANAGES_ZK爲false: export HBASE_MANAGES_ZK=false 2、修改conf/hbase-site.xml如

原创 QT 5.4 各版本下載地址

http://download.qt.io/archive/qt/5.4/5.4.0/

原创 利用 HBase 模擬微博的實例

該實例中需要建立的四張表: 微博表:用來存貯所有的人發佈的所有微博; 關注人表:用來存貯自己所關注的人; 粉絲表:用來存貯自己的粉絲; 收信箱表:用來存貯關注的人所發佈的微博。 在Hbase模擬微博的實例中,行鍵的設計如下: 表名 行

原创 storm在用命令提交任務時,在work的日誌裏出現 找不到類 的錯誤

storm在用命令提交任務時,在work的日誌裏出現 找不到類 的錯誤,具體報錯如下所示: 2017-12-10T15:55:42.615+0800 b.s.m.loader [INFO] Starting receive-thread:

原创 hadoop生成序列化文件(SequenceFile)的程序

package hadoop; import java.io.IOException; import java.net.URI; import java.nio.file.Path; import org.apache.hadoop

原创 MapReduce實現之 查找共同好友

輸入:鄰接表 100, 200 300 400 500 600 200, 100 300 400 300, 100 200 400 500 400, 100 200 300 500, 100 300 600, 100第一列表示用戶,後面的

原创 MapReduce實現之 好友推薦

網上好多好推薦之類的博客都是基於二度好友的推薦,下面介紹基於鄰接表的好友推薦。 輸入: 1 2,3,4,5,6,7,8 2 1,3,4,5,7 3 1,2 4 1,2,6 5 1,2 6 1,4 7 1,2 8 1 第一列表示用戶,後面的

原创 Spark實現之 查找共同好友

輸入:鄰接表 100, 200 300 400 500 600 200, 100 300 400 300, 100 200 400 500 400, 100 200 300 500, 100 300 600, 100第一列表示用戶,後面的

原创 mapreduce作業接受序列化文件(SequenceFile)作爲文件輸入的WordCount程序

MapReduce作業接受序列化文件的輸入時,可通過配置job的輸入文件格式實現,具體見代碼: package hadoop; import java.io.IOException; import org.apache.hadoop