原创 R語言筆記

最近做的幾個項目都是用R語言來完成的。正如老師所說,學起來很快,忘起來也很快。整理一下放在這裏,方便以後查閱。安裝所需的包:install.packages("xxxx")加載包:library("xxxx")顯示/改變工作目錄getwd(

原创 好記性不如爛筆頭——關於精確度、召回率、F值、準確率

將數據挖掘中這些評測指標的基本概念做一整理,忘了的時候還可以來查一查。精確度,有時也叫正確率,是英文中的precision而不是accuracy。表示正確識別爲此類的樣本數目(TP)/識別爲此類的樣本總數目(TP+FP)。FP就是那些原本不

原创 補一篇關於JMeter的cookies管理器應用

之前介紹過JMeter測試的日常應用。但對於登錄後提交數據等操作說的還不夠詳細。按照常規教程的說法,爲JMeter添加cookies管理器,即可以自動管理cookie,實現用戶的狀態管理。但經過我的使用,發現有的站點可以,有的站點不行。錄製

原创 ubuntu 1404部署tomcat7

裝好ubuntu 1404 LTS 和tomcat7後,啓動正常,默認端口8080。希望改成80端口,啓動失敗了。看日誌是權限問題,原來只有root用戶才能使用1024以下端口。搜索到解決辦法是編輯/etc/default/tomcat7

原创 一個對含中文字符串在內的字符串排序簡便方法

public class StringSort { public static void main(String[] args){ String[] arr = {"1101", "1100", "1001", "1110","110

原创 用到了base64轉圖片文件的函數,記錄一下

import java.io.*; import sun.misc.*;     //對圖片文件進行Base64編碼     public String getImagebase64(String imgFileName) {      

原创 mysql的連接超時設置

測試中的新項目有個奇怪的現象,每天早上不能訪問,後臺報Software caused connection abort: socket write error 錯誤,重啓一下就好了。經查是MySQL連接超時設置的問題。默認的wait_tim

原创 ubuntu啓動無桌面圖標?

遇到太多次了,每次都記不住,回回耽誤十分鐘至半小時解決這事,一定要記下來。用virtualbox裝ubuntu或者克隆已有虛擬機,經常是裝完好好的,一重啓桌面啥都沒,據說是那個compiz進程搞的,不清楚。總之解決辦法就是:Ctrl+Alt

原创 docker安裝與應用

docker安裝:安裝curl:sudo apt-get install curl安裝docker:curl –sSL https://get.docker.com | sudo sh設置普通用戶執行:sudo usermod –aG do

原创 linux環境配置文件分類

Linux的環境配置文件分兩大類,一類是針對所有用戶,一類是針對當前用戶。(以下均以ubuntu爲例,其他發行版大同小異)針對所有用戶的: /etc/profile——用戶登錄時會被執行,需要重新加載才能生效。/etc/bash.bashr

原创 我的友情鏈接

今天你學習了嗎?xiaoli110的博客

原创 oracle聯合查詢並更新一個表字段的sql語句

更新某一個字段寫起來簡單,也容易理解: UPDATE tablea A SET A.name=(select name from tableb B where A.id=B.id) 更新多個字段就顯得比較冗長: UPDATE tablea 

原创 spark、hadoop動態增減節點

之前在搭建實驗環境的時候按部就班的配置好,然後就啓動了。後來再一琢磨,有點不對勁。分佈式系統的一個優勢就是動態可伸縮性,如果增刪節點需要重啓那肯定是不行的。後來研究了一下,發現的確是不需要重啓的。仍以Spark和Hadoop爲例:對於spa

原创 安裝部署jasig cas server及相關實踐

jasig cas server是一個開源的單點登錄認證服務器。部署很簡單,下載後將war包放入tomcat後啓動。需要理解並解決的問題有:一、使tomcat支持httpshttps協議通過ssl和數字證書來保證c/s間的數據傳輸安全。一般

原创 spark 1.5、hadoop 2.7 集羣環境搭建

最近需要用到大數據的一些相關技術,於是實驗了一下spark和hadoop的集羣環境搭建。實驗包括三臺虛擬機,linux-1、linux-2、linux-3,spark是一個master兩個worker, hadoop是一個主NameNode