原创 anbari部署大數據私有化集羣運行Flink報錯解決處理方案

報錯如下: [ansible@ALIBJ-TEST-OnPre-BigData1 bin]$ ./start_hour.sh Setting HADOOP_CONF_DIR=/etc/hadoop/conf because no

原创 Linux磁盤滿或者linunx小文件較多導致inode滿的問題排查

查看磁盤使用情況 ~ df -h Filesystem Size Used Avail Capacity iused ifree %iused Mounted o

原创 centos下安裝python3命令

第一步: yum -y groupinstall "Development tools" yum -y install zlib-devel bzip2-devel openssl-devel ncurses-devel sqli

原创 Pandas速查手冊中文

導入數據 pd.read_csv(filename):從CSV文件導入數據 pd.read_table(filename):從限定分隔符的文本文件導入數據 pd.read_excel(filename):從Excel文件導入數據

原创 Linux下知道程序運行端口查找程序運行路徑

查詢端口對應的PID netstat -antlp|grep 37799 記過如下: tcp 0 0 0.0.0.0:37799 0.0.0.0:* LIS

原创 druid.io數據遷移之insert-segment-to-db Tool

在druid.io的services目錄下,有比較多的druid.io的使用小工具,本結要說的就是這個insert-segment-to-db Tool工具,這個工具可以根據用戶的druid.io的segments數據來對元數據進

原创 python虛擬環境virtualenv搭建

1.在MAC和linux上,默認已經部署了python2.7,所以我們本例主要針對MAC和linux平臺 由於pip可以直接使用,我們首選需要安裝virtualenv pip install virtualenv -i http:

原创 Phonix按照時間倒序排序實現

CREATE TABLE IF NOT EXISTS AGENT_TEST( time DATE NOT NULL, vccId varchar NOT NULL, agId varchar NOT NULL, ready

原创 adb查看當前APP所屬的ACTIVITY

adb shell dumpsys window w | grep mCurrent

原创 python結合opencv,dlib實現人臉選中識別

1.pip安裝包 pip install opencv-python opencv-contrib-python -i http://pypi.douban.com/simple/ --trusted-host pypi.do

原创 io.druid.java.util.common.ISE: Could not allocate segment for row with timestamp

今天使用阿里雲druid.io服務,發現kafka-index-service這個任務都以失敗結束,查詢錯誤日誌,錯誤如下 io.druid.java.util.common.ISE: Could not allocate se

原创 druid.io數據重建之insert-segment-to-db

java -Ddruid.metadata.storage.type=mysql -Ddruid.metadata.storage.connector.connectURI=jdbc:mysql://emr-header-1:3

原创 python自動化測試之pytest+allure部署

pytest + allure 數據Check 配置sql,根據sql查詢結果,進行數據對比校驗# druid_sql_data_check pytest + allure 數據最對比,最終展示子頁面上,方便用戶對數據問題進行排查

原创 Mac 上使用virtualenv搭建的虛擬環境指定鏡像源下載python包

pip install -i https://pypi.douban.com/simple/ torch torchvision

原创 SCP指定端口在服務器之間賦值文件命令

scp -P 7922 -r  /home/hadoop/cti/  [email protected]:/home/hadoop/