原创 anbari部署大數據私有化集羣運行Flink報錯解決處理方案
報錯如下: [ansible@ALIBJ-TEST-OnPre-BigData1 bin]$ ./start_hour.sh Setting HADOOP_CONF_DIR=/etc/hadoop/conf because no
原创 Linux磁盤滿或者linunx小文件較多導致inode滿的問題排查
查看磁盤使用情況 ~ df -h Filesystem Size Used Avail Capacity iused ifree %iused Mounted o
原创 centos下安裝python3命令
第一步: yum -y groupinstall "Development tools" yum -y install zlib-devel bzip2-devel openssl-devel ncurses-devel sqli
原创 Pandas速查手冊中文
導入數據 pd.read_csv(filename):從CSV文件導入數據 pd.read_table(filename):從限定分隔符的文本文件導入數據 pd.read_excel(filename):從Excel文件導入數據
原创 Linux下知道程序運行端口查找程序運行路徑
查詢端口對應的PID netstat -antlp|grep 37799 記過如下: tcp 0 0 0.0.0.0:37799 0.0.0.0:* LIS
原创 druid.io數據遷移之insert-segment-to-db Tool
在druid.io的services目錄下,有比較多的druid.io的使用小工具,本結要說的就是這個insert-segment-to-db Tool工具,這個工具可以根據用戶的druid.io的segments數據來對元數據進
原创 python虛擬環境virtualenv搭建
1.在MAC和linux上,默認已經部署了python2.7,所以我們本例主要針對MAC和linux平臺 由於pip可以直接使用,我們首選需要安裝virtualenv pip install virtualenv -i http:
原创 Phonix按照時間倒序排序實現
CREATE TABLE IF NOT EXISTS AGENT_TEST( time DATE NOT NULL, vccId varchar NOT NULL, agId varchar NOT NULL, ready
原创 adb查看當前APP所屬的ACTIVITY
adb shell dumpsys window w | grep mCurrent
原创 python結合opencv,dlib實現人臉選中識別
1.pip安裝包 pip install opencv-python opencv-contrib-python -i http://pypi.douban.com/simple/ --trusted-host pypi.do
原创 io.druid.java.util.common.ISE: Could not allocate segment for row with timestamp
今天使用阿里雲druid.io服務,發現kafka-index-service這個任務都以失敗結束,查詢錯誤日誌,錯誤如下 io.druid.java.util.common.ISE: Could not allocate se
原创 druid.io數據重建之insert-segment-to-db
java -Ddruid.metadata.storage.type=mysql -Ddruid.metadata.storage.connector.connectURI=jdbc:mysql://emr-header-1:3
原创 python自動化測試之pytest+allure部署
pytest + allure 數據Check 配置sql,根據sql查詢結果,進行數據對比校驗# druid_sql_data_check pytest + allure 數據最對比,最終展示子頁面上,方便用戶對數據問題進行排查
原创 Mac 上使用virtualenv搭建的虛擬環境指定鏡像源下載python包
pip install -i https://pypi.douban.com/simple/ torch torchvision
原创 SCP指定端口在服務器之間賦值文件命令
scp -P 7922 -r /home/hadoop/cti/ [email protected]:/home/hadoop/