原创 sublime text 3.2.2版本添加view in browse插件

首先,在ctrl+shift+p裏找不到package install control。   然後,到https://packagecontrol.io/installation#st3網站,把package install contr

原创 學習用PS畫圖標-複製旋轉

最近在B站偶然看到布爾運算畫圖標的教程,學習了幾個基礎快捷鍵,可以提高效率。 1 複製旋轉 這種圖案用複製旋轉會比較方便,用到快捷鍵是ctrl+alt+T,選中形狀後按此快捷鍵,會進入編輯模式,此時拖動形狀的中心點到需要的位置,

原创 adb截圖後保存到電腦

最近需要頻繁從手機截圖再複製到電腦,一直都是通過手機的截圖工具來截圖,但是這次遇到一個機器的MTP傳輸不穩定,總是無法打開文件夾,所以寫了一個批處理,完成下面的要求: 1 截圖 2 將截圖保存到批處理程序所在的目錄 3 刪除手機裏剛纔的截

原创 Appium安裝

Appium是一個app自動化測試框架,它的來歷大家可以自行查找。 首先Appium只是一個工具,並非完整的自動化測試過程。由於它是通過模擬用戶的操作來執行測試用例的,它只能返回測試用例是否成功執行。對於測試結果的正確性,它無法判

原创 Appium在Android手機執行測試腳本

由於Android的模擬器不是很好用,我建議直接從手機開始執行測試腳本。 準備工作如下: 一臺Android手機,我的機器是Android6.0版本。 開啓設備的usb調試,可以開啓開發者選項,再確認是否打開,記得一定要在手機端

原创 python 3.3 下載帶有防盜鏈的文件

這次是從www.wzsky.net下載文件,這個網站會對下載的請求來源做分析,如果不是來自網站,則只會返回一張防盜鏈圖片,這也就是爲什麼單個文件保存沒有問題,但批量下載的就都是錯誤的文件。 通過下面的代碼可以僞裝網站請求: header

原创 python 3.3 下載固定鏈接文件並保存

python 3.3 下載固定鏈接文件並保存。 import urllib.request print ("downloading with urllib") url = 'http://www.wzsky.net/img2013

原创 常用的幾個adb命令

常用的幾個adb命令: 1 抓取指定關鍵字的log: adb shell "logcat -b all | grep 關鍵字" 還可以用下面的命令: adb logcat | find "com.ljt.camera" >c:/1.

原创 android 9.0 remount方法

1 遇到adb版本低的問題,但是又找不到系統用的adb在什麼地方: 命令行輸入which adb,可以看到adb的路徑 2 android p 系統無法remount 提示: remount of the / superblock f

原创 Android Studio解決Gradle同步錯誤

最近安裝了Android Studio的181.5014246版本,發現無法預覽xml文件和佈局,原因是gradle沒有同步,查了一下資料,按照下面的操作配置和更新: 創建工程或導入工程,在工程界面按Shift + Ctrl +

原创 關於QXDM的安裝,解決Win7下QIK報錯的問題

高通的工具QPST和QXDM都對.net framework有要求,而且要求還不一樣,今天在配置的環境的時候就遇到這麼一個坑。 首先安裝QPST,提示系統沒有安裝.net framework 4,安裝終止。找到.net framework

原创 axure條件判斷:不用變量簡單實現

在使用axure做交互的時候,如果遇到要判斷一些狀態,最簡單的做法是添加一個字符串,然後將其設置背景顏色,放在關鍵區域外,通過修改此字符串的文本來當做一個全局變量使用,只要起好名字,一般情況下很容易維護。 比如下面這個交互演示: 點擊保

原创 學習了一下python中使用adb命令的方法

在python中使用adb命令,可以導入os模塊。1 簡單的adb命令。如:os.system('adb version')2 稍微複雜的adb命令。如:os.system('adb shell "dumpsys activity | g

原创 寫給美工看的xml資源簡介

寫給美工看的xml資源簡介 在android的最新版本中,比如6.0,7.0,用了大量的矢量圖片,格式爲xml文件格式,實際上是從svg轉換而來的,第一次接觸這類在資源的美工會有些困惑,在這裏說明一下。 svg svg是一種矢量圖格式,它

原创 一個簡單的爬蟲

第一次寫爬蟲,比較弱智。 在人人網看到一篇文章,題材比較敏感,感覺隨時會被斃掉,於是想把文章抓下來,一共25頁,每頁都保存看起來又比較麻煩,所以想做個爬蟲抓下來。 文章的結構比較簡單,鏈接也是順序的,抓取的重點就是不要把亂七八糟的東西