原创 mac VMware Fusion 虛擬機鍵盤可以使用,鼠標無法使用排查思路及解決方法

沒時間直接看文末解決方法。 本着,授人以魚不如授人以漁,簡單寫下,有時間可以看下思路,相對來說希望大家學到的是解決方法的思路以及動手嘗試。 起因: 昨天看到同事用VM+PD感覺挺好,平常一般使用PD的,但是PD複製粘貼需要開啓共享

原创 常見WEB漏洞描述及修復建議(可收藏寫報告用)-句芒安全實驗室

注:以下內容部分摘自網絡,部分工作總結。 一、明文傳輸 漏洞描述:用戶登錄過程中使用明文傳輸用戶登錄信息,若用戶遭受中間人攻擊時,攻擊者可直接獲取用戶密碼。 修復建議:1.用戶登錄信息時使用加密傳輸,如密碼在傳輸前使用安全的算法加密後傳輸

原创 APP測試漏洞掃描工具及在線檢測網站

APP測試漏洞掃描工具及在線檢測網站 1.APP在線掃描網站推薦 360顯微鏡 http://appscan.360.cn/ 特點:免費、無需註冊 愛加密 http://www.ijiami.cn/ 特點:免費、需註冊 2.APP

原创 python筆記之利用scrapy框架爬取糗事百科首頁段子

環境準備: scrapy框架(可以安裝anaconda一個python的發行版本,有很多庫) cmd命令窗口 教程: 創建爬蟲項目 scrapy startproject qq #創建了一個爬蟲項目qq 在項

原创 python筆記之正則表達式

正則表達式 正則表達式(regular expression) 什麼正則表達式? 我們希望只提取出我們所關注的數據,此時就可以用正則表達式 正則表達式就是一種進行數據篩選的表達式 正則表達式就是用一種特殊規則的字符串,來表達

原创 python爬蟲之美劇排行榜爬取(加瀏覽器僞裝,代理,異常處理)

爬取網址:http://www.meijutt.com/alltop_hit.html 爬取內容:排行榜名稱 爬取目標:存儲到本地文件中 涉及,瀏覽器僞裝,代理服務器,異常處理 代碼如下: from bs4 i

原创 python爬蟲之美女圖片爬取

由於個人水平暫時有限,先寫成這樣,大家可以參考一下。 本教程分爲兩部分: 1.獲取圖片的路徑,存儲到指定的文本文件中 2.調用上述的文本,進行圖片的下載 第一部分: 1.分析網頁源碼找到規律 框裏的http://…jpg

原创 Xshell 連接本地的Linux 系統,提示:Could not connect to '192.168.182.128' (port 23): Connection failed

————————— Xshell 連接本地的Linux 系統,提示:Could not connect to ‘192.168.182.128’ (port 23): Connection failed 解決方法: 1.先檢

原创 kali安裝vmtools不能拖拽(複製粘貼)文件解決方法

命令行下 執行 apt-get install open-vm-tools-desktop fuse 以安裝open-vm-tools 部分提示安裝錯誤,找不到指定目錄,附上解決方法: 需要添加更新源。 下面是清華的更新源,大

原创 python筆記之scrapy

Scrapy的基本命令 基本命令分兩種: 全局命令和項目命令 全局命令(在命令行中執行的指令) fetch 主要用來顯示爬蟲爬取的過程 scrapy fetch http://www.taobao.com 如果他在scrapy項

原创 python之.py生成.exe可執行文件

當我們寫好一個爬蟲程序後,如何給其他人使用呢? 總不能在別人的計算機上也裝上依賴庫,運行環境吧,接下來交給大家如何將寫好的程序轉換爲 .exe可執行文件。 如果你要將程序轉換爲可執行文件,首先確保你的程序可以正常運行。 之後

原创 突破百度雲大文件下載限制

工具準備: 1.谷歌瀏覽器 2.翻牆軟件 這裏博主提供自己用的軟件,大家也可以百度下載 鏈接: https://pan.baidu.com/s/1Zal5R5LJjVElINeVYci2EQ 密碼: wvp9 教程開始

原创 python爬蟲之urllib,僞裝,超時設置,異常處理

Urllib Urllib.request.urlopen().read().decode() 返回一個二進制的對象,對這個對象進行read()操作,可以得到一個包含網頁的二進制字符串,然後用decode()解碼成html源碼

原创 內網端口轉發-LCX基本使用

在滲透測試過程中我們可能會遇到內網開放3389端口只對內網機器開放,但是外網連接不上的情況。怎麼辦呢?這時候我們可以使用lcx來進行端口映射。   使用方法: 1.本地監聽兩個端口,第一個爲轉發端口,第二個爲連接端口(未打碼不要介意,在實

原创 python爬蟲之urllib,僞裝,超時設置,異常處理的方法

今天小編就爲大家分享一篇python爬蟲之urllib,僞裝,超時設置,異常處理的方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧 Urllib 1. Urllib.request.urlope