原创 基於請求/響應對象搜索的Java中間件通用回顯方法(針對HTTP)

先感謝一下scz大佬給的博客推薦,受寵若驚+10086。 心血來潮有這麼個想法,驗證一下。 只討論思路,工具木有~ 前言 看了很多師傅們在研究針對Java中間件+Java反序列化漏洞回顯的研究: https://xz.ali

原创 Metaspolit結合Python的使用

目錄Metaspolit結合Python的使用有關pymsf的修改兩個解決辦法python依賴庫起手用法直接讀寫Console的用法(不推薦)使用module\jobs\sessions API進行操作額外的一點東西參考 Meta

原创 YSOSERIAL Payloads分析筆記(1)

前言 YSOSERIAL = Y SO SERIAL? 爲什麼這麼序列化? 其它沒啥好說的,自己再看一遍,慢慢的往裏面填肉。 CommonsCollections1-6、CommonsBeanutils1、FileUpload1

原创 YSOSERIAL Payloads分析筆記(2)

前言 繼續接着前面的進行分析。 說一句感想:YSO的Payloads有個特點:在目標的readObject的過程中儘量不觸發異常。emm,當然後面由於類型的不匹配什麼的造成的異常就跟反序列化過程沒關係了。 BeanShell1、C

原创 XMLDecoder解析流程分析

前言 經過了Weblogic的幾個XMLDecoder相關的CVE(CVE-2017-3506、CVE-2017-10352、CVE-2019-2725),好好看了一下XMLDecoder的分析流程。 本文以jdk7版本的XMLD

原创 Java中間件通用回顯方法的問題及處理(6.26更新)

之前寫的《基於請求/響應對象搜索的Java中間件通用回顯方法(針對HTTP)》實際使用情況中會有問題,再水一篇文章單獨解決一下。 後續有其他問題的話會在這裏更新哈~ 沒有回顯/高併發時纔有回顯 殘笑師傅給我反饋說:只有高併發的環境

原创 MySQL JDBC 客戶端反序列化漏洞分析

首發安全客:https://www.anquanke.com/post/id/203086 這幾天學習了BlackHat Europe 2019的議題《New Exploit Technique In Java Deserial

原创 Weblogic通過HTTP/T3/IIOP協議部署war包

水文一篇,主要應對存在弱口令但刪除了Console的情況。 重點說三遍: 需要賬號密碼、需要賬號密碼、需要賬號密碼 幾處登陸點(HTTP/T3/IIOP)共用賬號鎖定,只要加起來錯誤過五次,就會鎖定半個小時。 最常見做法:HTTP

原创 XStream CVE-2019-10173漏洞分析

前言 首發NOSEC 該漏洞爲CVE-2013-7285的補丁“繞過”。 這是一個很迷的洞,POC與CVE-2013-7285一毛一樣,該Poc在XStream <=1.4.6和1.4.10上可用,也就是說開始修復的漏洞後來又出現

原创 Weblogic CVE-2019-2725補丁JDK1.6繞過分析

前言 簡單的水一篇 這兩天網上公佈了CVE-2019-2725的補丁使用array標籤+method屬性來獲取Class的繞過,這裏簡單分析一下。 由於JDK1.7以上的XMLDecoder對每種標籤支持的屬性有嚴格的限制,所以此

原创 Zimbra XMPP XXE 復現

前言 週末沒事,接着找CVE-2018-20160,XMPP的XXE https://wiki.zimbra.com/wiki/Zimbra_Security_Advisories https://wiki.zimbra.com/wi

原创 Zimbra SSRF+Memcached+反序列化漏洞利用復現

前言 之前懶了一下,沒復現memcached反序列化的部分。 在看本文之前請先看完上一篇復現: https://blog.csdn.net/fnmsd/article/details/88657083 本篇復現基於8.7.11進行復現

原创 YSOSERIAL Payloads分析筆記(2)持續更新ing~

前沿 繼續接着前面的進行分析。 說一句感想:YSO的Payloads有個特點:在目標的readObject的過程中儘量不觸發異常。emm,當然後面由於類型的不匹配什麼的造成的異常就跟反序列化過程沒關係了。 BeanShell1 Bea

原创 YSOSERIAL Payloads分析筆記

前言 YSOSERIAL = Y SO SERIAL? 爲什麼這麼序列化? 其它沒啥好說的,自己再看一遍,慢慢的往裏面填肉。 CommonsCollections1 喜聞樂見的CommonsCollections1,最初的利用鏈 pu

原创 Spark Streaming+Kafka+ES使用筆記

emm 非專業開發,一點筆記 Kafka 當Kafka內容特別大時會報錯,此時設置下fetch.message.max.bytes爲一個比較大的值就好。 val kafkaParams = Map[String, String](