讀書筆記2-隱私安全
PPML(面向隱私保護的機器學習):敵手被假設違反了機器學習系統的隱私性和機密性。
攻擊模式:重構攻擊、模型反演攻擊、成員推理攻擊。
防禦方法:安全多方計算、同態加密、差分隱私。
SecureML(安全機器學習):敵手被假設違反了機器學習系統的完整性和可用性。
攻擊模式:投毒攻擊、對抗攻擊、詢問攻擊。
防禦方法:防禦精餾、對抗訓練、正則化。
(數據投毒攻擊:使用污染數據;
DNS緩存投毒攻擊是指攻擊者欺騙DNS服務器相信僞造的DNS響應的真實性。這種類型攻擊的目的是將依賴於此DNS服務器的受害者重定向到其他的地址。
由於機器學習算法的輸入形式是一種數值型向量(numeric vectors),所以攻擊者就會通過設計一種有針對性的數值型向量從而讓機器學習模型做出誤判,這便被稱爲對抗性攻擊。)
完整性:出現檢測錯誤,將入侵行爲檢測爲正常的行爲。
可用性:出現分類錯誤,假陰性和假陽性,系統不可用。
機密性:敏感信息泄露。
重構攻擊:在模型訓練期間抽取訓練數據,或抽取訓練數據的特徵向量。
抵禦:避免使用存儲顯示特徵值的機器學習模型(SVM、KNN),安全多方計算、同態加密。
模型反演攻擊:重構模型的明文內容。敵手被假設爲對模型擁有白盒訪問權限或黑盒訪問權限。
同態加密的貝葉斯網絡
成員推理攻擊:推理出一個樣本是否屬於該模型訓練集。
特徵推理攻擊:有背景知識的敵手,可以推理出數據集中某用戶的一些特徵。
羣組匿名化隱私方法