Locally Private k-Means Clustering(本地私有k均值聚類)論文閱讀報告

Locally Private k-Means Clustering

  • 本地私有k均值聚類

論文題目

  • 《Locally Private k-Means Clustering》(本地私有k均值聚類)

  • Author:Uri Stemmer

  • Publication: SODA '20: Proceedings of the Thirty-First Annual ACM-SIAM Symposium
    on Discrete Algorithms January 2020 Pages 548–559

  • Link:https://dl.acm.org/doi/10.5555/3381089.3381122

領域綜述

聚類是機器學習中無標籤背景下常用的算法,而k-means算法是聚類中最爲經典的算法。如此“基於中心的聚類”,大多是尋找一個“最優”的中心集和通過分配數據集的劃分。在超過60年的研究中,基於中心的聚類是無監督學習中的一個焦點問題,目的是使代價costS(C)=cϵCxc2\cos t_{S}\left( C \right) = \sum_{\text{cϵC}}^{}\left\| x - c \right\|^{2}最小。

由於聚類算法的大量應用,和用戶對隱私意識的提高,對於私有k-means聚類算法的研究日益增長。差分隱私算法有兩種主要模型:trusted-curator模型和local模型。前者假設了一個可以信任的負責人,收集所有的個人信息並分析它們,保證分析輸出結果對於每個個體是隱藏的(但對負責人是可見的)。相反地,本地模型沒有這個“負責人”,而是一個“不可信任的服務器”。這個服務器的目標是基於輸入進行計算,但用戶並不直接發送數據到服務器,而是在數據中添加一些噪音。本地模型的要求是每個用戶的噪音對於模型數據分佈幾乎沒有影響。在這篇論文中,正是基於這個模型進行研究。

在trusted-curator模型中,目前最先進的算法由Kaplan和Stemmer建立,擁有極小的O(1)O\left( 1 \right)乘性誤差以及poly(logn, k, d)\text{poly}\left( \log n,\ k,\ d \right)的加性誤差。其算法對於給定的nn輸入點集合S(Rd)nS \in \left( R^{d} \right)^{n}識別出一個還有kk個點的集合CC,滿足

costS(C)O(1)OPTS(k)+poly(logn, k, d) \cos t_{S}\left( C \right) \leq O\left( 1 \right) \bullet OPT_{S}\left( k \right) + poly\left( \log n,\ k,\ d \right)

其算法可以概括爲3步:

  1. 私有地識別出候選中心集合YY包含有大小爲kk的子集,其代價較低;

  2. 計算每個候選中心以其爲最近點的輸入點的數量,把該值作爲對噪音的估計,並保證滿足LDP;

  3. 預處理候選中心以及噪音計數以識別低代價子集;

該算法的加性誤差n23\approx n^{\frac{2}{3}},而本論文正是在加性誤差方面突破了瓶頸。

對於本地差分約束模型,有兩個先進的研究:一個是由Nissim和Stemmer研究的算法,其乘性誤差爲O(k)O(k)、加性誤差爲n23\approx n^{\frac{2}{3}},其主要缺點是在用戶和未信任服務器之間需要O(klogn)O(k \bullet \log n)回合的信息交換;另一個研究繼承與上一個研究,其改進算法僅需O(1)O(1)回合的交互,且將乘性誤差降低到O(1)O(1),但沒有降低加性誤差。在這後一個研究中已經將交互回合數量和乘性誤差降低得較爲完美,但仍存在有巨大的加性誤差。這兩種方法的候選中心集合大小均n23\approx n^{\frac{2}{3}},這導致其加性誤差至少爲n1/3n=n2/3\sqrt{n^{1/3} \bullet n} = n^{2/3}。降低加性誤差也正是本論文最爲關鍵的部分。

論文閱讀報告

摘要

該研究設計了一個在本地差分隱私模型運行的新算法。近似k均值聚類一定有兩種誤差:加性誤差和乘性誤差。該研究將該算法加性誤差從n23+an^{\frac{2}{3}+ a}減少到n12+a(a>0)n^{\frac{1}{2} + a}(\forall a > 0)的同時,保持了當前最優乘性誤差O(1)O(1)。此外,該研究還證明加性誤差的簡單下界n\approx \sqrt{n}對於k-means算法是必需的。

問題定義

客觀上最小化k-means是NP難問題,因此研究集中在近似算法的研究上。近似算法存在着加性誤差和乘性誤差,減小這兩種誤差的理論值便是目前主流優化方向。

目前,在非隱私聚類領域,最優的乘性誤差爲OPTs(k)=6.357\text{OP}T_{s}(k) = 6.357。這意味着該最優算法找出k箇中心的集合所用代價不會多餘最低可能代價。隱私模型相較於非隱私模型,在近似算法中會多出一個加性誤差,該加性誤差正比於該輸入域的直徑。乘性誤差和加性誤差在兩種隱私模型中均存在。因此,在近似算法的研究中,都以減少乘性誤差和加性誤差爲主要目標。

算法及證明

K-means聚類算法也稱k均值聚類算法,採用距離作爲相似性的評價指標,即認爲兩個對象的距離越近,其相似度就越大。該算法認爲類簇是由距離靠近的對象組成的,因此把得到緊湊且獨立的簇作爲最終目標。K-means聚類算法是一種迭代求解的聚類分析算法,其步驟是隨機選取K個對象作爲初始的聚類中心,然後計算每個對象與各個種子聚類中心之間的距離,把每個對象分配給距離它最近的聚類中心。聚類中心以及分配給它們的對象就代表一個聚類。每分配一個樣本,聚類的聚類中心會根據聚類中現有的對象被重新計算。這個過程將不斷重複直到滿足某個終止條件。終止條件可以是沒有(或最小數目)對象被重新分配給不同的聚類,沒有(或最小數目)聚類中心再發生變化,誤差平方和局部最小。算法實現步驟如下:

  1. 首先確定一個k值,即我們希望將數據集經過聚類得到k個集合。

  2. 從數據集中隨機選擇k個數據點作爲質心。

  3. 對數據集中每一個點,計算其與每一個質心的距離(如歐式距離),離哪個質心近,就劃分到那個質心所屬的集合。

  4. 把所有數據歸好集合後,一共有k個集合。然後重新計算每個集合的質心。

  5. 如果新計算出來的質心和原來的質心之間的距離小於某一個設置的閾值(表示重新計算的質心的位置變化不大,趨於穩定,或者說收斂),我們可以認爲聚類已經達到期望的結果,算法終止。

  6. 如果新質心和原質心距離變化很大,需要迭代3~5步驟。

以上k-means算法的計算服務器對每個輸入數據的瞭解都是精準的,換句話說,數據是公開的,對於服務器沒有隱私。在要求保護隱私的服務器的目標是基於輸入進行計算,但用戶並不直接發送數據到服務器,而是在數據中添加一些噪音。本地模型的要求是每個用戶的噪音對於模型數據分佈幾乎沒有影響。而這一模型的基礎理論便是本地差分隱私(LDP)。本地差分隱私是該模型最爲重要的部分之一。多個分佈式數據庫作爲多個可信任的部分,基於協議進行多輪傳輸。在每輪傳輸中,每個部分選擇一段根據輸入、內部投幣和之前收到的消息生成的新消息。協議的輸出由所交換消息的轉錄本的確定性函數指定。

在樸素的k-means算法中,選擇中心具有極大的不確定性。再加上私有模型,爲了減少交互次數,不能頻繁訪問輸入點,這些都給中心選擇帶來不便。比如使用k-means++會極大增加未信任服務器和用戶的交互次數。不從輸入點選中心,從候選中心中選(輸入點之前先計算好);分配點,不分配到最近的中心,而是設置候選中心新屬性,分配滿足條件。本論文算法的主要思路如下:

  1. 任取一個點作爲1箇中心
  2. 再取k-1個點作爲中心,每取一個點作爲中心要使得代價最低

前面提到的兩個研究中,已經將交互回合數量和乘性誤差降低得較爲完美,但仍存在有巨大的加性誤差。這兩種方法的候選中心集合大小均n23\approx n^{\frac{2}{3}},這導致其加性誤差至少爲

n1/3n=n2/3 \sqrt{n^{1/3} \bullet n} = n^{2/3}

降低加性誤差也正是本論文最爲關鍵的部分。因此本文的思路主要從如何減小候選中心集合大小入手。

爲了識別出kk個低代價中心,該論文設計了WeightedCenter\text{WeightedCenter}算法。該算法首先需要在分佈式數據庫上執行*GoodCenter\text{GoodCenter}*算法。*該算法繼承與在先前最優研究,該算法旨在從輸入點中篩選出若干候選中心。然而在參數rr的選擇數量和出現指數級的增長。對於任意一次算法執行及其特定的參數rr,能夠刪選出若干組中心的子集(即假定中心)。詳細來說,當lϵ[k]l\epsilon\left\lbrack k \right\rbrack*時,對於

rlopt=2SloptSloptxclopt2 r_{l}^{\text{opt}} = \sqrt{\frac{2}{\left| S_{l}^{\text{opt}} \right|}\sum_{\text{xϵ}S_{l}^{\text{opt}}}^{}\left\| x - c_{l}^{\text{opt}} \right\|^{2}}

算法使這些中心以*rloptr_{l}^{\text{opt}}爲半徑的情況下包含的點儘可能多,即該聚類儘可能大,形式化描述爲Sloptn\left| S_{l}^{\text{opt}} \right| \leq \sqrt{n}(較小的聚類可以忽略,因它們只會引起可以接受的、至多n\sqrt{n}*的加性誤差)。當聚類在一定範圍內,即

ylcloptO(rlopt) \left\| y_{l} - c_{l}^{\text{opt}} \right\| \leq O\left( r_{l}^{\text{opt}} \right)

若用一個“足夠近”的點來代替,能保證只有乘性的常數誤差。對於每個候選中心*YY子集PP(滿足Pn\left| P \right| \geq \sqrt{n},對算法隱藏),在分佈式數據中滿足PSP \in S,至少有1β1 - \beta的可能性YY包含一箇中心yy*滿足

yAverage(P)<O(diam(P)) \left\| y - Average(P) \right\| < O(diam\left( P \right))

這樣通過GoodCenter\text{GoodCenter}算法選出來的點即被稱爲候選中心YY

前人嘗試過基於以上算法,進行對帶噪音的數據統計每個候選中心以其爲最近點的輸入數據個數,記爲*#s(y)\# s(y),但是這樣的方法會使噪音疊加,導致加性誤差增大。因此本論文改進了算法,設計了WeightedCenter\text{WeightedCenter}*算法。基於已經選擇好的候選中心,執行以下算法:

WeightedCenter\text{WeightedCenter}算法

輸入:失敗可能性β\beta,隱私參數ε, δ\varepsilon,\ \delta

設置:每個參與者$[n]\text{jϵ}\lbrack n\rbrack擁有xiϵB(0, Λ)x_{i}\epsilon B(0,\ \Lambda),定義數據集S=(x1, x2,,xn)S = (x_{1},\ x_{2},\cdots,x_{n})

  1. 構造候選中心:以預設的tt, rr和隱私參數ε4log(n)\frac{\varepsilon}{4log(n)}, δlog(n)\frac{\delta}{log(n)}作爲參數在數據集SS執行GoodCenter\text{GoodCenter}算法,得出若干中心點集合YirY_{i}^{r}

  2. 將數據集的點分配給候選中心:將a(i,xi)a(i, x_{i})極爲每個用戶被分配到的YY中的中心之一。計算a(i,xi)a(i, x_{i})滿足下列條件:使聚類半徑rir_{i}最小,以至於xix_{i}rir_{i}構造中心,y(i,xi,ri)y(i,x_{i},r_{i})記爲這個中心,將yiy_{i}^{*}記爲xix_{i}最近距離的中心。根據xiyi\left\| x_{i} - y_{i}^{*} \right\|xiy(i,xi,ri)\left\| x_{i} - y(i,x_{i},r_{i}) \right\|大小關係選擇更近的中心。

  3. 估計候選中心的權值:使用ε4LDP\frac{\varepsilon}{4}-\text{LDP}算法獲得每個中心的估計值a^(y)  a(y){i : a(i, xi) =y}\hat{a}(y)\ \approx \ a(y) \triangleq |\{ i\ :\ a(i,\ xi)\ = y\}|,即估計每個中心“以該中心爲最近中心的輸入點的個數”。

  4. 重新分配點給候選中心:記b(i,xi)b(i, x_{i})爲重新分配的中心。挑選“分配到足夠多點”的中心的集合WW,若有輸入點的中心不在WW中,則將該輸入點分配到WW中最近的一個點。

  5. 重新估計候選中心的權值:按照第3步的方法估計權值:b^(y) b(y){i : b(i, xi) = y}\hat{b}(y)\ \approx b(y) \triangleq |\{ i\ :\ b(i,\ xi)\ = \ y\}|

  6. K-Means++採樣:初始化Z0=Z_{0} = \varnothing,做以下操作t=100kt = 100k次:

    6.1. 在候選中心中選出一個點ww,每個點選出的概率與其和Z0Z_{0}中距離最近的點的距離成比例。

    6.2. Zi=Zi1{w}Z_{i} = Z_{i - 1} \cup \{ w\}

  7. 放大成功概率:重複步驟六O(log1β)O(\log\frac{1}{\beta})次,將ZZ記爲獲得的集合ZtZ_{t}的並集,ZZ是一個大小爲O(klog1β)O(k \bullet \log\frac{1}{\beta})的集合。

  8. 估計採樣中心的臨近點數量:使用ε4LDP\frac{\varepsilon}{4} -\text{LDP}算法獲得每個中心的估計值,即估計每個中心“以該中心爲最近中心的輸入點的個數”。

  9. 輸出:非私有地識別出一個大小爲kk的低代價子集。

實驗結論

基於隱私模型的k-means算法需要對於帶噪音的數據進行聚類,噪音帶來了乘性和加性誤差。在中心初值的選取過程中,首先要在預處理階段運用GoodCenter\text{GoodCenter}算法篩選出可能成爲中心的“候選中心”集合YY,滿足以每個候選中心yy的聚類達到O(n)O\left( \sqrt{n} \right)的數據規模,該算法有效降低了乘性誤差。再通過WeightedCenter\text{Weig}h\text{tedCenter}算法從大集合YY篩選出大小爲kk的子集,通過分配後的#s(y)\# s(y)求值對每個中心進行賦權,然後通過再分配是的聚類進一步密集,取出子集作爲中心集合初值。該方法保持了最優乘性誤差O(1)O(1),並將加性誤差降低到了n12n^{\frac{1}{2}}。再此基礎上,論文給出了一個簡單的、基於連續回合LDP算法的近似k-means問題的加性誤差下界,結果從間隙閾值問題進行結果的遷移。

方法不足

本研究的理論加性誤差爲

O~(n12+akmax{d, k}) \tilde{O}(n^{\frac{1}{2} + a} \bullet k \bullet max\left\{ \sqrt{d},\ \sqrt{k} \right\})

在該論文之前由Kaplan完成的研究中加性誤差爲

O~(n23+ad13k2) \tilde{O}(n^{\frac{2}{3} + a} \bullet d^{\frac{1}{3}} \bullet k^{2})

其中nn爲數據集規模,dd爲數據集直徑,kk爲聚類簇數。

可以直觀看出,在數據集較大的情況下,本研究的算法(記爲算法A)是遠優於另一個研究的算法(記爲算法B)。但是在輸入點數、直徑和簇數變化的情況下,本研究的算法可能沒有明顯優勢。當滿足

O~(n12+akmax{d, k})O~(n23+ad13k2)O(1) \frac{\tilde{O}(n^{\frac{1}{2} + a} \bullet k \bullet max\left\{ \sqrt{d},\ \sqrt{k} \right\})}{\tilde{O}(n^{\frac{2}{3} + a} \bullet d^{\frac{1}{3}} \bullet k^{2})} \leq O(1)

時,算法A佔優;反之算法B佔優。

O~(n12+akmax{d, k})O~(n23+ad13k2)=O~(max{d, k}n16d13k)O(1) \frac{\tilde{O}(n^{\frac{1}{2} + a} \bullet k \bullet max\left\{ \sqrt{d},\ \sqrt{k} \right\})}{\tilde{O}\left( n^{\frac{2}{3} + a} \bullet d^{\frac{1}{3}} \bullet k^{2} \right)} = \tilde{O}\left( \frac{\max\left\{ \sqrt{d},\ \sqrt{k} \right\}}{n^{\frac{1}{6}} \bullet d^{\frac{1}{3}} \bullet k} \right) \leq O\left( 1 \right)

兩邊省略常數後,粗略地得到:

max{d, k}n16d13k \max\left\{ \sqrt{d},\ \sqrt{k} \right\} \ll n^{\frac{1}{6}} \bullet d^{\frac{1}{3}} \bullet k

dkd \geq k,即O(d)O(k)O(d) \geq O(k)時,可以化簡爲

dn16d13k \sqrt{d} \ll n^{\frac{1}{6}} \bullet d^{\frac{1}{3}} \bullet k

d16n16k d^{\frac{1}{6}} \ll n^{\frac{1}{6}} \bullet k

因此,當O(d)O(n)O(d) \ll O(n)時,算法A更優;而當O(d)O(n)O(d) \approx O(n)時,即當數據過於離散、且數據量不夠充足時,算法A則不顯著優於算法B。

dkd \leq k,即O(d)O(k)O(d) \leq O(k)時,可以化簡爲

kn16d13k \sqrt{k} \ll n^{\frac{1}{6}} \bullet d^{\frac{1}{3}} \bullet k

n16d13k121 n^{\frac{1}{6}} \bullet d^{\frac{1}{3}} \bullet k^{\frac{1}{2}} \gg 1

因此當

{O(n)O(1)O(d)O(1)O(k)O(1)  \left\{ \begin{matrix} O\left( n \right) \gg O(1) \\ O\left( d \right) \gg O(1) \\ O\left( k \right) \gg O(1) \\ \end{matrix} \right.\

成立時,算法A更優;而反之,即極小數據集聚類,算法A並不適用。實際上小數據集上近似算法難以執行。因此該情況不在考慮範圍之內。

此外Nissim研究的算法(算法C),加性誤差

O~(n23+ad13k) \approx \tilde{O}(n^{\frac{2}{3} + a} \bullet d^{\frac{1}{3}} \bullet \sqrt{k})

優於算法B,缺點在於交互回合O(klogn)O(k\log n)較大。不過在交互能力較強的系統上,可以考慮用算法C代替算法B。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章