大數據面臨的風險和現存問題(大數據行業必讀)

“大數據”無疑是當下的熱門術語,提及數據分析必談大數據,這是對大數據和數據分析的雙重誤解,面對一個流行概念本身所許諾的前景和它所代表的商業利益,學界應保持高度的真誠和懷疑。關注WX公衆號::大數據技術工程師 瞭解更多精彩資訊。

“大數據”成爲2018年的關鍵詞彙,被認爲將會帶來生活、工作與思維的重大變革。

谷歌、亞馬遜等互聯網企業在利用大數據方面所做的工作使數據行業看到了新的發展路徑。大數據在教育、醫療、汽車、服務性行業的應用所彰顯的能量使企業、研究者對大數據的未來充滿信心。《連線》雜誌主編克里斯·安德森甚至早在2008年就斷言數據洪流將會帶來理論的終結,科學方法將會過時,其原話是“面對大規模數據,科學家“假設、模型、檢驗”的方法變得過時了”。

技術的變遷在任何行業都是值得歡欣鼓舞的,但不妨在此處借用蘇珊·朗格在《哲學新視野》中的論述表達一點謹慎:

某些觀念有時會以驚人的力量給知識狀況帶來巨大的衝擊。由於這些觀念能一下子解決許多問題,所以,它們似乎有希望解決所有基本問題,澄清所有不明瞭的疑點。每個人都想迅速的抓住它們,作爲進入某種新實證科學的法寶,作爲可用來建構一個綜合分析體系的概念軸心。這種‘宏大概念’突然流行起來,一時間把所有東西都擠到了一邊。[4][5]

蘇珊·朗格認爲這是由於“所有敏感而活躍的人都立即致力於對它進行開發這個事實造成的”,這一論述放置在今日對大數據的狂熱崇拜之中也極爲恰當,大數據的流行並不意味着其它的理解與思考方式就不再適合存在,正如微軟的Mundie先生所說,“以數據爲中心的經濟還處於發展初期,你可以看到它的輪廓,但它的技術上的、基礎結構的、甚至商業模型的影響還沒有被完全理解。”但不可否認的是人們確實將更多的學術興趣轉移到這一領域,而一旦人們能夠以審慎的思路開始清晰的闡述它們,即便一時不能提供完美的解決方案,至少也是能讓人有所獲益的途徑。

人們在談論大數據的美好圖景時當然沒有完全忘記它可能帶來的風險,但擔憂多集中於大數據的後果,如信息安全,而沒有集中於如何看待大數據本身。本文將就當前尤其國內技術環境下,進入大數據時代所面臨的風險和存在的問題做簡要分析,以希望能釐清概念,澄清一些誤解。

大數據的面臨的風險主要表現在以下幾方面:

一、海量數據的計算速度
零售業巨頭沃爾瑪每小時處理超過一百萬客戶交易,輸入數據庫中的數據預計超過2.5PB(拍字節,2的50次方)——相當於美國國會圖書館書籍存量的167倍,通信系統製造商思科預計,到2013年因特網上流動的數據量每年將達到667EB(艾字節,2的60次方)[6],數據增長的速度將持續超過承載其傳送的網絡發展速度。

來自淘寶的數據統計顯示,他們一天產生的數據量即可達到甚至超過30TB,這僅僅是一家互聯網公司一日之內的數據量,處理如此體量的數據,首先面臨的就是技術方面的問題。海量的交易數據、交互數據使得大數據在規模和複雜程度上超出了常用技術按照合理的成本和時限抓取、存儲及分析這些數據集的能力。

現在談到大數據,難以避免言必稱美國的傾向,那麼美國究竟如何應對這這方面的問題呢?

美國政府六個部門啓動的大數據研究計劃中,包括:

• DARPA的大數據研究項目:多尺度異常檢測項目,旨在解決大規模數據集的異常檢測和特徵化;網絡內部威脅計劃,旨在通過分析傳感器和其他來源的信息,進行網絡威脅和非常規戰爭行爲的自動識別; Machine Reading項目,旨在實現人工智能的應用和發展學習系統,對自然文本進行知識插入。

• NSF的大數據研究內容:從大量、多樣、分散和異構的數據集中提取有用信息的核心技術;開發一種以統一的理論框架爲原則的統計方法和可伸縮的網絡模型算法,以區別適合隨機性網絡的方法。

• 國家人文基金會(NEH)項目包括:分析大數據的變化對人文社會科學的影響,如數字化的書籍和報紙數據庫,從網絡搜索,傳感器和手機記錄交易數據。

• 能源部(DOE)的大數據研究項目包括:機器學習、數據流的實時分析、非線性隨機的數據縮減技術和可擴展的統計分析技術。[7]

從這份研究計劃可以看出,絕大多數研究項目都是應對大數據帶來的技術挑戰,目前我們所使用的數據庫技術誕生於上世紀70年代,大數據時代首先需要解決的是整個IT結構的重新架構,提升對不斷增長的海量數據的存儲、處理能力。

筆者最早進入數據分析領域是在1986年,使用的機器是長城,520,小的IBM機器,在完成數據輸入、問卷輸入之後,做一個最簡單的命令操作,需要等三個小時之後才能出結果,我們現在面對大數據時的處理能力,形象化來講就是當年PC機對小數據的處理能力。

這也就是大數據常和雲計算聯繫在一起的原因,實時的大型數據集分析至少需要使用像MapReduce和Hadoop那樣的分析技術並有數千臺電腦同時工作,因爲想做到實時分析,需要在數據庫中空出分析工作空間,控制對資源和數據的訪問,同時不影響生產系統。[8]在現有的技術條件下談大數據需要充分考慮到硬件設施和分析技術的不足,因爲這是前提,這也正是數據中心成爲谷歌、亞馬遜最高機密的原因,Facebook的開源硬件計劃得到衆多企業包括國內的騰訊響應的積極響應也是基於這方面的現實需要。

二、海量數據帶來的風險是處處都是假規律
“如果只就人類的認識是零星、細小的而言,小之中蘊含着智慧,因爲人類的認識更多的是依靠實驗,而不是依靠了解。最大的危險必然是不顧後果的運用局部知識。”舒馬赫在《小的是美好的》一書中用這段話來表達對核能、農業化學物、運輸技術大規模運用的擔憂,也適用於今日調查行業、企業、研究者對全數據的迷信、忽視抽樣所帶來的風險。

對於海量數據數據的計算能力隨着分佈式緩存、基於MPP的分佈式數據庫、分佈式文件系統、各種NoSQL分佈式存儲方案等新技術的普及可以解決,但這只是關於數據處理的第一步(甚至這種處理方式本身都存在很大風險),還並不是最大的風險,大數據最爲嚴重的風險存在於數據分析層面。

(一)數據量的增大,會帶來規律的喪失和嚴重失真
維克托·邁爾-舍恩伯格在其著作《大數據的時代》中也指出這一點,“數據量的大幅增加會造成結果的不準確,一些錯誤的數據會混進數據庫,”[9]此外,大數據的另外一層定義,多樣性,即來源不同的各種信息混雜在一起會加大數據的混亂程度,統計學者和計算機科學家指出,巨量數據集和細顆粒度的測量會導致出現“錯誤發現”的風險增加。那種認爲假設、檢驗、驗證的科學方法已經過時的論調,正是出於面對大數據時的混亂與迷茫,因爲無法處理非結構化的海量數據,從中找出確定性的結論,索性擁抱凱文凱利所稱的混亂。這種想法在某些領域是有效地,比如它可以解釋生物的選擇性,東非草原上植物的選擇過程,但是未必能解釋人,解釋事件過程和背後的規律。

大數據意味着更多的信息,但同時也意味着更多的虛假關係信息,斯坦福大學Trevor Hastie教授用‘在一堆稻草裏面找一根針’來比喻大數據時代的數據挖掘,問題是很多稻草長得像針一樣,‘如何找到一根針’是現在數據挖掘的問題上面臨的最大問題,海量數據帶來顯著性檢驗的問題,將使我們很難找到真正的關聯。

我們以一個實際的案例來看一下樣本量不斷增大之後,會出現的問題:

表1 數據量增大之後帶來的顯著性檢驗問題

大數據面臨的風險和現存問題(大數據行業必讀)

上表是關於2006年網絡遊戲歷程擴散的迴歸分析,當樣本量是5241個的時候,你會發現用一個簡單的線性迴歸擬合這個數據,年齡、文化程度、收入這三個變量顯著,當我們把樣本量增加到10482個的時候,發現獨生子女和女性開始顯著,增加到20964個的時候,體制外這個變量也開始顯著,當樣本增加到33萬的時候,所有變量都具有顯著性,這意味着世間萬物都是有聯繫的。那麼在這個時候,如果說上億個人呢?樣本大到一定程度的時候,很多結果自然就會變得顯著,會無法進行推論,或者得出虛假的統計學關係。此外,斷裂數據、缺失數據(下文將會進行分析)的存在將會使這種虛假關係隨着數據量的增長而增長,我們將很難再接觸到真相。

事實上,真實的規律是這樣的:

大數據面臨的風險和現存問題(大數據行業必讀)

體制外

大數據面臨的風險和現存問題(大數據行業必讀)

這是網絡遊戲2006年曆程擴散的結果,實際模型是這樣的,通過這個模型我們可以看到:

  1. 分文化程度、體制內外不同年齡的人羣在遊戲使用上存在顯著差異,可以清晰的看到在2006年網絡遊戲呈現出文化程度主導下的創新擴散規律。

2.在高文化程度人羣中,開始向34歲-40歲擴散,呈現大幅增長,並形成一個峯值。

3.在低文化程度羣體中,比如高中、初中在年輕羣體中迅速擴散,形成一個峯值。

4.在2006年,網絡遊戲從文化程度的幾個角度開始擴散,年齡不再只是高低之分,而是與文化程度變量綜合形成的效果[10]。我們看到網絡遊戲這種波浪式的擴散過程,不僅可以找到2006年是誰在使用網絡遊戲,也可以用生命週期、家庭週期來解釋原因,而通過對體制內與體制外人羣的使用差異分析,又可以展現出工作空間不同所帶來的人的行爲差異。當我們把2006年的結果放回網絡遊戲的整個擴散歷程中時,所能看到就已經不再是網絡遊戲本身,而是新技術帶來的社會變遷過程。

對一個社會現象進行客觀深刻準確的分析,對事物的理解需要數據,但更需要分析思維,在大數據時代,理論並非不重要,而是變得更加重要。我們所指的理論也並非僵化一成不變的固守舊有理論,而是在處理問題的過程中意識到海量數據所帶來的複雜性,堅持分析方法和理論的不斷創新。

(二)抽樣分析+全數據驗證的分析思路
維克托·邁爾·舍恩伯格在介紹大數據時代的數據分析思維轉變時提到過三個觀點,其中之一是:分析所有的數據,而不再僅僅依靠一小部分數據。全數據一時甚囂塵上,企業、研究者以爲大數據就是全數據,以至於再談抽樣都似乎帶有保守主義色彩,這種看法無疑是對大數據和抽樣二者都存在偏見和不足,而一個風行的詞彙恰恰對於從事這項活動的人來說意味着什麼纔是及其重要的,如果認爲大數據就是收集所有樣本的信息,讓數據自己說話,那麼在方法論上就是狹隘的,而這種狹隘卻因爲其閃爍着開放、客觀、全面的光芒而被忽視。

這種觀點面臨的第一個風險就是“全數據”在哪裏?數據量達到何種程度時,可以認爲是“全”數據?

這裏也涉及了全數據的第二個問題全(暫且假定我們通過人們在谷歌上輸入搜索條目就找到了真正意義上的全:谷歌利用搜索記錄而預測到流感爆發的案例被廣爲引用以說明數據自會說話,當人們開始在網上搜索關於感冒的詞彙表明他感染了流感,建立流感與空間、病毒的關係,能夠成功的預測一場流感)[11]數據確實能看到變化,通過變化作出“預測”,但無法解釋變化的影響因素,維克托·邁爾·舍恩伯格對此的回答是:我們要相關性,不要因果關係。這並非是這位作者有選擇的選擇,而是放棄抽樣而直接採用大數據的必然。

維克托·邁爾·舍恩伯格認爲可以允許不精確而使用大數據的簡單算法解決問題,而1936年《文學文摘》和蓋洛普在總統選舉預測中的不同表現,至今仍然向我們表明科學、嚴謹抽樣的重要性。《文學文摘》依靠紙媒時代巨大的發行量獲得240萬民衆的數據,而蓋洛普僅在嚴格抽樣基礎上研究了5000人,是“小數據”的複雜算法超過“大數據”的簡單算法的真實案例。

沒有抽樣的擬合,直接面對大數據,將使我們失去對人的瞭解,對真實規律的追尋,畢竟不是所有的社會事實都一場流感一樣易於預測,況且即便是谷歌被廣爲讚譽的流感預測案例也被認爲存在問題:在與傳統的流感監測數據比較之後,根據互聯網流感搜索實時更新的Google流感趨勢被發現明顯高估了流感峯值水平。科學家指出基於搜索有太多的噪音影響了它的精確度這表明基於社交網絡數據挖掘的流感跟蹤將不是替代而只能補充傳統的流行病監測網絡。他們正在開發噪音較少的替代跟蹤方法,例如基於Twitter的流感跟蹤只包含真正病人的帖子,而不是轉載的流感新聞報道。

三、封閉數據與斷裂數據
封閉數據和斷裂數據所帶來的問題在第二部分已經提到,它們會產生虛假的統計學關係,影響分析結果的準確性和可檢驗性,下面具體對這兩方面的問題做一個分析。

(一)封閉數據使數據缺乏多樣化
“數據增值的關鍵在於整合,但自由整合的前提是數據的開放。開放數據是指將原始的數據及其相關元數據以可以下載的電子格式放在互聯網上,讓其他方自由使用。開放數據和公開數據是兩個不同的概念,公開是信息層面的,開放是數據庫層面的。開放數據的意義,不僅僅是滿足公民的知情權,更在於讓大數據時代最重要的生產資料數據自由地流動起來,以催生創新,推動知識經濟和網絡經濟的發展。”[13]

開放是大數據的題中之義,也是我國政府、企業在大數據時代必須適應的轉變,而我們目前面臨的情況仍然是一個平臺一個數據,數據壁壘造成的局面是:有所有數據,同時又什麼數都缺。

比如在醫療領域,大數據被認爲爲醫療領域帶來希望 ---計算機可以在模仿人類專家在直覺方面更進一步,而不必依賴EBM這樣的小數據集了。醫療信息體系仍在使用陳舊的數據屏障,在這個體系中,只有通過審覈的、標準的、被編輯過的數據才能被接收,由於缺乏一致性,許多可用的數據被拒之門外。這個屏障創造了同質化的數據,而排除了能使系統真正有用的多樣性。[14]

再以新浪、搜狐、網易、騰訊四大微博的數據平臺爲例,四家公司的數據各自爲陣,相互獨立,關於微博用戶行爲分析都是基於對自己現有用戶的分析,這種封閉的數據環境下,很多層面的具體分析都將受到很大的侷限,比如重疊用戶的分析,什麼特徵的人羣會只在一個平臺上開設賬號,什麼特徵的人會在不同平臺上都開設賬號,在不同平臺上使用風格是否相同,在不同賬號下活躍度是否相同,影響因素是什麼?這是在封閉的數據環境下無法進行分析的。

數據是企業最重要的資產,而且隨着數據產業的發展,將會變得更有價值。但封閉的數據環境會阻礙數據價值的實現,對企業應用和研究發現來講都是如此,因此我們需要合理的機制在保護數據安全的情況下開放數據,使數據得到充分利用。有效的解決辦法之一是公正的第三方數據分析公司、研究機構作爲中間商收集數據、分析數據,在數據層面打破現實世界的界限,進行多家公司的數據共享而不是一家公司盲人摸象,這才能實現真正意義上的大數據,賦予數據更廣闊全面的分析空間,纔會對產業結構和數據分析本身產生思維轉變和有意義的變革。

(二)斷裂數據使數據缺乏結構化
封閉數據使我們無法看到多樣化的數據,斷裂數據則使數據缺乏結構化。來自IDC的報告顯示,2012年全球數字信息中90%的數據都是視頻、聲音和圖像文件這樣的非結構化數據[15],缺乏結構化本身是可以通過新技術解決的問題,正因爲如此才使這個問題變得棘手。對新技術的過分追逐,一方面會使得數據本身的真實性、完整性遭到破壞,另一方面會使對數據背後的人和生活意義的分析得不到充分重視。

1.行爲背後看不見人,缺失生活意義。

以淘寶爲例,當淘寶想研究“究竟是什麼人”在淘寶上開店的時候,他們發現並不像想象中的那麼容易。

在淘寶公司的實時地圖上,可以利用GPS系統清晰的知道每一秒全國各地正在發生的交易,但是對於這些人的族羣特徵,實時地圖並不能告訴他們更多。[16]同樣的問題出現在騰訊遊戲部門的用戶研究中,他們並不能從實時的監測中知道是誰在玩他們的遊戲,他們有什麼愛好、是什麼性格、爲什麼喜歡一款遊戲?他們知道的只是一個ID賬號,這就是斷裂數據帶來的問題:表面上全面,實際上都是片段式的數據。全數據確實可以在一定程度上掌握人的行爲,但是無法知道是什麼樣的人的行爲。明白這一點,就可以理解爲什麼谷歌會推出Google+,以獲取具體的用戶信息,包括姓名、愛好、朋友、身份等具體數據。任何一個平臺都有其數據收集方面的優勢,也有其短板,表面上擁有海量數據,但其實都只是一個片段,缺乏連續性和可識別性。

巴拉巴西在《爆發》中介紹了一個網站LifeLinear,用戶通過在搜索框中輸入自己的名字就可以查到自己一天任何時間任何地點的監控錄像,無論在哪兒,你的行蹤都會被網站記錄下來。這是作者虛擬的一個網站,但信以爲真並輸入網站名字進行搜索的人不在少數,因爲理論上它是可以實現的,一是藉助城市中的無線監視系統,反饋數據到單條檢索數據庫中,指示計算機追蹤所有的人。二是,也是最爲關鍵的是每個人都有固定的生活習慣、行爲規律,系統可以據此爲每個人建立行爲模型,然後預測你可能出現的地方,並在那兒等你。[17]

這樣一個系統的建立依靠技術系統,但更主要的是對每一個個體的全面瞭解和分析,假設、模型、檢驗缺一不可。在這本書中巴拉巴西介紹的另一位數據公開者,他把自己的位置數據、財產信息都傳到網上,但是關於這個人你一無所知,因爲沒有任何關於他性格、喜好等個性化信息,是“什麼都有,但什麼都缺”的典型案例。

2.大量的非結構化數據顛覆原來分析的基本範式。

在大數據時代,需要處理的數據不再是傳統意義上的數據,而是文字、圖片、音頻視頻等種類多樣的數據,大量的非機構化數據對數據分析提出了新的挑戰,因爲只有能被定義的數據纔是有價值的信息。

使用人人網的用戶大概不會陌生,在個人主頁上會出現好友推薦,這很簡單,只需要分析用戶的好友,找到朋友之間的關聯,就可以找到這一點。但是當人人網需要決定在廣告位上投放何種廣告時,則需要對大量的由用戶產生的文字、照片、分享內容與好友的互動進行分析。海量的非結構化、半結構化數據如何加以結構化並從中找出規律,這需要新的算法、新的分析思維。

四、缺失數據
奧斯卡·王爾德在1894年說,“如今幾乎沒有無用的信息,這真悲哀。”嚴格的說,他一半都沒有說對。只有有價值的數據才稱得上信息,從數據中獲得儘量多的信息並非易事,隨着數據量的擴大,缺失數據產生的比例也會相應擴大,尤其當一個樣本中出現多項缺失時,會加大處理的難度,除了構造模型失之準確之外,還有時間複雜度方面的問題。

對所有大數據來講,分析哪個問題數據量都不夠大,對於所有人來講,數據都是缺失多於正常數。在數據收集和整合過程中採用新技術手段避免這一問題將使這一問題在分析上帶來的分險變得更突出,比如BI公司爲了避免數據的不完整性採用快速修復技術整合分散數據,這將使我們失去最原始的真實數據,這使得研究者很容易捨棄與假設不符合的數據,也使驗證結論變得不再可能。

比如雀巢在200個國家出售超過十萬種產品有55萬家供應商,但由於數據庫一團糟它並未形成強大的採購議價優勢。在一次檢查中它發現,在900萬條供應商、客戶和原材料記錄中有差不多一半是過期或重複的,剩下的有三分之一不準確或有缺失。供應商名稱有的簡寫有的不簡寫,產生了重複記錄。[18]這一個案例中就包含了封閉、斷裂、缺失數據的問題。

固然缺失數據可以嘗試通過模糊數據集理論得到解決,但許多研究情境對數據的要求是有確定性的。大數據時代需要的不只是全數據、海量數據、實時數據,而是真正的開放、更可能接近精確、着眼於人和社會的分析方法和思路。封閉的數據平臺,對斷裂數據、缺失數據在分析上構成的風險的忽視會使我們仍然停留在小數據時代,更糟糕的是,數據還在小數據時代,方法上卻已經在單純鼓吹各種應對大數據的新技術,這種不匹配造成的混亂比大數據本身帶來的混亂還要危險。

在一定意義上,我們可以運用已收集的數據,先來了解如何把事情做得更好。從這個角度上,我們再來考慮創新和大數據應用。畢竟,大數據產生影響的不只是通過協同過濾技術來預測你需要什麼產品,也不只是什麼時候買機票會更划算一些,這只是使人類和商業變得更聰明有趣的一個方面而已,紐約大學商務教授Sinan Aral說:“科學革命之前通常是測量工具的革命”,[19]大數據如此洶涌的發展之勢和席捲一切的雄心勢必將會影響到科學理論研究領域,這也是爲什麼我們需要保持一點冷靜和審慎判斷的原因。此外,大數據在推動信息共享,促進社會進步方面顯示出來的潛力也值得我們爲更完美的解決方案努力。

誠如格爾茲所說:“熱力學第二原理、自然選擇原理、無意識動機概念,或生產方式的組織並沒有說明所有的東西,甚至連人的事情都沒有一一說明,但他們畢竟解釋了某些事物;認識到這一點,我們的注意力也就轉向確定這些事物到底是什麼,轉向使我們擺脫這些觀念在其最盛極一時之際導致的大量僞科學的纏繞。”在文章的最後,借用格爾茲在《文化的解釋》提出的觀點,表達對大數據研究的看法,因爲時至今日,大數據這個概念的模糊之處仍多於其所昭示的,可待完善與研究之處仍然很多,我們的工作纔剛開始。

最後希望大家多多關注,更多精彩的文章帶給大家,有興趣學習大數據的可以加羣:615997810,羣裏有大數據基礎與項目實戰的學習資料,還有java,java面試資料,Python基礎學習資料,找羣主免費獲取哦

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章