防範大數據危害

上節說到大數據的發展必須會給人類社會造成危害(請見:大數據危害),那麼這種危害要怎麼防範呢?畢竟大數據的前景實在太誘人,不可能因爲這些困難就放棄這些利益。

從歷史的發展來看,信息傳播的發展不斷改變着社會的管理規範,比如紙張、印刷術的發明導致著作權、知識產權等一系列法律的出現。大數據是信息技術的一次變革,這種變革不能靠對原有管理規範的修改來適應,必須要新的管理規範來適應大數據的發展。這種新的管理規範應當包含以下幾種要素。

要由數據使用者來承擔責任。在以往的隱私保護辦法裏,我們採用的是獲利使用許可的辦法。這種辦法在過去的時代是適用的,因爲由用戶來決定把自己的數據給誰使用是用戶的權利。但是,由於大數據時代的隱私泄露發生在數據的二級用途上,這種辦法就不在適用了,因爲用戶只有保證初次使用數據安全的能力,之後數據的安全性就要由使用者來保證了。從另一個角度來說,使用者既然從數據分析中獲利了利益,那麼就要承擔相應的責任。相應的,還需要制定一定的規則,比如不同的數據,使用者保存的時間是不一樣的;使用者不能分析哪些數據;哪些數據要做技術處理後才允許使用。這些規則看起來是限制了使用者的權利,但實際上,它更有利益產業的發展,長遠來看是有利於使用者的。

應當杜絕基於預測的懲罰性預防。一直以來,我們都只爲自己已經做過的行爲負責。儘管大數據有能力預測人們的下一步動作,但是人們不應該爲那些沒發生過的事情負責任。基於大數據的分析做一些預防性的工作是有益的,比如基於大數據分析調節警力、醫院分佈等。但是當社會基於大數據做出影響個人利益的事情時,比如僱用與解僱、同意發放貸款或拒絕。在做出這些決策時,就必須要有一些特定的防護措施:

第一,公開。必須公開用來預測與分析的算法與數據集。

第二,公正。算法系統必須由第三方專家進行公正。

第三,可反駁。如果對算法系統的預測結果有不同看法,要給個人可以進行反駁的明確方式。

使用大數據進行預測有一定的好處,但是如果社會依據預測去預防、降低風險,只能導致個人責任意識的缺失。主張預測的國家是保姆式的國家,而且無不止如此。否認個人爲其行爲承擔責任實際上就是在摧毀人們自由選擇行爲的權利。

需要一種新的職業來監管行業的發展,我們暫且稱之爲“算法師”。新的技術必定會出現新的行業,新的行業問題必定會催生出新的職業。就比如日漸複雜的法律系統催生了律師一樣,大數據的威脅也會產生“算法師”,“算法師”應當分爲內部算法師與外部算法師。內部算法師隸屬於數據使用者,他們幫助數據使用者評估數據分析的後果,判斷是否會出現法律或者社會問題。而外部算法師是一種獨立的機構,就如同律師事務所一樣,他們爲人們提供評估大數據分析是否合法、合理的服務。兩者相互之間相互制約,但是都有同一套職業準則,都是爲了社會的公平、正義。

數據產業的發展必須會催生出像谷歌、波音這種的行業巨頭。所以,要有專門的反數據壟斷法來規範行業的發展。這首先是爲了提供一個活躍的市場環境,如果市場處於壟斷狀態,不但產業無法發展,嚴重時甚至可能威脅人類社會的公平、正義。其次,也是爲也遏制權力的濫用。數據分析的巨大能量決不能被單個機構和個人毫無限制的使用,數據的大型擁有者應當公佈其數據,以便於監督。

伴隨着從核技術到生物工程學其他領域的發展,人類總是先創造出可能危害自身的工具,然後才着手建立保護自己、防範危險的安全機制。在這方面,大數據也和其他領域的新技術式一樣,帶來了無法徹底解決的問題。另外,它們也不斷對我們管理世界的方法提出挑戰。而我們的任務是要意識到新技術的風險,促進其發展,然後斬獲成果。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章