大數據時代,我們真的還有隱私嗎?
生活在大數據時代下的我們,似乎正經歷著《1984》所描繪的場景——無論我們說了什么、做了什么、想了什么,“老大哥”(大數據)都了如指掌。
最近,整個大數據行業如履薄冰:
- 最開始是三家大數據公司被查。
- 9月11日夜里,公信寶也傳出消息,公司門口被貼了封條。
- 9月12日上午,又傳出天翼征信被調查的消息。
天翼征信官網顯示,該公司成立于2014年,是中國首家運營商旗下征信機構,屬于電信控股的子公司。
“連國企都開始被調查了,可見數據行業的整頓力度之大?!?/p>
多位數據行業從業者認為,大數據行業自誕生以來最大的行業地震到來。
引言
近期,網安部門聯合多個部門,針對大數據行業的亂象展開了整治行動,以上描述便是本次大數據行業治理行動的縮影。
網絡和大數據的發展帶來了極大的便利和社會效率的提升,但與此同時,社會管理和數據倫理規范的滯后性導致了數據風險一定程度上的失控。
01
維克托·邁爾·舍恩伯的《大數據時代》揭示了在大數據時代的三大風險:
- 無所不在的“第三只眼”
- 為“將要”犯罪受到懲罰
- 數據獨裁
有人在看著你
英國作家喬治·奧威爾在早些年出版的小說《1984》中,描述了一個極權社會里面的極權政權“老大哥”。
他為了維持和鞏固其凌駕于社會之上的絕對權力,便對社會的每一個成員進行全方位監控:不論是你說了什么、做了什么,“老大哥”都會知道,甚至包括你在想什么也都能了如指掌。
大數據時代下,這一社會寓言似乎正在成為現實:
- 淘寶監視著我們的購物習慣
- 百度監視著我們的網頁瀏覽習慣
- 抖音編織出一個個看似美麗的“信息繭房”
來過必留痕跡,互聯網的發展,使得監視變得更容易、成本更低廉且更有用處。
微博上使用手機監控、廣告推送進行搜索能夠輕易搜出許多的案例。
進行大數據分析的人可以輕而易舉地看到大數據地價值潛力,這極大刺激著他們進一步采集、存儲、循環利用我們個人數據的野心。
你的數據塑造了你,同時“老大哥”們也能夠利用數據影響著你。
2018年3月,《紐約時報》等媒體揭露稱一家服務特朗普競選團隊的數據分析公司Cambridge Analytica獲得了Facebook數千萬用戶的數據,并進行違規濫用。
Cambridge Analytica自稱主要為政界人士和企業客戶提供消費者研究、定向廣告和其他與數據有關的服務。
該公司吹噓說,它可以開發消費者和選民的心理特征,然后用這個“秘密武器”來影響消費者和選民的意愿,這比傳統廣告更加有效。
該公司最著名的工作是曾協助美國總統特朗普的2016年總統競選活動。
除了與特朗普團隊的合作之外,Cambridge Analytica還參與了美國和英國的幾十場政治活動,包括英國退歐公投,以及參議員泰德·科魯茲2016年的初選。
此外,大數據時代下,數據的交叉比對使得匿名化近乎毫無意義,足夠大量的數據維度對比能夠簡單地定位到真實個人,同時Ta的任何隱私將無所遁形。
預測與懲罰,不是因為“所做”,而是因為“將做”
電影《少數派報告》中,描述了男主角逮捕一位即將在當天犯下殺人罪行的“罪犯”。
在這個社會,人們因為將做而受到懲罰,而不是因為已經實施犯罪。
但是《少數派報告》中這個令人不安的社會,正是不受限制的大數據分析可能導致的:罪責的判定是基于個人未來行為的預測。
賓夕法尼亞大學的理查德·伯克教授建立了一個大數據模型,他聲稱這個模型可以預測一個判緩刑的人一旦釋放是否會再次犯罪。
伯克說這一模型對未來預測的準確性可以達到75%,聽起來不錯的數字。但是,這意味著,每四個人里面可能就有一個人因為模型的失誤而錯判。
此外,主要的問題并不是模型的準確性,而是我們在人們真正犯罪之前對他進行懲罰,否定了人的自由權利。
我們永遠不會知道他是否真的會犯罪,而我們的預測也永遠不會得到證實。
數據獨裁
大數據大大威脅到我們的隱私和自由,這都是大數據帶來的新威脅,與此同時,過于依賴數據的趨勢也在加劇。
大數據誘使我們盲目信任數據的力量和潛能,而忽略了它的局限性。如果對不可量化的實物進行量化,我們就會失去全面了解它的機會。
用標準化測試來檢驗學生的表現和評定對老師、學校的獎懲是不合理的。
考試是否能全面展示一個學生的能力?是否能有效檢測教學質量?
這些都飽受爭議,但是數據本身不會顯示這些問題的存在。
02
2017年6月1日,《網絡安全法》開始實施。但是,由于數據生意的巨大利益,仍有為數不少的數據公司游走在法律邊緣。
大數據行業,其實存在很多所謂的“黑產數據的搬運工”公司。
簡歷數據爬取、網格照片緩存、用戶信息盜取,拿到這些數據后,自然可以清洗包裝,之后供給營銷甚至詐騙之用,賣個好價錢。
目前,整個行業近乎停擺,大數據行業正在經歷著推翻重生的歷程。
03
當世界開始邁向大數據時代時,社會也將經歷類似的地殼運動,生產和信息交流方式的變革必然會引發社會管理規范的變革。
首先,對于個人隱私保護的責任需要從民眾轉移到數據使用者。
當前,數據的使用依賴于事前的告知與授權。大數據時代,數據二次利用的不確定性導致事前告知的個人許可模式意義不大。
因此應該讓數據使用者承擔數據保護責任,使其為敷衍了事的評測和不達標準的保護措施承擔法律責任。
第二點,大數據時代下,很重要的一點是保障人們選擇的自由意志(個人可以并應該為他們的行為而非傾向負責)。
公開分析數據與算法系統、第三方公證的可靠算法和個人對其預測結果進行反駁的權利,有助于保護個人免受單純依賴大數據預測的危害。
這些危害包括諸如對未進行的行為承擔責任、基于算法預測的雇傭與解雇行為,以及按揭或信用卡的評估結果等。
由于對大數據運作的理解依賴于專業的算法知識,大數據預測、算法和數據庫有變成黑盒子(不透明、不可解釋、不可追蹤)的風險。
因此需要大數據算法工程師來擔任大數據分析和預測的評估專家。
他們需要監控數據源的挑選、分析和預測工具的選取,甚至包括運算法則和模型,以及計算結果的解讀是否正確合理(類比當前的財務審計)。
另外,保護極具競爭性的大數據市場,防止數據大亨的崛起與壟斷,是避免數據獨裁的重要手段。
結語
大數據時代并不是一個充斥著算法和機器的冰冷世界,人類的作用依然無法完全替代。
我們要正確認識大數據的風險和局限性,更好的方法和答案或許在未來的將來。
作者:Ray,公眾號:Ray的數據分析自習室
本文由 @Ray 原創發布于人人都是產品經理,未經作者許可,禁止轉載。
題圖來自Unsplash,基于CC0協議
- 目前還沒評論,等你發揮!