2個方面分析:AI的暴力檢測是什么?還存在什么問題?

1 評論 3238 瀏覽 3 收藏 11 分鐘

如今,“暴力檢測”成為了當下的一個熱門,在人群中實時檢測“暴力行為”成為了現實,如果你想打架,最好先看看AI同不同意。

如果有一天,你想打我(賤兮兮),你以為一拳頭揮過來就完事了嗎?

現在可不那么簡單了?,F在你如果想要打我,不僅要問問我爸媽同不同意,還得問問AI答不答應,可能你還沒動手,就已經被我的AI所攔截下來了。

沒錯,“暴力檢測”成為了當下的一個熱門,在人群中實時檢測“暴力行為”成為了現實,如果你想打架,最好先看看AI同不同意。

一、“檢測暴力”的AI

這種能夠檢測“暴力行為”的AI系統由英國劍橋大學、印度國家技術研究院和印度科學理工學院的研究人員研發,此類AI技術利用懸停式四軸飛行器上的攝像頭,來檢測每個人的身體動作。

然后,當系統識別出攻擊性的行為,如拳打、腳踢、刺殺、射擊、掐脖子等時,它就會發出警報,準確率達到85%。它不識別人臉——只是監測人們之間可能的暴力行為。

借由無人機實現AI“暴力檢測”

這個系統可以擴展到自動識別非法越境的人,在公共場所發現綁架事件,并在發現暴力行為時發出警報。因此,在某種程度上,這種自主間諜無人機可以幫助警察壓制犯罪,或幫助士兵在無辜群眾中找出敵人。

AI在檢測暴力動作時,主要分為五個類型:扼殺、拳打、踢踹、槍擊,以及刺傷。系統先用FPN(特征金字塔網絡)檢測在場的所有人類,并標記出頭、上肢、下肢三個部分的14個重要位點,畫出人體的骨架。然后,SHDL網絡可以分析四肢朝向等數據,判斷那些人是不是在使用暴力。

可用于檢測公共區域或大型聚會中的暴力分子姿態估計pipeline

當然,AI暴力檢測的效果也與數據處理人數有著很大關系。一般來說,系統需要處理的人數更少時,準確率會更高。如只需處理一人時,系統準確率可以達到94.1%,如果人數超過了十人,準確率下降到僅79.8%。

同樣,其在檢測扼殺、拳打、踢踹、槍擊以及刺傷五種暴力行為時,也存在著準確率差異。

檢測不同暴力行為的準確率

檢測不同人數時的準確率

另一方面,無人機的應用也存在著一定的使用條件限制問題。在真正應用場景中,無人機無法直接靠近斗毆人群,只能實行高空檢測,而這一定程度上降低了能見度和檢測準確度。

二、AI檢測暴力,依然存在著眾多問題

AI檢測在人工智能領域早已經不是新鮮事,不論是此前的Dextro公司,利用機器學習來解讀視頻的聲音和圖象信息,還是谷歌解決雞尾酒會問題,并成功推出新一代Google Assistance,AI檢測一直是各領域應用的重要方式。

在云端執行推理有潛在的安全和隱私風險,因為要將人們的視頻傳輸到第三方計算系統中。當AI滲入日常生活的監測過程之中,筆者認為,其依然就幾個問題“有待解決”。

1. 泛濫的用戶信息泄露

2017年,是數據泄露極為猖獗的一年。根據金雅拓(Gemalto)近期發布的一份報告“2017 Poor International Security Practices Take a Toll”顯示:

2017年僅上半年被盜的數據,就已超過2016年全年被盜數據的總量。

2017年1月到6月,平均每天有1050萬條記錄被盜。盡管很多數據泄露來自于外部黑客攻擊所致,但所造成的記錄被盜或遺失,僅占13%。相比之下,內部惡意泄露、員工疏忽無意泄露等造成的卻占19億被盜數據中的86%。

早在此前的Cambridge Analytica丑聞造成了8700萬人的信息泄露,并且對2016年唐納德·特朗普參與美國總統競選的結果造成了影響。Facebook數據泄露事件再次向人們展現了信息泄露的危害,“被行為”或是“誘導行為”成為許多數據公司利用用戶信息進行的不良操作。

可想而知,如果當AI監測暴力系統被惡意使用,其帶來的風險更是相當嚴重。諸如此類的面部識別技術,如亞馬遜的Rekognition服務,已經被美國警方采用。這些系統經常受到高誤報率的困擾,或者根本就不準確,所以像這樣的技術要和無人機結合還需要一段時間。

2.“大數據殺熟”

從目前眾多AI應用的表現來看,隱私數據的泄露所導致的“大數據殺熟”是一個不容忽視的問題。

信息泄露不僅會威脅到一個普通用戶的網絡賬戶安全,更會直接影響到其現實生活中的方方面面。最近鬧得沸沸揚揚的Facebook用戶數據泄露更是讓全球用戶紛紛自危,不少知名人士更是宣布從Facebook退出,揚言保護自身隱私數據安全。

在前段時間,滴滴被曝光對用戶進行大數據殺熟,一時之間輿論紛紛,顯然被人區別對待的感受不是每個人都喜歡,尤其是在加價的情況下。雖然之后滴滴很快對其進行了澄清,但大數據殺熟這種方式卻已經被世人獲知。

那么什么是大數據殺熟?

通常而言,這種行為指的是通過大數據來判斷用戶消費潛力,當判斷用戶為高消費者時,則會對用戶進行區別對待,提高其消費價格,比其他用戶花費更多資金才能享受到相同的商品及服務。

互聯網上的殺熟早就不是什么新鮮的事情,自互聯網誕生以來,這種行為便一直存在。而在2000年,也發生了一件令人矚目的殺熟事件。有亞馬遜用戶反映,在其刪除瀏覽器cookies之后,之前瀏覽過的DVD商品售價從26.24美元降至22.74美元。

此消息一出,備受輿論壓力的亞馬遜只能出來解釋,稱這項功能只是向不同顧客展示的差別定價實驗,絕對與客戶數據沒有關系。最后也只能努力公關,才度過了這個信任危機。如今的一些互聯網公司,顯然已經忘記了亞馬遜當年的遭遇,試圖重蹈覆轍。

3. AI監測恐侵犯主體的“知情權”

在AI監測的過程中,“知情”確實成為了一個倫理爭論的焦點?!叭绾伪O測”、“是否知情”爭議不斷。誠然,隨著行為識別技術的不斷發展,許多識別技術都可以實現“非受控性”:即主體無需配合,依然可以實現精準識別。

這無疑將AI倫理提到了一個新的高度,信息不再為我所有,確實讓人細思極恐。那么,在公安與刑偵領域,AI監測尚可讓人信服,但在其他民用甚至是商用領域,如何平衡好“獲取信息”與保障和滿足受眾基本的知情權將會成為一個重點和難點。

顯然,許多大公司在此類“獲取信息”與“保障隱私”兩者中積極尋求平衡。Facebook首席運營官雪莉·桑德伯格(Sheryl Sandberg)宣布為了響應歐盟即將于五月份生效的新隱私法規,Facebook將讓其20億用戶更容易地管理自己的個人數據。

在歐盟,將于今年五月份實施的《通用數據保護條例》(General Data Protection Regulation,GDPR)是自互聯網誕生以來對個人隱私數據法規的最大一次修訂。

該條例旨在:給予歐盟成員國內居民更多管理自身信息的權限,并規定了公司使用用戶數據的方法。

總的來說,AI監測暴力的出現,為安防與刑偵領域提供了一個便捷之道。但是,作為極為敏感的領域,精確性的問題依然是不可忽視的。畢竟,冤枉一個好人永遠都不是一件好事。

 

作者:柯鳴,公眾號:智能相對論

本文由 @智能相對論 原創發布于人人都是產品經理。未經許可,禁止轉載

題圖來自Unsplash,基于CC0協議

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發揮!