最近,幾百位俄羅斯的老母親,突然收到了兒子在戰爭中陣亡的消息。
不僅如此,她們之中甚至還有人,親眼看到了戰場上慘不忍睹的遺體照片。
但通知她們這些事的並不是俄羅斯政府,而是來自烏克蘭的 IT 志願者部隊。
這個組織利用人臉 AI 識別技術,掃描戰死後的俄羅斯士兵面部,以此獲得其生前的個人信息,包括社交平台賬號、家庭照片,以及人員關係網等。
然後他們再將 「 喪生 」 這個噩耗,逐個匹配對應好,直接發送給遠在俄羅斯,時刻擔心子女安危的家庭中。
這種擊破民眾心理防線,再通過民眾向政府施壓的做法,也許是戰爭中不可避免的戰術方案,但兵法和套路並不是差評君關心的地方。
在差評君看來,反而是拿 AI 這種本該造福社會的技術,用來傷害無辜家庭的手段,有點太不講武德了。
在相關新聞評論區里,儘管網友們立場不同,但基本都在感慨這種行為的不人道。
有的人說,「 士兵的母親和妻子都沒有任何錯誤」;
也有人表示,「 告知這些可憐母親的應該是俄羅斯政府,而不該是其他人」;
還有一份部分人說,士兵家庭有權利知道陣亡的消息,這些事不該被隱瞞。
「但也許可以弄一個網站,如果真的有家庭想主動了解,那就自己去獲取信息」。
總之,這種事不能硬來。
當然,也有人意識到了問題真正嚴重的地方 ——
比如一位老哥就寫下這樣的評論:
「 烏克蘭 IT 軍擁有所有俄羅斯士兵的樣貌信息,並且還有他們的家庭方式?這可不是啥好兆頭」。
要知道,人臉、指紋等個人隱私信息,連每個國家自己都要制定法律,高度保密。
怎麼如此龐大的隱私數據庫,就被其他國家搞走了呢?
而要解釋這件事,就不得不提到一個叫做 Clearview AI 的公司了。
根據華盛頓郵報的報道,這家公司正是烏克蘭 AI 技術和人臉數據信息庫的提供方。
現在,共 5 個烏克蘭政府機構,包含 340多名官員,已經可以隨時使用這些面部識別工具了,還是免費的。
不僅如此,這家公司也會培訓新士兵使用方法、給他們開通操作權限。
可以說,Clearview AI這波配合,突出一個 「 盡心盡責 」。
Clearview AI的 CEO▼
報道還稱,這家公司的數據庫里,至少擁有20億張來自俄羅斯的照片信息。
但得到巨量照片資源的方法,既不是我們想象中的高端黑客破解技術,也不是什麼碟中諜式信息竊取。
他們只是堂而皇之地從各種社交平台,抓取各個國家地區的公開圖片。
其中俄羅斯的照片信息,大部分就是來自俄羅斯最大的社交網絡VKontakte。
VKontakte 類似於 Facebook、微博等 ▼
如果用不嚴謹的假設來解釋整個過程,那就是 ——
你曾用自己的微博賬號,發了一張自拍。
然後Clearview AI 就會偷偷把這張照片保存到他們的數據庫里,再將其與你的賬號做好對應。相當於同時獲取了人臉數據 + 個人資料里的信息。
而獲取信息後,通過 AI 就能實現反向操作。
比如某天你被別人拍下了一張照片,根據這張照片,AI 就能再追溯到你的微博賬號,以此取得更多詳細信息。
聽完有沒有點細思極恐?這次的俄羅斯士兵事件,大致上就是這麼一回事兒。
而且,這家公司涉及的層面還遠不止如此。
像 Google、YouTube、Facebook 和 Venmo 等全球性的網絡社區,都曾因為被 Clearview AI 抓取信息,不約而同發出了警告性質的終止函。
因為這些平台上的個人信息數據過於龐雜,且不分年齡、國籍、性別,如果被加以利用,那將留下嚴重的隱私泄露隱患。
但 Clearview AI 這邊則表示,「我們只是獲取網絡上的公開資料,這些資料沒準兒以後抓捕犯罪嫌疑人有很大幫助。更何況我們已經收集幾十億張圖片了,識別準確率能達到 98%。
再說了,連美國第一修正案( 美國憲法 )都沒有對此約束,就證明了我們有行使自己權利的自由」。
看起來是不是挺無賴?然而這還不是最可怕的。
因為從這家公司的官網來看,它還是一個標準的私營企業。。。
儘管他們聲稱,自己與國家執法機構簽訂了 600 多份安全協議,並且只會將軟件提供給指定的專業安全人員。
但這些資本的場面話,建議千萬別全信。
畢竟,早在幾年前 A 輪融資時,他們就利用自己的隱私庫當做 「福利 」,吸引到了一批有錢人。
比如紐約時報的一篇報道《Clearview在成為警察的工具之前,它是有錢人的秘密玩物》中,就提到了 ——
某位億萬富翁,曾使用Clearview AI 來識別自己女兒和誰約過會。。。
除此之外,還有很多財大氣粗的社會精英,都在 Clearview 上註冊過會員服務。
這也就意味着,至少在這家公司初創期,個人隱私數據完全可以被金錢左右,至於具體用來幹過啥,就無從得知了。
類似事件的曝光,引起了很多人士的警惕,這也讓Clearview 的地位,逐漸變得微妙了起來。
首先,Clearview 想擺脫大眾對它的 「 隱私濫用 」 印象,急需找一些正規機構合作,為自己挽回口碑與信任。
而在 「 個人隱私神聖不可侵犯 」 的社會大環境下,誰也不想趟它這渾水,引得一身輿論。
但這個龐大數據庫 + AI 識別吧,確實在各行各業都很有用。所以,私下裡有沒有合作還真不好說。
就比如,接下來這個打臉事件。。。
有一次,Clearview公開說它利用自己的軟件,幫助紐約警察抓捕了一個潛在的嫌疑犯。
但紐約警察則一口否決,說他們只是試用過幾次軟件,破案時壓根沒用。這讓媒體對Clearview進行了好一頓批判。
尷尬的是,還沒過多久,就有人搞到了一封警局內部郵件。
郵件里詳細揭露了警方與Clearview 的密切合作,紐約警察們,甚至已經使用搜索軟件超過 5100 次。
而事到如今,為了再獲得烏克蘭支持者的認可,Clearview甚至不惜將自己應用到戰爭中。
這對於那些喪失孩子、丈夫的俄羅斯家庭來說,相當於傷口上撒鹽,過於殘忍。
尤其是在相關新聞的下方,也有一些人開始漸漸畏懼 AI 技術,以及背後那不可估量的生物數據集信息。
其實,大家的擔心也不是毫無道理。
因為技術的不正義性,會在戰爭中被迅速放大,甚至造成 「技術恐慌 」。
還記得 2018 年 「 AI 人臉識別無人機,靠近目標後立即引爆 C4 」 的新聞麼?當時,委內瑞拉正在舉行閱兵儀式,忽然間一架迷你無人機靠近演講台後爆炸,總統命懸一線,場館內幾千名人員四散而逃。
這裡的 AI 人臉識別技術,就能保證無人機精準襲擊到總統本人,完全不需要誰在背後遙控。
所有人都很難想象,一個平日裡用來尋人、支付的功能,居然成了完美犯罪中的關鍵一環。
戰爭,本身就是一件捨棄道德底線的事。
以至於所有人眼裡「中立且無罪的技術 」,在戰爭之下也會變得不那麼純粹,成為傷及無辜家庭的手段之一。
而利用技術去刻意試探人性,加速悲劇,則顯得更不體面。
如果再不加以制止的話,那從今往後,怕是連技術的名聲都要搞臭了。
撰文:赤膊朋克 編輯:面線 & 小鑫鑫美編:煥妍
圖片、資料來源:
MAIL ONLINE:Ukraine scans the faces of thousands of dead Russian soldiers and uses facial recognition technology to find and contact their mothers;
MIT Technology Review:The NYPD used a controversial facial recognition tool. Here’s what you need to know;
CNET News:Clearview AI says the First Amendment lets it scrape the internet. Lawyers disagree;
CBS News:Google, YouTube, Venmo and LinkedIn send cease-and-desist letters to facial recognition app that helps law enforcement;
Ars Technica:Secretive face-matching startup has customer list stolen;
Clearview AI、維基百科、紐約日報、華盛頓郵報;