作者:Veronica Combs翻譯:趙茹萱 校對:鄭強本文約3700字,建議閱讀10+分鐘
沒有單一的解決方案能夠讓所有社交媒體算法都更加易於分析和理解。試想一下,如果科技公司必須公布有關算法如何工作的數據,而軟件工程師在高等教育時期必須學習社會科學課程,那將會發生什麼?
麻省理工學院斯隆管理學院(MIT Sloan School of Management)教授埃克爾斯(DeanEckles)(左上)與斯坦福大學(Stanford University)平台監管主任達芙妮·凱勒(DaphneKeller)和沃頓商學院(WhartonUniversity)商業人工智能主管卡提克·霍薩納加(KartikHosanagar)就「如何讓算法更加透明」進行了對話沒有單一的解決方案能夠讓所有社交媒體算法都更加易於分析和理解。但是,拆解圍繞着這個軟件的黑盒子或許是一個不錯的開始,讓我們在這個黑盒子上戳幾個洞吧。通過與獨立分析師共享內容,也可以提高可解釋性。周四,在麻省理工學院舉行的社交媒體峰會上,研究人員、技術專家和法律學者討論了如何啟動這一過程。麻省理工學院數字經濟倡議組織主持了從烏克蘭戰爭、虛假信息到算法透明度、人工智能監管的各種對話。Facebook吹哨者弗朗西斯·豪根(Frances Haugen) 開啟了這場免費的在線活動,並在第一場會議上與麻省理工學院集成開發學院(MITIDE)主任希南·阿拉爾(SinanAral)就社交媒體問責制和透明度進行了討論。Haugen 是一名電子計算機工程師,也是Facebook前產品經理。2021年年中,她與媒體、國會和監管機構分享了Facebook的內部研究,她在領英(LinkedIn)上將她目前的職業描述為「公民誠信」,並概述了在算法影響方面監管機構和行業領導者需要做出的幾項改變。Haugen大約一年前離開了 Meta,現在正在研究「注意義務」概念,即如何定義社交媒體平台上的合理安全預期。這包括回答以下問題:「如何讓13歲以下的孩子遠離這些系統?」「因為看不到幕後算法,他們不知道該問什麼問題。那麼,讓孩子們遠離這些平台,我們需要他們公布哪些數據,以了解他們是否履行了注意義務,這個可接受且合理的嚴格程度是多少?」參見:為什麼安全的元宇宙是必須的,以及如何構建受歡迎的虛擬世界
https://www.techrepublic.com/article/why-a-safe-metaverse-is-a-must-and-how-to-build-welcoming-virtual-worlds/
她以 Facebook上「廣受關注的內容」更新為例,說明了數據的欺騙性展示。該報告僅包含來自美國的內容。Haugen表示,Meta 已將大部分安全和內容審核預算投入到這個市場。她認為,經歷種族滅絕風險比較高的國家的排名前20名的清單內容,其實比Facebook上的流行榜單更為準確。「如果我們看到那份內容清單,我們會說,這是無法忍受的。」她還強調,Facebook是許多人與互聯網的唯一連接方式,除了與種族滅絕有關的社交媒體網站,沒有其他選擇。減少Facebook上虛假信息和仇恨言論的一種方法是,改變廣告的定價方式。Haugen認為,廣告的定價是基於質量,前提是「高質量的廣告」比低質量的廣告便宜。然而,Facebook將質量定義為獲得反應的能力,即點讚、評論或分享。Facebook知道,點擊的最短路徑是憤怒,因此憤怒的廣告最終會比其他廣告便宜五到十倍。Haugen說,一個公平的折衷方案是統一廣告費率並「從系統中取消對極端主義的補貼」。Haugen建議,強制發布有關算法的可審計數據。「這將使獨立研究人員能夠分析這些數據,並理解信息網絡。」Haugen認為,提高數據透明度是提高社交媒體平台問責制的關鍵,共享數據也將促進這一點。在「算法透明度」會議中,研究人員解釋了更廣泛地獲取這些數據的重要性。麻省理工學院斯隆管理學院教授、IDE 研究負責人 DeanEckles 主持了與斯坦福大學平台監管主任DaphneKeller 和沃頓商學院商業人工智能業務主管Kartik Hosanagar 的對話。https://www.techrepublic.com/article/how-to-identify-social-media-misinformation-and-protect-your-business/Hosanagar討論了 Twitter和 Meta 關於算法影響的研究,但也指出了這些研究的局限性。「所有這些平台的研究都要經過內部批准,所以我們不知道哪些沒有得到內部批准的研究。」讓數據可訪問很重要。數據透明度也很重要,但需要在特定受眾背景下理解該術語,例如軟件開發人員、研究人員或最終用戶。Hosanagar 說,算法透明度可能意味着從揭示源代碼,到共享數據,再到解釋結果的任何事情。立法者經常考慮提高最終用戶的透明度,但Hosanagar 表示,這似乎並沒有增加用戶之間的信任。通常而言,社交媒體平台對這些算法的理解有太多的控制權,而將這些信息暴露給外部研究人員是至關重要的。「透明度主要是為了讓組織內的數據科學家更好地了解他們的系統在做什麼。」了解哪些內容被推廣或者是被審核的一種方法是,查看從不同平台刪除信息的請求。Keller認為,最好的資源是哈佛大學的「流光計劃」(ProjectLumen),這是一組基於美國數字千年版權法案(DigitalMillennium Copyright Act)以及商標、專利、本地監管內容和私人信息的在線內容刪除請求。Keller表示,谷歌、Twitter、維基百科、WordPress和Reddit等公司已經從這些數據中進行了大量研究。「你可以看到是誰提出的問題,為什麼提出,提出的內容是什麼,找出錯誤或模式的偏見。」然而,為了便於研究人員查看哪些內容被從這些平台上刪除,YouTube或Facebook的下架請求並不是單一的數據來源。Keller認為:「如果平台之外的人有這種訪問權限,他們可以做得很好,但我們必須克服障礙和相互競爭的價值觀。」Keller表示,歐盟於 2021 年 1 月批准的《數字服務法案》將改進算法的公開報告和研究人員對數據的訪問權限。「這將極大地改變歐洲的透明度,並影響世界各地對信息的獲取」電子前沿基金會(EFF)在一篇關於該法案的帖子中表示,歐盟立法者在該法案中提到的關於加強用戶在線匿名和私人通信的權利,以及確立用戶有權在合理情況下匿名使用和支付服務費用這幾個要素上都做對了。但EFF仍然擔心該法案的執行權力過於寬泛。Keller認為,監管機構最好制定透明規則。「監管者行動遲緩,但立法者更慢。」「他們將鎖定要求錯誤的透明度模型。」參見:政策制定者希望監管人工智能,但對如何監管尚缺乏共識https://www.techrepublic.com/article/policymakers-want-to-regulate-ai-but-lack-consensus-on-how/Hosanagar表示,由於社交媒體平台變化如此之快,監管機構總是會遠遠落後於科技行業。「單靠法律規定並不能解決這個問題。我們需要更多的企業自主參與,而不是僅僅遵守法律規定。」「未來幾年乃至幾十年,這將是一個艱難的過程。」此外,正如Eckles指出的那樣,適用於 Facebook 和Instagram 的法規不會解決TikTok和印度流行的社交媒體應用ShareChat的問題,建立在去中心化架構上的系統將是另一個挑戰。「如果下一個社交媒體渠道是在區塊鏈上呢?」Hosanagar認為,「這改變了整個討論,並將其帶到另一個維度,使當前所有對話都變得無關緊要。」該小組還討論了針對消費者和工程師進行用戶教育,以提高透明度方法。讓更多人提出「我們應該建造它嗎?」的方法,就是在工程學位中增加一兩門社會科學課程。這可以幫助算法架構師以不同的方式思考技術系統,並理解算法可能會帶來的社會影響。Hosanagar認為,「工程師們考慮的是,新聞推送推薦算法的準確性,或者是10條被推薦的新聞中哪一部分是與之相關的。然而,這些都不能回答這是否會造成社會分裂或者是否影響個人隱私等問題。」Keller指出,許多工程師都願意以公開的方式描述他們的工作,但社會科學家和律師並不總是使用這些信息來源。參見:實施人工智能還是考慮供應商態度?這些道德政策模板或許可以提供幫助https://www.techrepublic.com/article/implementing-ai-or-worried-about-vendor-behavior-these-ethics-policy-templates-can-help/Hosanagar認為,科技公司可以採取開源方式來實現算法透明度,就像組織分享有關如何管理數據中心或雲部署的建議一樣。他說,「Facebook和 Twitter一直在努力解決這些問題,並取得了很多成果,供其他公司借鑑參考」。Keller以Google的搜索質量評估指南為例,開啟了「工程師對工程師」的討論,以期能夠讓其他專業人士從中找到教育意義。「我生活在社會科學家和律師的世界裡,他們不讀那些東西。也就是說,現有的某種程度的透明度沒有被充分利用。」Keller關於提高透明度的想法是,允許用戶通過中間件或「魔術API」選擇自己的內容審核員。出版商、內容提供商或倡導小組可以創建一個由最終用戶選擇管理內容的過濾器或算法。Keller認為:「如果我們希望減少大型社交媒體平台的話語權,可以在內容審核和排名算法層引入競爭。」即用戶可以選擇某個組的審核規則,並根據自己的喜好調整設置。「這樣一來,就沒有一種算法如此重要。」在這種情況下,社交媒體平台仍將託管內容並管理版權侵權和刪除內容的請求。參見:元宇宙安全:如何從Internet 2.0的錯誤中吸取教訓,並構建安全的虛擬世界https://www.techrepublic.com/article/metaverse-security-learn-lessons-from-internet-2-0-mistakes-to-build-safe-virtual-worlds/Keller表示,這種方法可以解決一些法律問題,促進用戶自主權,但它也帶來了一系列新的隱私問題。「還有一個嚴重的問題是,收入如何流向提供商,」Keller認為,「肯定有後勤工作要做,但這是後勤問題,而不是我們在許多其他提案中遇到的第一修正案的根本問題。」Keller建議,用戶希望內容審核人員能夠將網絡暴力者和種族主義者拒之門外,並減少網站向其群發垃圾郵件的次數。「一旦有政府監管部門為用戶需求做把關,就可以對其進行監管,以滿足政府需求。」原文標題:4 ideas for understanding and managing thepower of algorithms on social media
原文鏈接:https://www.techrepublic.com/article/4-ideas-for-understanding-and-managing-the-power-of-algorithms-on-social-media/
譯者簡介:趙茹萱,東南大學法律碩士,現就職於北京市京都律師事務所,喜歡瀏覽「數據圈兒」,分享熱點資訊,碰撞新奇觀點的法律人。與我派一起成長的三年是熠熠生輝的三年。未來,願繼續與我派一起,探索未知,保持熱愛。
「完」
版權聲明:本號內容部分來自互聯網,轉載請註明原文鏈接和作者,如有侵權或出處有誤請和我們聯繫。數據分析(ID :ecshujufenxi)互聯網科技與數據圈自己的微信,也是WeMedia自媒體聯盟成員之一,WeMedia聯盟覆蓋5000萬人群。