【關公災難】Apple宣布:暫緩虐兒相片審查功能

【關公災難】Apple宣布:暫緩虐兒相片審查功能

Apple 早前公布 iOS 15 將會加入兒童性虐待資料(CSAM)審查功能,喺客戶端設備將相片上載 iCloud 時,自動偵測有無相關內容,有發現就進一步由人手審查。消息一出即時出現大量負評,擔心技術會侵害個人私隱。擾攘一輪, Apple 決定暫定計劃,不過依舊難以為這場關公災難洗底!

目錄

人工智能掃描相片內容

公眾反彈暫緩推出

愈描愈黑

人工智能掃描相片內容

Apple 早前宣布將會利用人工智能技術,掃描美國用戶裝置如 iPhone、iPad 內儲存的相同片,根據演算法分析有無涉及兒童色情內容,只要符合 30 個演算法基準,就會再由人手分析判斷,以決定是否禁用其個人資料,並向執法部門舉報。Apple 所採用的 NeuralHash 技術,主要通過將用戶 iPhone、iPad 和 Mac 上的相片跟國家失踪和受虐兒童中心 (NCMEC)的資料庫進行比對。相關做法雖然以保護兒童免受性侵為出發點,但由於演算法同樣可以分析其他影像如維權活動、街頭抗爭,外界擔心如果 Apple 被其他政權要求使用該項技術,打擊政敵或人民,便會對用戶人身構成風險。

公眾反彈暫緩推出

雖然 Apple 曾多次解畫,指兒童性虐待資料(CSAM)審查功能不會被利用於其他方面,但用戶普遍不受落,而 Apple 的態度終於軟化,宣稱因應客戶、團體、研究人員和其他人的意見,決定花更多時間改進功能及釋除公眾疑慮,才會再計劃推出這項功能。Apple 的撤回事件在今年年初曾發生,當時外界發現 Apple 容許旗下 50 款 macOS apps 的數據,毋須經防毒軟件審查出入,變相增加用戶被攻擊的風險,事件被揭發後便得以取消。

愈描愈黑

儘管如此,由於 Apple 已向外界展示了它具備讀取用戶私隱的能力及計劃,因此即使今次宣布暫緩推出,用戶也不能完全相信 Apple 沒有在暗中執行,特別是有一份據稱為內部文件傳出,指 Apple 管理層形容這些反對意見為「少數人的尖叫聲」(screeching voice of the minority),雖然未知是真是假,但這次事件已釀成災難,相信 Apple 在短時間內仍難以洗底。

詳情:https://bit.ly/3yLIfJ9