iOS/iPadOS 15 自動檢測兒童性侵照片 Apple 新功能惹全球審查爭議
Apple 上星期公布一項保護兒童性侵犯的新計劃,計劃自動檢測用戶透過 Message 傳送的信息、儲存在 iCloud 上的照片和透過 Siri 進行的搜尋,如果被判斷為「兒童性虐待材料( CSAM )」的話,會發出警告,甚至會向保護兒童組織和有關當局舉報。不過計劃一出即引來爭議,有人認為這功能最終有可能被極權國家用作緝捕政治犯。而 Apple 就急急作出澄清解話。
複製這個網址並在你的 WordPress 網站貼上以嵌入內容
複製這段程式碼並在你的網站貼上以嵌入內容