最近Apple 發表了新的功能,主要是為了避免一些兒童性犯罪(Child Sexual Abuse Material (CSAM))的問題,該功能預計會在iOS 15, iPadOS 15, watchOS 8, and macOS Monterey.* 中更新。
這功能最近引起了大量的社群反彈,雖說是立意良善的功能,但由於該功能是直接透過裝置中的AI/ML相關的演算法去推測出目前裝置上的照片是否有違反規則的照片,這其實也大幅的侵犯了使用者的隱私,而主要社群的反彈點如下:
- 若Apple與一些極權國家合作,則代表Apple極有可能透過使用者的手機/電腦來監視使用者的照片,這其實蠻讓人擔憂的。
- 另個社群考量點在於演算法本身的準確度,像是這篇文章指出,目前已知的perceptual hash algorithms都存在不同的缺失,所以如果Apple CSAM detection判斷錯了,那就會對使用者造成一些困擾。
後續再來看看Apple會如何回應…
UPDATED: Aug 11th, 2021
目前Apple 的回應是,他們只會使用CSAM detection 在使用者上傳到iCloud上 照片/影片;跟預期的差不多,Apple先說明他們只會針對特定情境才會做CSAM detection, 以試著降低一些負面聲量…
感覺事件是還沒完全結束,應該還會有後續…
UPDATED: Aug 14th, 2021
連Apple 的軟體技術主管都出來澄清了,這項新的功能的概念是,當使用者將照片上傳到icloud時,相較於像Google, Facebook在server上做照片的辨識,Apple則是選擇先在裝置上辨識(感覺像preprocess的概念);而整個機制被觸發的情況只有在使用者將照片上傳到icloud時才會觸發…
不過這也意味著,觸發機制如果被更改了,那就代表使用者的手機是被監控的;另一個點也是說,如果iphone有這種機制了,這樣只要這間公司與 政府合作,就代表一般人的生活其實都會被監控著…