蘋果用AI阻擋兒童情色照傳播,卻引發爭議!(下)

蘋果用AI阻擋兒童情色照傳播,卻引發爭議!(下)
蘋果用AI阻擋兒童情色照傳播,卻引發爭議!(下)

蘋果用AI把關兒童情色照同時,又該如何顧及隱私,真的很兩難的!(下)

 

因著智慧型手機的發展、網路越來越快、雲端越來越普及,導致有心人士大量散發兒童色情圖片。近幾年,全球兒童色情犯罪事件層出不窮⋯⋯因此蘋果使用 AI 人工智慧——這種無人的方式來把關兒童色情圖片的傳播(詳情請看上篇連結),想不到這個 AI 太厲害,竟引發隱私權方面的爭議!

 

拓展 Siri 搜尋功能,新增「提醒、干預」

蘋果表示,他們將對 Siri 功能與搜尋進行更新,利用AI 以提供有相關困擾的監護人與未成年人使用者協助。

 

例如:當使用者詢問該如何回報 CSAM 相關問題時,蘋果將會結束導向相關機構的聯絡方式,或是提供指引來幫助使用者。

 

除此之外,如果像是有使用者像要查詢有關 CSAM 或是敏感、有害的內容,系統也會進行干預,跳出警示告知使用者。

 

siri-1-768x526-4.jpg

圖片來源:蘋果官網。

 

難以揮去的隱私疑慮

這些功能,預計今年將會在 iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey 的更新中推出。

 

在以往,相對於 Android 使用者,蘋果的支持者們最自豪的便是 iOS 的高穩定性與嚴密的隱私保障,而這也是蘋果公司不斷強調的優勢所在。

 

不過現在,蘋果這次的做法與過往似乎有了很大的不同。

 

即使這些措施雖然是為了保護未成年、減少兒童與青少年私密照外流所帶來的傷害,但同時還是帶來不少隱私與資訊安全的隱憂。

 

對此,有許多資訊安全專家與機構組織都表示疑慮或反對,認為這項作法「如同在牆上打洞、裝上門後再鎖上。」

 

雖然有門鎖,但是風險依然存在,況且要是鑰匙不慎流出,駭客便會暢行無阻。

 

除此之外,也有一些人擔心此先例一開,蘋果未來可能因為各國家政府的法律規定和要求,調整審查標準、成為監控工具。例如同志相關內容、政治敏感資訊等等,極權國家的使用者更是有此擔心。

 

隱私保障與資料運用的平衡難題

兒童色情內容經常被視為犯罪的證據,未成年人通常是在被威脅、利誘或哄騙的情況下拍攝這些內容,而流傳於網路上更是二次傷害。

 

蘋果此舉,或許是希望透過提高取得相關資訊的門檻,進而減低可能的需求,進而減少類似的兒童性犯罪再度發生。

 

然而,當檢警要搜查民宅前都須先向法院申請搜索票的法治社會下,蘋果直接以人工智慧審核使用者彼此之間的私人訊息和個人儲存空間等方式,來試圖達成防治的目的,是否有符合比例原則?個人的隱私考量與社會整體的治安,該如何平衡呢?

 

或許是個需要大眾不斷思考與討論的問題。

 

 

 

 

 

推薦文章:
隱私是基本人權!蘋果新功能「App 追蹤透明度」


Google 加強隱私,讓你快速刪除15 分鐘內搜尋紀錄


Google 為保護隱私,棄Cookie 卻改用人工智慧?


Facebook 開源Python 語言的安全與隱私工具Pysa


知我者莫若人工智慧!AI比你媽更懂你的心!


完美形象就靠AI幫你打造!讓你線上會議不卡卡!(上)


經典遊戲大升級!AI打造出史上最難玩俄羅斯方塊!

蘋果用AI阻擋兒童情色照傳播,卻引發爭議!(上)

蘋果用AI阻擋兒童情色照傳播,卻引發爭議!(上)
蘋果用AI阻擋兒童情色照傳播,卻引發爭議!(上)

蘋果用AI把關兒童情色照同時,又該如何顧及隱私,真的很兩難的!(上)

 

目錄

1. 兒童色情照太氾濫 人工智慧來把關

2. 一偵測到情色照,AI 立馬傳模糊照給父母

3. 兒童色情照上雲端?人工智慧來守門

4. 拓展 Siri 搜尋功能,新增「提醒、干預」

5. 難以揮去的隱私疑慮

6. 隱私保障與資料運用的平衡難題

 

兒童色情照太氾濫 人工智慧來把關

兒童情色的相關犯罪防治,一直都是社會上一項十分重要的議題,尤其在歐美國家,政府與民間組織皆十分重視,並且投入相當大的資源在預防犯罪上,法規與刑責也更為嚴峻。

 

然而,縱使有嚴重的刑責,相關新聞依然層出不窮,尤其近年來智慧型手機、網際網路發展迅速,同時衍伸出許多拍攝、散播兒童情色照片的犯罪行為。

 

例如,在今年的 7 月 29 日,有一名居住在紐澤西州的男子,被警方查獲他的電腦內存有 110 個未成年性愛、裸露相關的影片和圖像。而其住處對面,正是當地的公立學校,令人不寒而慄。

 

在去年 2 月,也有一名美國空軍上校,遭檢警查獲他利用手機瀏覽未成年色情網站、保存圖片,他也坦承,自己使用 iPhone 手機下載未成年兒童的裸露照片高達 441 張,最後被判處 5 年有期徒刑與 15 年強制管束。

 

由於此類事件層出不窮,也讓蘋果決定調整目前的做法,希望能藉由其影響力,擴大對兒童的保護。

今年 8 月,蘋果在他們的官網上宣布有關保護兒童的新措施、功能,主要可歸納為三大類,分別是:Message 訊息內容偵測、iCloud 檔案掃瞄檢查、拓展 Siri 和搜尋功能的提醒和干預。

 

一偵測到情色照,AI 立馬傳模糊照給父母

未來,蘋果手機內的 Messages app 將會裝上新的工具「Helping with Communication Safety」,當 AI 偵測到使用者收到、發送色情等敏感內容的照片時,警告兒童和他們的監護人。而這些敏感內容的照片與圖像,也將會自動進行模糊處理。

 

如此一來,如果今天未成年使用者遭遇到惡意騷擾,就能夠有相關的保護措施。除此之外,蘋果也會提供資源與建議,告訴孩子遇到這樣的事情不是你的錯,不想查看或發送也沒關係,並鼓勵他們進一步尋求協助。

 

但是如果未成年使用者還是想要查看或是發送敏感內容,此時系統就會發送提醒給家長。

 

蘋果也特別表示,這項新功能是透過手機設備上的 AI 去分析、辨別圖片內容,並強調蘋果公司不會、也無法去查看這些內容。

 

圖片來源:蘋果官網。

 

兒童色情照上雲端?人工智慧來守門

雲端硬碟是現今常見的儲存資料方式,將個人照片備份在雲端,也能夠避免因為手機或電腦的損壞或遺失,導致相片和回憶一起不見。

 

然而,亦有有心人士藉由將違法的兒童色情內容存放在雲端硬碟中,並加以散播傳閱。

 

為了解決這個問題,蘋果將在 iOS 和 iPadOS 中新增一個新的系統,命名為「neuralMatch」。

 

這個系統將會允許蘋果檢測使用者儲存在 iCloud 當中的照片,並且與美國失蹤兒童及童工保護中心(NCMEC)的資料庫進行比對,確認其中是否有涉及兒童性虐待的內容(Child Sexual Abuse Material,CSAM)。

 

為避免使用者有隱私上的疑慮,蘋果說明將不會直接在雲端上掃描,而是將資料庫的圖片經過演算法轉換為雜湊值(Hash Value),這些真人無法辨識的資料數值會儲存在使用者的設備上。

 

每當使用者上傳相片至雲端硬碟,便會啟動 AI 人工智慧來評估配對,這段過程將會以私有集交集加密技術(Private Set Intersection)進行加密,而比對結果與加密憑證會一起儲存在 iCloud 中。

 

最後要如何決定使用者是否有違規,則是由一項名為「閾值秘密共享」的技術來處理。

 

如果是使用者的檔案中,有超過一定數量的圖像被 AI 人工智慧判斷為符合 CSAM 內容,蘋果系統就會把所有可疑的照片解密後,交由相關人員進行人工審核。

 

一旦審查屬實,蘋果將會停用該使用者的 iCloud 功能,並向有關單位進行通報。

 

Photo by niu niu on Unsplash

 

蘋果好意開發的兒童色情守門員 AI,竟引發隱私權方面的爭議!相關內容請看下篇連結

 

 

推薦文章:
冬奧將有 AI 裁判!人工智慧如何給選手評分?


年過 50 歲的日本副社長自學 Python!寫出的 AI 還被雀巢採用


導盲犬被 AI 取代?美科學家研發四足機器導盲犬


AI 一對一客服、電話行銷一把罩!人工智慧語音機器人夯


線上會議不卡卡,人工智慧讓你給你超優質體驗!(上)


人工智慧EVA用”表情”,讓你天天都有好心情!


經典遊戲大升級!AI打造出史上最難玩俄羅斯方塊!