增加網址:
文章備註、標題(會記錄下來,但是暫時不會顯示):
[綜合]無題 無名 ID:08huSObM 2021/08/10(二) 18:13:36.821 No.23743811
評分:-1, 年:-1, 月:-1, 週:-1, 日:-1, [+1 / -1] 最後更新:2021-10-15 15:05:57
附圖
打擊兒童色情 Apple將自動過濾用戶裝置內的照片

上周四,Apple宣布了其作業系統「iOS」和「iPadOS」的更新細節。其中,為了打擊兒童色情的自動過濾照片功能引發了爭議——這到底是合理的管制,還是侵犯隱私呢?

上周四(5),Apple宣布旗下作業系統,即iPhone使用的「iOS」和iPad使用的「iPadOS」,兩者在未來的更新細節。

然而,美國地區的版本中,有一項自動掃描照片的功能卻引發了爭議——Apple將引入名為「neuralMatch」的工具,讓「neuralMatch」檢測用戶裝置內有沒有任何已知的兒童色情圖片。

這項技術讓許多人產生質疑,這究竟是一項合理的管制手段,還是其實已經侵犯到用戶的隱私了呢?


註:針對兒童色情相關內容,英文有一專有名詞為「child sexual abuse material」,縮寫為「CSAM」,直譯即「兒童性虐待材料」,但本文將以「兒童色情」或「兒童色情照片」簡稱之。


>以人工的方式進行雙重確認
>在iPhone和iPad內建「neuralMatch」後,當用戶的照片要自動儲存至Apple的雲端系統前,這項工具會自動對檔案進行檢測,確認其中有沒有任何內容與已知的兒童色情照片吻合。
>如果出現一定數量的吻合結果,系統將自動回報結果,Apple則會以人工的方式進行雙重確認,如果真的是兒童色情照片,它們將封鎖該用戶,並通報執法單位。

Apple表示,所謂的「neuralMatch」將是「新的密碼學(cryptography)應用程式,能夠幫助遏止兒童色情在網路上散播,但同時兼顧用戶的隱私」。

它們會和美國國家兒童失蹤與受虐兒童援助中心(National Center for Missing and Exploited Children),以及其他兒童安全相關機構的資料庫進行合作,讓用戶的照片與已知的兒童色情照片進行比對。

但這些照片並不是以「照片」的形式執行檢測,而是會先被轉譯成「雜湊值」(hashes),是一種通常由隨機字母和數字組成的代碼。


>即使編輯過也逃不掉
Apple指出,這項技術甚至可以抓到那些經過編輯的照片,無論是被裁切過、尺寸被調整,又或是從彩色改為黑白,都通通逃不過雜湊值的比對。

而且Apple還強調,這個系統有著「極高的正確率,並確保每年只有不到一兆分之一的機會,會錯誤地標記特定帳戶」;同時,它們還聲稱,若是比起其他現有的技術,「neuralMatch」將能提供「極大」的隱私。


>Apple:不會知道用戶裝置裡有什麼
>也就是說,只要用戶裝置裡沒有兒童色情照片,Apple就不會知道裡頭的實際內容。

「如果你要儲存一堆與兒童色情相關的照片,對,這對你來說十分糟糕。」Apple負責隱私領域的軟體經理紐恩史溫德(Erik Neuenschwander)表示:「但對其他人來說,這不會產生任何差別。」
監測小孩有沒有收到裸露照片

而且除了檢測兒童色情照片以外,Apple還將開放另一個類似的功能。這只有開啟「家人共享」功能的家庭可以使用,如果家長選擇開啟的話,小孩的iPhone將會監測他們有沒有接收或傳送包含裸露照片的訊息。

如果孩子接收到照片的話,照片會先進行模糊化處理,讓孩子自行選擇要不要查看,但若是低於 13歲的孩子選擇查看的話,家長將會收到系統的特別通知。

Apple表示,它們以保護用戶隱私的方式設計了這項新功能,其中確保了Apple永遠不會看到或發現訊息中的裸露照片,掃瞄功能會在孩子的裝置上直接完成,通知也只會發送到父母的設備中。
無題 無名 ID:9YY.yZFU 2021/08/10(二) 18:17:27.016 No.23743867
像這種AI是不是事前要先有大量數據才能比對判斷?
所以開發這種AI的蘋果公司其實才是擁有最多兒童色情的?
無題 無名 ID:7l92C72M 2021/08/10(二) 18:19:04.615 No.23743884
附圖
>>23743867
左膠說是就是
果粉準備被雞雞管理了
無題 無名 ID:aHTi4ruw 2021/08/10(二) 18:21:11.947 No.23743911
>>23743811
今天說兒童色情
明天就掌握蘋果人的裸體照片
無題 無名 ID:UVZjcRq6 2021/08/10(二) 18:21:51.888 No.23743922
>比起其他現有的技術,「neuralMatch」將能提供「極大」的隱私。
原來的隱私更差你們該好好感謝我
>如果你要儲存一堆與兒童色情相關的照片,對,這對你來說十分糟糕。但對其他人來說,這不會產生任何差別。
反正不準我看屁眼的都是犯罪者啦
無題 無名 ID:pr20QKyo 2021/08/10(二) 18:23:11.120 No.23743941
如果我用ipad畫幼幼色圖呢 是不是真的會上演在畫的時候 FBI破門 然後快速改成furry 逃過一劫
無題 無名 ID:aHTi4ruw 2021/08/10(二) 18:24:39.735 No.23743958
>>23743811
蘋果喜歡你手機裡的資料並按了讚
無題 無名 ID:g8g/p6WA 2021/08/10(二) 18:24:50.275 No.23743960
>>23743941
>>然後快速改成furry 逃過一劫
什麼鬼w
無題 無名 ID:S0VLHGfY 2021/08/10(二) 18:25:34.400 No.23743968
回覆: >>23743987
所以拍自己兒女照片都會被過濾掉
太苦了……
無題 無名 ID:nbbNkWe6 2021/08/10(二) 18:26:55.133 No.23743987
>>23743968
不是啊
一般會拍兒女的"裸"照嗎?
無題 無名 ID:8Id7wh2A 2021/08/10(二) 18:28:51.215 No.23744009
回覆: >>23744045
>>23743987
嬰兒裸照算不算兒童色情?
如果有人覺得是 那代表.....
無題 無名 ID:IRiAWkuM 2021/08/10(二) 18:29:59.897 No.23744024
>>23743987
穿泳裝對sjw而言也是色情啊
無題 無名 ID:0W55jTeI 2021/08/10(二) 18:31:05.737 No.23744035
逾 5,500 名隱私專家、密碼專家與研究人員連署反對蘋果為保護兒童的內容掃描技術

民主與技術中心(CDT)也指責蘋果放棄產業標準的端對端加密傳訊系統,取而代之的是一個具備監控及審查的架構,呼籲蘋果應該撤銷此一變更,恢復使用者對蘋果裝置/服務在安全與完整性上的信心。

瑞士洛桑聯邦理工學院(EPFL)教授、亦為安全及隱私專家的Carmela Troncoso也認為,蘋果所採取的措施就是一個加密後門,就算蘋果宣稱保護了使用者的隱私,但後門就是後門,只要有後門的存在,就不再有所謂的安全儲存或是安全傳訊,後門打破了所有的保證。

連署網站(要登入GitHub):
https://appleprivacyletter.com/
無題 無名 ID:IRiAWkuM 2021/08/10(二) 18:31:29.055 No.23744042
>>23743987
哦對了
臉太幼的亞洲女也會被歸類為兒童色情
無題 無名 ID:8gqSyxjE 2021/08/10(二) 18:32:10.901 No.23744045
>>23744009
印度人會強姦嬰兒
無題 無名 ID:S0VLHGfY 2021/08/10(二) 18:33:16.471 No.23744058
>>23743987
老外一堆搞全家天體營的
無題 無名 ID:NtDR/DfA 2021/08/10(二) 18:33:35.316 No.23744060
>>23743987
一般是不會
但這件事有很多可以討論的點
像是上面提到的隱私問題

還有就是兒色的標準是他們在定義的
你說圖片已經成年但他們覺得沒有
你說圖片是二次元但他們覺得會引發現實問題
他們覺得你有問題那你就有問題
你覺得你沒問題要自己想辦法申訴,但不保證成功
無題 無名 ID:SvEscGp6 2021/08/10(二) 18:34:00.163 No.23744069
左派最愛這招了
用冠冕堂皇的理由正大光明侵犯人權
無題 無名 ID:aHTi4ruw 2021/08/10(二) 18:34:19.985 No.23744074
回覆: >>23744104
>>23744060
那不跟中共一樣
我看SJW根本跟中共是一樣的
無題 無名 ID:NjaHfVqg 2021/08/10(二) 18:34:41.513 No.23744078
>>23743867
沒錯 想要管制兒童色情
就要成為最了解也擁有最多兒童色情的人
就像那些幹著三次元幼幼然後去指責二次元兒童色情的傢伙
無題 無名 ID:eGXZ9WCk 2021/08/10(二) 18:36:57.561 No.23744101
>>23743867
這不是ai,單純就是比對已標記的圖片
你原創fbi還沒看過的就不會被抓
無題 無名 ID:i1EEn6O6 2021/08/10(二) 18:37:06.476 No.23744104
>>23744074
你知道太多了
無題 無名 ID:NtDR/DfA 2021/08/10(二) 18:40:27.832 No.23744139
>>23744101
監督式的AI也是要靠大量訓練數據啊
無題 無名 ID:0mN49zFs 2021/08/10(二) 18:40:57.948 No.23744145
>>23743987
>>23744060
一堆人會錄嬰兒洗澡阿= =
無題 無名 ID:/YbfrOQ6 2021/08/10(二) 18:42:38.674 No.23744165
你們所有的一舉一動,全在美國的監控中
無題 無名 ID:zgWPv6Yw 2021/08/10(二) 18:46:24.774 No.23744199
無題 無名 ID:c/ofjMXE 2021/08/10(二) 18:48:24.824 No.23744223
回覆: >>23744988
>>23744101
這就是訓練出來的啦
無題 無名 ID:j.poJX6s 2021/08/10(二) 18:51:45.398 No.23744274
回覆: >>23744988
>>23744101
>>已標記的圖片
所以圖片又從哪裡來呢
無題 無名 ID:Bry8sWhA 2021/08/10(二) 19:29:01.097 No.23744717
島民大概都會被抓來問吧
無題 無名 ID:UU1HVjm. 2021/08/10(二) 19:45:17.527 No.23744941
>>23743987
我家爸媽拍過我嬰兒時期的裸照
我哥嬰兒時我爸媽也有拍
聽說我爸我伯父剛出生時我爺爺奶奶也會拍
只是一般家庭紀錄家族成長的家庭照
有人會拿剛出生沒多久幾個月得男嬰尻槍?!
怕…..
無題 無名 ID:eGXZ9WCk 2021/08/10(二) 19:48:47.156 No.23744988
>>23744274
fbi蒐集的

>>23744223
就和你說這技術完全沒有任何ai成分,就是比對資料庫而已,而資料庫也是人一張一張認定建立出來的
你斷網它就不能檢查,fbi沒看過的它就抓不到,懂了嗎?
無題 無名 ID:vmaMtBSo 2021/08/10(二) 19:51:18.816 No.23745022
回覆: >>23745184
>到底是合理的管制,還是侵犯隱私呢
成為女拳的形狀而已
無題 無名 ID:CfSZVpTY 2021/08/10(二) 19:55:23.066 No.23745066
回覆: >>23745102
我怎麼記得以前有個文章
是說美國警方請蘋果解開犯人的手機
然後蘋果以侵犯人權拒絕了
無題 無名 ID:oJqLm2es 2021/08/10(二) 19:55:59.911 No.23745077
>>23743941
>然後快速改成furry 逃過一劫
>逃過一劫
你確定?
無題 無名 ID:9vfTLyMg 2021/08/10(二) 19:57:22.738 No.23745102
>>23745066
看那個人有沒有蘋果價值啊
無題 無名 ID:ecaVrwU6 2021/08/10(二) 19:58:55.926 No.23745118
附圖
這些拉機小手段,對有權勢的人根本不成問題
所以島民快努力成為有權勢的人吧
無題 無名 ID:IJEeOT/A 2021/08/10(二) 20:00:32.193 No.23745143
回覆: >>23745221
>>23743811
所以SJW是不是嚮往2077那種監視社會啊? 除了貴族特權階級 每個人都要在政府或企業的監視之下?
無題 無名 ID:eJ9ZqIAk 2021/08/10(二) 20:01:20.228 No.23745152
回覆: >>23745221
奇怪
美國不是一個無罪推定的國家嗎
照理說他沒有掌握我犯罪的證據
就不應該擅自把我的手機資訊丟進資料庫比對啊
冠冕堂皇的侵害人權欸
今天他用這招抓戀童癖大家叫好
下次再用同樣招說日本卡通圖片也是戀童癖照片
再進一步變成他覺得是未成年就是戀童癖
阿不就跟支那沒什麼兩樣
無題 無名 ID:q3xDCbJo 2021/08/10(二) 20:01:34.105 No.23745154
回覆: >>23745193
附圖
笑了,比中共還先進www
果粉記得要支持人權隱私拒用啊www
無題 無名 ID:h2zpBi9c 2021/08/10(二) 20:03:23.658 No.23745184
回覆: >>23745265
>>23745022
原來反兒童色情=女權
看來k島是女權網站
無題 無名 ID:MSPyMyeE 2021/08/10(二) 20:03:41.348 No.23745187
回覆: >>23745249
笑死
戀童癖一個個現形
就是要搞死你們啦
爽!!
無題 無名 ID:H7zLUD3g 2021/08/10(二) 20:04:21.837 No.23745193
>>23745154
低能賤畜
連言論自由都沒有還想跟人家比啊
滾回牆內吧
無題 無名 ID:eGXZ9WCk 2021/08/10(二) 20:06:13.025 No.23745221
>>23745143
sjw是共產極權,不是資本極權
不過殊途同歸底下人過的都一個樣

>>23745152
「如果你要儲存一堆與兒童色情相關的照片,對,這對你來說十分糟糕。」Apple負責隱私領域的軟體經理紐恩史溫德(Erik Neuenschwander)表示:「但對其他人來說,這不會產生任何差別。」
有沒有很熟悉?對,當初過香港國安法時阿共也是這樣講的
無題 無名 ID:eJx.PBR6 2021/08/10(二) 20:07:44.480 No.23745249
>>23745187
還好啦
我蘋果手機應該也有存過幼幼
被刪就算了
又不是要當什麼傳家寶
無題 無名 ID:vmaMtBSo 2021/08/10(二) 20:08:34.503 No.23745265
>>23745184
>反兒童色情=女權
這印象源自於discover頻道
其中有段節目是美國的女權份子在日本採訪兒童色情漫畫
完全滿滿的攻擊與惡意 完全只抓籮莉 政太就裝瞎
無題 無名 ID:bSHn4ZMQ 2021/08/10(二) 20:11:14.934 No.23745300
兒童色情在全球色情交易裡面根本就是小眾的小眾
一而再而三地針對兒童色情
只能說是婊子想拿牌坊
無題 無名 ID:vIhmDIcg 2021/08/10(二) 20:12:27.461 No.23745317
>>23745249
你不怕他們報警嗎
無題 無名 ID:RAGVjSAw 2021/08/10(二) 20:36:46.126 No.23745612
附圖
>>23745249
新北市一名男子玩弄未成年的表妹下體,還拍下多張照片並上傳到雲端相簿,作為個人欣賞
用,Google偵測到不雅照,立即將影像下架,並通報我國刑事局,最後成功抓到「攝狼」,
原以為把檔案存雲端就神不知鬼不覺的男子簡直嚇壞,只能乖乖就逮。

別以為不用蘋果就安全ㄏㄚˋ