0001チミル ★垢版 | 大砲2021/08/06(金) 17:20:13.53ID:JJc5qnj29 米アップルは5日、アメリカ国内のiPhoneユーザーが画像をクラウドサービス「iCloud」に保存する際に、児童性的虐待コンテンツ(CSAM)かどうかを特定するシステムを導入すると発表した。 アップルによると、画像がiCloud内に保存される前にCSAMかどうか検知するという。 全米行方不明・被搾取児童センター(NCMEC)や、児童の安全に関連する団体が収集した、児童性的虐待画像のデータベースと、iPhoneユーザーが保存しようとしている画像を比較する仕組み。 ※引用ここまで。全文は下記よりお願いいたします。 https://www.bbc.com/japanese/58112361