Appleは月曜日にmacOS Monterey 12.1、iOS 15.2、iPadOS 15.2をリリースし、子供がヌードを含む写真を送受信する際に親ではなく子供に警告するために写真をスキャンする、以前に発表されたメッセージ用のオプトイン通信安全機能を導入した。
MacDailyNews 注記:この iMessage 機能は、 「児童性的虐待コンテンツ検出 (CSAM)」というトロイの木馬によって導入された、維持不可能な (キャンセルされたのではなく、遅延された) バックドア監視システムではありません。
ブルームバーグニュースのマーク・ガーマン氏:
Appleは今年初め、児童保護を目的とした3つの新機能の導入を試みていた。メッセージ機能、児童虐待の報告方法を学習できるSiriの新機能、そしてiCloud写真内のCSAM(児童性的虐待コンテンツ)を検出する技術だ。しかし、このアプローチはプライバシー専門家から激しい反発を招き、導入は延期された。
現在、Apple は iOS 15.2 で最初の 2 つの機能を提供しており、CSAM 検出機能がいつ再び登場するかについては何も発表されていません。
画像検出の仕組みは次のとおりです。お子様が所有するiPhone、iPad、Macは、メッセージアプリで送受信された画像を分析し、ヌードを検出します。ヌード画像が検出された場合は、画像がぼやけて表示され、お子様が閲覧する前に警告が表示されます。お子様がヌード画像を送信しようとした場合も、警告が表示されます。
どちらの場合も、お子様はメッセージアプリを通じて保護者に状況を伝えることができますが、保護者には自動的に通知が届きません。これは、今年初めに発表された当初のアプローチからの変更点です。
この機能を使用するには、保護者がファミリー共有アカウントでこの機能を有効にする必要があります。
一部のプライバシー擁護派は、Appleの子ども向け安全機能を厳しく批判し、政府が国民を監視するためにこの技術を利用できる可能性があると主張している。しかし、この機能はオプトイン方式で、デバイス上で処理されるため、少なくとも今のところは、こうした懸念は払拭されるかもしれない。
MacDailyNews の見解:デバイス上でのヌード画像検出のオプトイン要素は確かに歓迎すべきものですが、子供だけでなくあらゆるユーザーやヌード以外のコンテンツのスキャンを有効にするには、どれほどの飛躍が必要でしょうか。
問題となっている法律に関係なく、現地の法律を遵守する Apple のような企業にとって、ユーザーのデバイス上で「違法」コンテンツが発見されるたびに、政府から秘密の通知を送るよう法的に強制されることは、どれほど大きな飛躍となるだろうか。
中国が習近平批判者(あるいは蜂蜜フェチの擬人化テディベア愛好家)を排除するために、端末上で「くまのプーさん」の画像を検索しているところを想像してみてください。2017年には、ロシアで数千枚の画像が禁止されました。その中には、フルメイクのウラジーミル・プーチン大統領の画像も含まれていました。推測してみてください。
さらに、画像内のテキストを読み取り、それを実際のテキスト データに変換するという Apple の新たな能力を考えると、この無害に聞こえるオプトインのデバイス内メッセージ写真スキャンの改悪は、すぐにディストピアの悪夢のようなものになる可能性がある。
MacDailyNewsへのご支援をお願いいたします。こちらをクリックまたはタップして、私たちの独立系テクノロジーブログを応援してください。ありがとうございます!
Apple は、米国での F1 放映権を取得する画期的な契約を締結する寸前です。
Apple TV+ の新しいドキュメンタリーシリーズ「Knife Edge: Chasing Michelin Stars」は、ゴードン・ラムゼイと Studio Ramsay Global がエグゼクティブプロデューサーを務めます…
AppleはiOS 26でWalletアプリのメジャーアップデートを発表し、搭乗券のエクスペリエンスを強化して航空旅行を簡素化しました…
iOS 26.1 の 2 番目のベータ版では、Apple は iPhone のアラームを再設計し、以前のバージョンと比べてアラームを解除しにくくなりました…
トロフィーを追い求め、王朝を築き、チャンピオンを決める難しい決断を下す Football Manager 26 Touch が、Apple Arcade に帰ってきます…