Appleは木曜日、米国でiPhoneの写真をiCloudストレージサービスにアップロードする前に、アップロードされた写真が児童性的虐待の既知の画像と一致しないことを確認するシステムを導入すると発表した。しかし、プライバシー擁護団体の一部は、このシステムによってiPhone上の政治的発言やその他のコンテンツの監視が可能になる可能性があると指摘している。電子フロンティア財団(EFF)はこれを次のように説明している。「Appleは自社のデータストレージシステムとメッセージングシステムにバックドアを仕掛けようとしている」
インディア・マッキニーとエリカ・ポートノイ(EFF)
児童搾取は深刻な問題であり、Appleはプライバシー保護の姿勢を曲げてこの問題に取り組んだ最初のテクノロジー企業ではありません。しかし、その選択はユーザーのプライバシー全体にとって大きな代償を伴うことになります。Appleは、提案するバックドアにおいて、技術的実装がどのようにプライバシーとセキュリティを保護するのかを詳しく説明できますが、結局のところ、徹底的に文書化され、慎重に検討され、対象範囲が限定されたバックドアであっても、それはバックドアであることに変わりはありません。
Appleの計画に失望していると言うのは控えめな表現です。Appleは歴史的にエンドツーエンド暗号化の推進者であり、EFFが繰り返し主張してきた理由と全く同じです。エンドツーエンド暗号化に関するAppleの妥協は、米国内外の政府機関を納得させるかもしれませんが、プライバシーとセキュリティにおける同社のリーダーシップを頼りにしてきたユーザーにとっては、衝撃的な方向転換です。
以前にも申し上げましたが、改めて申し上げます。児童が送受信する性的に露骨な画像のみをスキャンするクライアント側スキャンシステムを構築することは不可能です。結果として、たとえ善意からそのようなシステムを構築しようとしたとしても、メッセンジャーの暗号化自体の重要な約束が破られ、より広範な悪用につながる可能性があります。
MacDailyNews の見解: Apple は、プライバシー保護に対する自慢の主張を台無しにするこのバックドアを導入するような耐え難い状況に置かれたに違いない。そうでなければ、ティム・クックは完全に計画を見失っている。
バックドアが必要だと主張する人もいます。しかし現実には、バックドアを設置したら、それは善人にも悪人にも、誰にでも開かれることになります。バックドアは善人だけでなく悪人にも開かれるということを、誰もが認識し始めていると思います。ですから、バックドアは絶対にダメです。私たち全員が安全ではないということです。私はいかなる政府にもバックドアを設置することを決して支持しません。
人々は私たちに、プライバシーを守るための支援を求めていると考えています。プライバシーは人々が持つ基本的人権であると認識しています。私たちは、その信頼を維持するために、できる限りのことを行っていきます。— Apple CEO ティム・クック、2015年10月1日
うーん、と思わせるような話です。長年、水は湿っていると正しく主張してきた人が、突然、いや、水は乾いているのだと主張するとしたら、デンマークという国は明らかに何かが腐っていると言えるでしょう。
ティム・クックがこのバックドアに屈服したのは、何かの理由があったのでしょうか?
繰り返しますが、暗号化はバイナリであり、オンかオフのどちらかです。
両方を同時に実現することはできません。完全な暗号化によってプライバシーを確保するか、Appleにバックドアを強制することでプライバシーを失わせるかのどちらかです。すべてか、何もないかのどちらかです。
強力な暗号化(つまりバックドアがない)がなければ、米国企業のハイテク製品は世界中で敬遠されるだろう。— MacDailyNews、2017年2月2日
参照:iPhoneの脱獄方法
マッキニーとポートノイはEFFの次のコメントを続ける。
Appleが構築している狭いバックドアを広げるには、機械学習のパラメータを拡張して他の種類のコンテンツを探すか、設定フラグを微調整して子供だけでなく誰のアカウントもスキャンするようにするだけで十分です。これは危険な道ではなく、外部からの圧力によってわずかな変化がもたらされるのを待っている、既に構築済みのシステムです。インドを例に挙げましょう。最近可決された規則には、プラットフォームがメッセージの発信元を特定し、コンテンツを事前審査するという危険な要件が含まれています。エチオピアでは、「誤情報」を含むコンテンツを24時間以内に削除することを義務付ける新しい法律が、メッセージングサービスにも適用される可能性があります。そして、他の多くの国(多くの場合、独裁政権を持つ国)でも同様の法律が可決されています。Appleの変更により、エンドツーエンドのメッセージングにおいて、このようなスクリーニング、削除、そして報告が可能になります。悪用されるケースは容易に想像できます。同性愛を違法とする政府は、明らかにLGBTQ+コンテンツを制限するように分類器を訓練することを要求するかもしれませんし、独裁政権は、分類器に人気のある風刺画像や抗議のビラを見分けられるように要求するかもしれません。
このミッションが既に実行に移されているのを私たちは目撃しています。元々は児童性的虐待画像をスキャンしてハッシュ化するために開発された技術の一つが、企業が投稿・アクセスしてそのようなコンテンツを禁止できる「テロリスト」コンテンツのデータベース作成に転用されました。このデータベースは、テロ対策のための世界インターネットフォーラム(GIFCT)によって管理されていますが、市民社会からの要請にもかかわらず、外部からの監視が全くないという問題があります。そのため、データベースが行き過ぎたかどうかは分かりませんが、暴力や弾圧の記録、カウンタースピーチ、アート、風刺など、批判的なコンテンツをプラットフォームが定期的に「テロリズム」としてフラグ付けしていることは分かっています。
肝心なことは、技術的な詳細におけるプライバシーとセキュリティの側面がどうであれ、iCloud にアップロードされた写真はすべてスキャンされるということです。
誤解しないでください。これは、すべての iCloud フォト ユーザーのプライバシーの低下であり、改善ではありません。
現在、AppleはiCloudフォトに保存されている写真を閲覧する鍵を保有していますが、これらの画像をスキャンしていません。人権団体はAppleに対し、スキャン機能を削除するよう求めています。しかし、Appleは逆のアプローチを取り、ユーザーのコンテンツに関する知識を増大させています。
MacDailyNewsの見解: FBIなどの政府機関がAppleに対し、iCloudバックアップのエンドツーエンド暗号化を決して行わないよう圧力をかけたという報道もあります。プライバシーとセキュリティを真剣に考える企業であれば、何年も前にそうしていたはずです。暗号化されていないiCloudバックアップが依然として存在し、ユーザーのデバイスへの新たなバックドア侵入が行われている現状では、Appleのプライバシーに関する主張は空虚なものとなり、もはや単なるデタラメなマーケティングに過ぎません。
我々はAppleがもっと優れていると期待していた。Appleは失敗した。
Appleが「プライバシー」企業であるというイメージは、多くの好意的な報道をもたらしました。しかし、FBIからの圧力を受けてiCloudのバックアップを暗号化しないのも、Appleと同じ企業であることを忘れてはなりません。https://t.co/tylofPfV13
— マシュー・グリーン(@matthew_d_green)2021年8月5日
マッキニーとポートノイはEFFの次のコメントを続ける。
また、Appleが性的に露骨な画像を判断するのに、監査が非常に難しいことで知られる機械学習分類器の技術を使うことを選択したことも特筆に値します。長年の資料や研究から、人間の監視なしに使用される機械学習技術は、「性的に露骨な」とされるコンテンツも含め、コンテンツを誤って分類する傾向があることが分かっています。ブログプラットフォームのTumblrが2018年に性的コンテンツのフィルターを導入した際には、ポメラニアンの子犬の写真、服を着た人物の自撮り写真など、ネット上のあらゆる種類の画像が検出されたことは有名です。Facebookがヌードを取り締まろうとした結果、コペンハーゲンの人魚姫のような有名な彫像の写真が削除されました。これらのフィルターは過去にも恐ろしい表現を扱っており、Appleのフィルターも同様のことをするだろうと考える理由は十分にあります。
「性的に露骨な画像」の検出には、デバイス上の機械学習を用いてメッセージの内容をスキャンするため、AppleはもはやiMessageを「エンドツーエンドで暗号化」しているとは言い切れなくなります。Appleとその支持者たちは、メッセージの暗号化または復号化の前後を問わずスキャンすることで「エンドツーエンド」の約束は守られると主張するかもしれませんが、それは強力な暗号化に対する同社の姿勢の根本的な転換を隠蔽するための、いわば言葉遊びに過ぎないでしょう。
人々は、未成年者であっても、バックドアや検閲を受けることなく、プライベートにコミュニケーションをとる権利を持っています。Appleは正しい判断を下すべきです。つまり、ユーザーのデバイスからこれらのバックドアを排除すべきです。
MacDailyNewsの見解: AppleがCEOから下まで長年にわたり主張してきたプライバシー保護の約束を破棄した今、このひどく愚かな決定の見返りとして、Appleは暗黙的か明示的かを問わず、何かを約束されていたのではないかと疑わざるを得ない。米国をはじめとする各国政府は、独占禁止法訴訟や税金などでAppleに寛容な対応をするだろうか?Appleの決定はあまりにも不可解だ。自社製品へのバックドア設置に断固反対してきたAppleが、プライバシーとセキュリティに関してこれほど衝撃的な方向転換をしたのは、一体なぜだろうか?
もう一度言いますが、おそらく意図されているように、これは一見すると素晴らしいことのように聞こえます (誰もが児童ポルノの提供者を検出し、根絶することに賛成です) が、1 秒以上考えてみると、恐ろしいことのように聞こえます (悪用される可能性が非常に高い)。
これは大きな問題だ。端的に言って、これはバックドアであり、ユーザーのプライバシーを保護するというAppleの主張を巧妙に否定している。
過去数年にわたるティム・クック氏のマーケティング費用、テレビ広告、プライバシーに関する厳粛な宣言はすべて、一言で言えば、Apple が写真とメッセージをスキャンするという単純な事実に反するものである。
何をスキャンしているかは問題ではありません。1 つのものをスキャンできれば、何でもスキャンできるからです。
賢明な人たちは、Apple の iCloud フォトや写真とメッセージ アプリの代替品を探し始めるでしょう。
すべての場所で iCloud 写真をオフにするには、次の手順に従います。
• iPhone、iPad、または iPod touch で、「設定」>「[あなたの名前]」>「iCloud」>「ストレージを管理」>「写真」に移動し、「無効にして削除」をタップします。
• Macで、Appleメニュー > システム環境設定に移動し、「Apple ID」をクリックします。「iCloud」を選択し、「管理」をクリックします。「写真」を選択し、「オフにして削除」をクリックします。
気が変わった場合は、デバイスで上記の手順を実行し、「削除を元に戻す」を選択してください。
写真とビデオはアカウントに30日間保存されます。iOSデバイスに写真とビデオをダウンロードするには、「設定」>「[ユーザ名]」>「iCloud」>「写真」に移動し、「オリジナルをダウンロードして保持」を選択してください。Macの場合は、「写真」アプリを開き、「写真」>「環境設定」と選択し、「iCloud」をクリックして、「オリジナルをこのMacにダウンロード」を選択してください。iCloud.comからダウンロードしたい写真とビデオを選択することもできます。
Apple のスキャン システムが CSAM 以外の目的で使用されることは決してないことを願いますが、政府が行使し得る圧力や Apple が中国に依存している程度を考えると、それはまず考えられません。
その点において彼らが正しいか間違っているかは、ほとんど問題ではありません。これで事態は一変し、政府はすべての人にそれを求めるようになるでしょう。
そしてそれが間違いだったと気付いた時には、もう手遅れになっているでしょう。
— マシュー・グリーン(@matthew_d_green)2021年8月5日