数千人のCSAM被害者が、児童性的虐待物が含まれているかどうかデバイスをスキャンする計画を中止したとしてAppleを訴えている。
12億ドルを超える罰金に直面することに加えて、私たちの多くが抑圧的な政権による悪用のリスクを指摘したことを受けて、同社は中止した計画の復活を余儀なくされる可能性がある…
これまでの話
ほとんどのクラウド コンピューティング サービスは、デジタル フィンガープリント方式を使用して、児童性的虐待資料 (CSAM) がないかユーザー アカウントを定期的にスキャンします。
これらのフィンガープリントは、既知の CSAM 画像を誰にも見られずに照合する方法であり、誤検知をほとんど発生させずに、トリミングまたはその他の方法で編集された画像との照合を継続できるように十分にあいまいになるように設計されています。一致するものが見つかった場合、写真は人間によって手動でチェックされます。その写真が CSAM であることが確認された場合は、報告書が提出され、法執行機関に渡されます。
iCloudはこのスキャンを行わない数少ないクラウドサービスの1つで、Appleはその理由としてプライバシーを挙げている。
プライバシーを尊重した方法で CSAM スキャンを導入する試みとして、Apple はフィンガープリンティング ツールを実行して、 オンデバイス これは、iCloud 写真をスキャンするよりも煩わしくないという理由からです。場合のみ 複数 誤検知のリスクをさらに減らす方法として、人間が写真を確認すると一致するものが見つかりました。
私たちの多くが観察したように、問題は、抑圧的な政府による虐待の可能性でした。
デジタル指紋を作成できるのは、 どれでも CSAM だけでなく、材料の種類も異なります。権威主義政府が政治キャンペーンのポスターなどの画像をデータベースに追加することを止めることはできません。
重大な犯罪者をターゲットにするように設計されたツールは、政府やその 1 つ以上の政策に反対する人々を検出するために簡単に応用できる可能性があります。政府から指紋データベースを受け取ることになるアップルは、知らず知らずのうちに弾圧、あるいはさらに悪いことに政治活動家を支援することになるだろう。
Appleは当初、これには決して同意しないと述べたが、私たちの多くは再び、Appleには選択の余地はないと指摘した。法律を遵守するために何か大ざっぱな行動をしなければならないたびに、同社が「Apple は事業を展開する各国の法律を遵守します」と言うのは有名な話です。
iPhone メーカーは当初この議論を拒否しましたが、問題の現実を遅ればせながら認める前に、最終的には CSAM スキャン計画を放棄しました。その後、Apple はまさにこの主張を利用して、法案に反対しました。
CSAM被害者が訴訟を起こす
アルテクニカ は、CSAM 被害者が現在、スキャンの実施を怠ったとして Apple を訴えていると報告しています。
児童性的虐待物(CSAM)としても知られる違法な児童ポルノの検出と報告を怠ったとして、数千人の被害者がAppleを訴えた。 […]
訴訟を起こしている児童性的虐待被害者らは、アップルがサイバーセキュリティ防御を利用して、テクノロジー大手の必須のCSAM報告義務を無視していると非難している。陪審の勝訴になれば、アップルは12億ドル以上の罰金を科される可能性がある。そして、おそらくプライバシー擁護派にとって最も注目すべきは、Apple が「iCloud 上で CSAM を特定、削除、報告し、Apple のデバイスやサービス上での CSAM や児童の性的人身売買の継続的な蔓延を防ぐためのポリシー、実践、手順の導入」を強いられる可能性もあります。これは、物議を醸しているツール、または CSAM を大量検出するための業界標準を満たす代替ツールの実装を求める裁判所命令を意味する可能性があります。
アップルは自社の政策から利益を誘導したとして非難されている。
生存者の見方によれば、Apple は iCloud 上で CSAM を許可することで利益を得ている。児童捕食者は Apple の製品を、他のほとんどの大手ハイテク企業が大量報告している CSAM を保存するための安全な避難所とみなしているからである。 Appleが2023年に報告した既知のCSAM事例は267件のみだったが、他の4社の「大手テクノロジー企業は3,200万件以上の報告書を提出した」と訴状は指摘している。そして、Apple の CSAM に対する緩いとされるアプローチが野放しのまま続けば、AI によって報告されない CSAM の量が指数関数的に増加する可能性があると、生存者たちは懸念しています。
これに対し同社は、この問題に対処するために積極的な措置を講じていると述べた。
児童に対する性的虐待の内容は忌まわしいものであり、私たちは、子どもたちを危険にさらす犯罪者との闘いに全力で取り組んでいます。私たちは、すべてのユーザーのセキュリティとプライバシーを損なうことなく、これらの犯罪と戦うための革新を緊急かつ積極的に行っています。たとえば、コミュニケーションの安全性などの機能は、児童の性的虐待につながる強制の連鎖を断ち切るために、ヌードを含むコンテンツを受信したり送信しようとしたりしたときに子供に警告します。私たちは、CSAM の蔓延を事前に防止する保護の構築に引き続き注力しています。
9to5Macの見解
この問題は、関係者全員にとって勝ち目のない状況です。本当に忌まわしい犯罪の発見と、抑圧的な政府がそれを利用するリスクとの間には、避けられない葛藤が存在する。
Apple が最初から iCloud 写真をスキャンするという標準的な方法を採用していたら、おそらくこれが物議を醸す問題にはならなかったでしょう。皮肉なことに、よりプライバシーを尊重した方法で同じ目標を達成しようとした同社の試みが論争を引き起こした。
現時点では、これに関して裁判所が判決を下すことがおそらく Apple 自身の利益になるだろう。もしそうなら は スキャンの実装を強制され、将来政府がそれを悪用することになった場合、同社は少なくとも選択肢がなかったと指摘できるはずだ。逆に、Apple が訴訟に勝てば、継続的な圧力を取り除く法的前例が築かれる可能性がある。
FTC: 当社は収入を得る自動アフィリエイト リンクを使用しています。 もっと。