Berita Apple

Penyelidik Universiti Yang Membina Sistem Pengimbasan CSAM Mendesak Apple Tidak Menggunakan Teknologi 'Berbahaya'

Jumaat 20 Ogos 2021 6:48 pagi PDT oleh Sami Fathi

Penyelidik universiti yang dihormati sedang membunyikan loceng penggera mengenai teknologi di sebalik rancangan Apple untuk mengimbas iPhone perpustakaan foto pengguna untuk CSAM, atau bahan penderaan seksual kanak-kanak, yang memanggil teknologi itu 'berbahaya.'





privasi epal
Jonanath Mayer, penolong profesor sains komputer dan hal ehwal awam di Princeton University, serta Anunay Kulshrestha, seorang penyelidik di Princeton University Centre for Information Technology Policy, kedua-duanya menulis op-ed untuk The Washington Post , menggariskan pengalaman mereka dengan membina teknologi pengesanan imej.

Para penyelidik memulakan projek dua tahun lalu untuk mengenal pasti CSAM dalam perkhidmatan dalam talian yang disulitkan hujung ke hujung. Para penyelidik menyatakan bahawa berdasarkan bidang mereka, mereka 'tahu nilai penyulitan hujung ke hujung, yang melindungi data daripada akses pihak ketiga.' Kebimbangan itu, kata mereka, adalah yang menggerunkan mereka kerana CSAM 'berkembang pada platform yang disulitkan.'



dah keluar iphone 13

Mayer dan Kulshrestha berkata mereka mahu mencari jalan tengah untuk situasi itu: membina sistem yang boleh digunakan platform dalam talian untuk mencari CSAM dan melindungi penyulitan hujung ke hujung. Para penyelidik menyatakan bahawa pakar dalam bidang itu meragui prospek sistem sedemikian, tetapi mereka berjaya membinanya dan dalam proses itu melihat masalah yang ketara.

Kami berusaha untuk meneroka jalan tengah yang mungkin, di mana perkhidmatan dalam talian boleh mengenal pasti kandungan berbahaya sambil mengekalkan penyulitan hujung ke hujung. Konsepnya adalah mudah: Jika seseorang berkongsi bahan yang sepadan dengan pangkalan data kandungan berbahaya yang diketahui, perkhidmatan itu akan dimaklumkan. Jika seseorang berkongsi kandungan yang tidak bersalah, perkhidmatan itu tidak akan belajar apa-apa. Orang ramai tidak dapat membaca pangkalan data atau mengetahui sama ada kandungan sepadan, kerana maklumat itu boleh mendedahkan kaedah penguatkuasaan undang-undang dan membantu penjenayah mengelak pengesanan.

Pemerhati yang berpengetahuan berpendapat bahawa sistem seperti kami adalah jauh daripada boleh dilaksanakan. Selepas banyak permulaan palsu, kami membina prototaip yang berfungsi. Tetapi kami menghadapi masalah yang ketara.

Sejak pengumuman Apple mengenai ciri itu, syarikat itu telah dihujani dengan kebimbangan bahawa sistem di sebalik pengesanan CSAM boleh digunakan untuk mengesan bentuk foto lain atas permintaan kerajaan yang menindas. Apple telah menolak dengan keras kemungkinan sedemikian, dengan mengatakan ia akan menolak sebarang permintaan sedemikian daripada kerajaan.

Namun begitu, kebimbangan terhadap implikasi masa depan teknologi yang digunakan untuk pengesanan CSAM adalah meluas. Mayer dan Kulshrestha berkata bahawa kebimbangan mereka tentang cara kerajaan boleh menggunakan sistem untuk mengesan kandungan selain CSAM telah menyebabkan mereka 'terganggu'.

apple tv 4k lwn apple tv 4

Kerajaan asing boleh, sebagai contoh, memaksa perkhidmatan kepada orang yang berkongsi ucapan politik yang tidak disenangi. Itu bukan hipotesis: WeChat, apl pemesejan Cina yang popular, sudah menggunakan padanan kandungan untuk mengenal pasti bahan penentang. India menggubal peraturan tahun ini yang mungkin memerlukan pra-penyaringan kandungan yang mengkritik dasar kerajaan. Rusia baru-baru ini mendenda Google, Facebook dan Twitter kerana tidak mengalih keluar bahan protes prodemokrasi.

Kami melihat kelemahan lain. Proses pemadanan kandungan mungkin mempunyai positif palsu, dan pengguna yang berniat jahat boleh mempermainkan sistem untuk menundukkan pengguna yang tidak bersalah kepada penelitian.

Kami sangat terganggu sehingga kami mengambil langkah yang tidak pernah kami lihat sebelum ini dalam kesusasteraan sains komputer: Kami memberi amaran terhadap reka bentuk sistem kami sendiri, menggesa penyelidikan lanjut tentang cara mengurangkan kelemahan yang serius....

Apple terus menangani kebimbangan pengguna mengenai rancangannya, menerbitkan dokumen tambahan dan halaman Soalan Lazim . Apple terus percaya bahawa sistem pengesanan CSAMnya, yang akan berlaku pada peranti pengguna, sejajar dengan nilai privasinya yang telah lama wujud.

Teg: Privasi Apple , WashingtonPost.com , ciri keselamatan kanak-kanak Apple