Berita Apple

Penyelidik Keselamatan Meluahkan Penggera Terhadap Rancangan Apple Mengimbas Imej iCloud, Tetapi Amalan Sudah Berleluasa

Khamis 5 Ogos 2021 2:04 petang PDT oleh Juli Clover

epal hari ini diumumkan itu dengan pelancaran iOS 15 dan iPad 15 , ia akan mula mengimbas Foto iCloud di A.S. untuk mencari Bahan Penderaan Seksual Kanak-kanak (CSAM) yang diketahui, dengan rancangan untuk melaporkan penemuan itu kepada Pusat Kebangsaan untuk Kanak-kanak Hilang dan Dieksploitasi (NCMEC).





Ciri Keselamatan Kanak-kanak
Sebelum Apple memperincikan rancangannya, berita mengenai inisiatif CSAM bocor, dan penyelidik keselamatan sudah mula menyatakan kebimbangan tentang bagaimana protokol pengimbasan imej baharu Apple boleh digunakan pada masa hadapan, seperti yang dinyatakan oleh Masa kewangan .

Apple menggunakan sistem 'NeuralHash' untuk membandingkan imej CSAM yang diketahui dengan foto pada pengguna iPhone sebelum ia dimuat naik ke iCloud . Jika terdapat padanan, gambar tersebut dimuat naik dengan baucar keselamatan kriptografi dan pada ambang tertentu, semakan dicetuskan untuk memeriksa sama ada orang itu mempunyai CSAM pada peranti mereka.



perbezaan antara iphone 12 dan 12 pro

Pada masa ini, Apple menggunakan teknologi pengimbasan dan pemadanan imejnya untuk mencari penderaan kanak-kanak, tetapi penyelidik bimbang bahawa pada masa hadapan, ia boleh disesuaikan untuk mengimbas jenis imejan lain yang lebih membimbangkan, seperti papan tanda antikerajaan di bantahan.

Dalam satu siri tweet, penyelidik kriptografi Johns Hopkins Matthew Green berkata bahawa pengimbasan CSAM adalah 'idea yang sangat buruk' kerana pada masa hadapan, ia boleh berkembang kepada mengimbas foto yang disulitkan hujung ke hujung dan bukannya hanya kandungan yang dimuat naik ke ‌iCloud‌. Untuk kanak-kanak, Apple ialah melaksanakan ciri pengimbasan berasingan yang mencari kandungan seksual eksplisit secara langsung dalam iMessages, yang disulitkan hujung ke hujung.

Green juga membangkitkan kebimbangan mengenai cincangan yang Apple merancang untuk digunakan kerana mungkin terdapat 'perlanggaran', di mana seseorang menghantar fail tidak berbahaya yang berkongsi cincang dengan CSAM dan boleh mengakibatkan bendera palsu.

Apple bagi pihaknya mengatakan bahawa teknologi pengimbasannya mempunyai 'tahap ketepatan yang sangat tinggi' untuk memastikan akaun tidak dibenderakan secara salah dan laporan disemak secara manual sebelum ‌iCloud‌ akaun dilumpuhkan dan laporan dihantar kepada NCMEC.

Green percaya bahawa pelaksanaan Apple akan mendorong syarikat teknologi lain untuk menggunakan teknik yang sama. 'Ini akan memecahkan empangan,' tulisnya. 'Kerajaan akan menuntutnya daripada semua orang.' Dia membandingkan teknologi itu dengan 'alat yang telah digunakan oleh rejim yang menindas.'


Penyelidik keselamatan Alec Muffett, yang pernah bekerja di Facebook, berkata bahawa keputusan Apple untuk melaksanakan pengimbasan imej jenis ini adalah 'langkah besar dan regresif untuk privasi individu.' 'Apple berjalan kembali privasi untuk membolehkan 1984,' katanya.

Ross Anderson, profesor kejuruteraan keselamatan di Universiti Cambridge berkata menyebutnya sebagai 'idea yang benar-benar mengerikan' yang boleh membawa kepada 'pengawasan pukal yang diedarkan' peranti.

Seperti yang ramai telah nyatakan di Twitter, beberapa syarikat teknologi sudah melakukan pengimbasan imej untuk CSAM. Google, Twitter, Microsoft, Facebook dan lain-lain menggunakan kaedah pencincangan imej untuk mencari dan melaporkan imej penderaan kanak-kanak yang diketahui.


Ia juga perlu diperhatikan bahawa Apple adalah sudah mengimbas beberapa kandungan untuk imej penderaan kanak-kanak sebelum pelancaran inisiatif CSAM baharu. Pada 2020, ketua pegawai privasi Apple Jane Horvath berkata bahawa Apple menggunakan teknologi penyaringan untuk mencari imej haram dan kemudian melumpuhkan akaun jika bukti CSAM dikesan.

bagaimana memulakan semula iphone 12 pro max

Apple pada tahun 2019 mengemas kini dasar privasinya untuk ambil perhatian bahawa ia akan mengimbas kandungan yang dimuat naik untuk 'kandungan yang berkemungkinan menyalahi undang-undang, termasuk bahan eksploitasi seksual kanak-kanak,' jadi pengumuman hari ini bukanlah baharu sepenuhnya.

Nota: Disebabkan oleh sifat politik atau sosial perbincangan mengenai topik ini, utas perbincangan terletak di kami Berita Politik forum. Semua ahli forum dan pelawat tapak dialu-alukan untuk membaca dan mengikuti urutan, tetapi pengeposan terhad kepada ahli forum yang mempunyai sekurang-kurangnya 100 siaran.

Tag: Privasi Apple , ciri keselamatan kanak-kanak Apple