epal hari ini diumumkan itu dengan pelancaran iOS 15 dan iPad 15 , ia akan mula mengimbas Foto iCloud di A.S. untuk mencari Bahan Penderaan Seksual Kanak-kanak (CSAM) yang diketahui, dengan rancangan untuk melaporkan penemuan itu kepada Pusat Kebangsaan untuk Kanak-kanak Hilang dan Dieksploitasi (NCMEC).
Sebelum Apple memperincikan rancangannya, berita mengenai inisiatif CSAM bocor, dan penyelidik keselamatan sudah mula menyatakan kebimbangan tentang bagaimana protokol pengimbasan imej baharu Apple boleh digunakan pada masa hadapan, seperti yang dinyatakan oleh Masa kewangan .
Apple menggunakan sistem 'NeuralHash' untuk membandingkan imej CSAM yang diketahui dengan foto pada pengguna iPhone sebelum ia dimuat naik ke iCloud . Jika terdapat padanan, gambar tersebut dimuat naik dengan baucar keselamatan kriptografi dan pada ambang tertentu, semakan dicetuskan untuk memeriksa sama ada orang itu mempunyai CSAM pada peranti mereka.
perbezaan antara iphone 12 dan 12 pro
Pada masa ini, Apple menggunakan teknologi pengimbasan dan pemadanan imejnya untuk mencari penderaan kanak-kanak, tetapi penyelidik bimbang bahawa pada masa hadapan, ia boleh disesuaikan untuk mengimbas jenis imejan lain yang lebih membimbangkan, seperti papan tanda antikerajaan di bantahan.
Dalam satu siri tweet, penyelidik kriptografi Johns Hopkins Matthew Green berkata bahawa pengimbasan CSAM adalah 'idea yang sangat buruk' kerana pada masa hadapan, ia boleh berkembang kepada mengimbas foto yang disulitkan hujung ke hujung dan bukannya hanya kandungan yang dimuat naik ke iCloud. Untuk kanak-kanak, Apple ialah melaksanakan ciri pengimbasan berasingan yang mencari kandungan seksual eksplisit secara langsung dalam iMessages, yang disulitkan hujung ke hujung.
Green juga membangkitkan kebimbangan mengenai cincangan yang Apple merancang untuk digunakan kerana mungkin terdapat 'perlanggaran', di mana seseorang menghantar fail tidak berbahaya yang berkongsi cincang dengan CSAM dan boleh mengakibatkan bendera palsu.
Apple bagi pihaknya mengatakan bahawa teknologi pengimbasannya mempunyai 'tahap ketepatan yang sangat tinggi' untuk memastikan akaun tidak dibenderakan secara salah dan laporan disemak secara manual sebelum iCloud akaun dilumpuhkan dan laporan dihantar kepada NCMEC.
Green percaya bahawa pelaksanaan Apple akan mendorong syarikat teknologi lain untuk menggunakan teknik yang sama. 'Ini akan memecahkan empangan,' tulisnya. 'Kerajaan akan menuntutnya daripada semua orang.' Dia membandingkan teknologi itu dengan 'alat yang telah digunakan oleh rejim yang menindas.'
Ini adalah perkara yang tidak baik. Saya tidak begitu mahu berada di pihak lucah kanak-kanak dan saya bukan pengganas. Tetapi masalahnya ialah penyulitan ialah alat berkuasa yang menyediakan privasi, dan anda tidak boleh benar-benar mempunyai privasi yang kukuh sambil mengawasi setiap imej yang dihantar oleh sesiapa sahaja. — Matthew Green (@matthew_d_green) 5 Ogos 2021
Penyelidik keselamatan Alec Muffett, yang pernah bekerja di Facebook, berkata bahawa keputusan Apple untuk melaksanakan pengimbasan imej jenis ini adalah 'langkah besar dan regresif untuk privasi individu.' 'Apple berjalan kembali privasi untuk membolehkan 1984,' katanya.
Ross Anderson, profesor kejuruteraan keselamatan di Universiti Cambridge berkata menyebutnya sebagai 'idea yang benar-benar mengerikan' yang boleh membawa kepada 'pengawasan pukal yang diedarkan' peranti.
Seperti yang ramai telah nyatakan di Twitter, beberapa syarikat teknologi sudah melakukan pengimbasan imej untuk CSAM. Google, Twitter, Microsoft, Facebook dan lain-lain menggunakan kaedah pencincangan imej untuk mencari dan melaporkan imej penderaan kanak-kanak yang diketahui.
Dan jika anda tertanya-tanya sama ada Google mengimbas imej untuk imej penderaan kanak-kanak, saya menjawab bahawa dalam cerita yang saya tulis lapan tahun lalu: ia telah melakukannya **SEJAK 2008**. Mungkin semua duduk dan memakai semula topi anda. pic.twitter.com/ruJ4Z8SceY - Charles Arthur (@charlesarthur) 5 Ogos 2021
Ia juga perlu diperhatikan bahawa Apple adalah sudah mengimbas beberapa kandungan untuk imej penderaan kanak-kanak sebelum pelancaran inisiatif CSAM baharu. Pada 2020, ketua pegawai privasi Apple Jane Horvath berkata bahawa Apple menggunakan teknologi penyaringan untuk mencari imej haram dan kemudian melumpuhkan akaun jika bukti CSAM dikesan.
bagaimana memulakan semula iphone 12 pro max
Apple pada tahun 2019 mengemas kini dasar privasinya untuk ambil perhatian bahawa ia akan mengimbas kandungan yang dimuat naik untuk 'kandungan yang berkemungkinan menyalahi undang-undang, termasuk bahan eksploitasi seksual kanak-kanak,' jadi pengumuman hari ini bukanlah baharu sepenuhnya.
Nota: Disebabkan oleh sifat politik atau sosial perbincangan mengenai topik ini, utas perbincangan terletak di kami Berita Politik forum. Semua ahli forum dan pelawat tapak dialu-alukan untuk membaca dan mengikuti urutan, tetapi pengeposan terhad kepada ahli forum yang mempunyai sekurang-kurangnya 100 siaran.
Tag: Privasi Apple , ciri keselamatan kanak-kanak Apple
Jawatan Popular