Berita Apple

Apple Menerbitkan Soalan Lazim untuk Menangani Kebimbangan Mengenai Pengesanan CSAM dan Pengimbasan Mesej

Isnin 9 Ogos 2021 2:50 pagi PDT oleh Tim Hardwick

Apple telah menerbitkan Soalan Lazim bertajuk 'Perlindungan Diperluas untuk Kanak-kanak' yang bertujuan untuk meredakan kebimbangan privasi pengguna tentang pengesanan CSAM baharu dalam Foto iCloud dan keselamatan komunikasi untuk ciri Mesej yang syarikat diumumkan minggu lepas .





privasi epal
'Sejak kami mengumumkan ciri ini, ramai pihak berkepentingan termasuk organisasi privasi dan organisasi keselamatan kanak-kanak telah menyatakan sokongan mereka terhadap penyelesaian baharu ini, dan ada yang telah menghubungi mereka dengan soalan,' baca FAQ. 'Dokumen ini berfungsi untuk menangani soalan-soalan ini dan memberikan lebih kejelasan dan ketelusan dalam proses itu.'

Beberapa perbincangan telah mengaburkan perbezaan antara kedua-dua ciri, dan Apple mengambil berat dalam dokumen untuk membezakannya, menjelaskan bahawa keselamatan komunikasi dalam Messages 'hanya berfungsi pada imej yang dihantar atau diterima dalam apl Messages untuk akaun kanak-kanak yang disediakan dalam Perkongsian Keluarga,' manakala pengesanan CSAM dalam ‌iCloud Photos‌ 'hanya memberi kesan kepada pengguna yang telah memilih untuk menggunakan ‌iCloud Photos‌ untuk menyimpan foto mereka… Tiada kesan kepada mana-mana data pada peranti lain.'



Daripada Soalan Lazim:

bagaimana untuk bermain itunes pada sonos dari iphone

Kedua-dua ciri ini tidak sama dan tidak menggunakan teknologi yang sama.

Keselamatan komunikasi dalam Messages direka bentuk untuk memberi ibu bapa dan kanak-kanak alat tambahan untuk membantu melindungi anak-anak mereka daripada menghantar dan menerima imej seksual yang eksplisit dalam apl Messages. Ia hanya berfungsi pada imej yang dihantar atau diterima dalam apl Messages untuk akaun kanak-kanak yang disediakan dalam Perkongsian Keluarga. Ia menganalisis imej pada peranti, dan oleh itu tidak mengubah jaminan privasi Messages. Apabila akaun kanak-kanak menghantar atau menerima imej seksual eksplisit, foto itu akan menjadi kabur dan kanak-kanak itu akan diberi amaran, diberikan sumber yang berguna dan memberi jaminan bahawa tidak mengapa jika mereka tidak mahu melihat atau menghantar foto itu. Sebagai langkah berjaga-jaga tambahan, kanak-kanak kecil juga boleh diberitahu bahawa, untuk memastikan mereka selamat, ibu bapa mereka akan mendapat mesej jika mereka melihatnya.

Ciri kedua, pengesanan CSAM dalam Foto iCloud, direka untuk menghalang CSAM daripada Foto iCloud tanpa memberikan maklumat kepada Apple tentang sebarang foto selain daripada yang sepadan dengan imej CSAM yang diketahui. Imej CSAM adalah haram untuk dimiliki di kebanyakan negara, termasuk Amerika Syarikat. Ciri ini hanya memberi kesan kepada pengguna yang telah memilih untuk menggunakan Foto iCloud untuk menyimpan foto mereka. Ia tidak memberi kesan kepada pengguna yang tidak memilih untuk menggunakan Foto iCloud. Tiada kesan kepada mana-mana data pada peranti lain. Ciri ini tidak digunakan pada Messages.

Selebihnya dokumen dibahagikan kepada tiga bahagian (dalam huruf tebal di bawah), dengan jawapan kepada soalan lazim berikut:

apa kes yang sesuai dengan iphone 6s plus

bagaimana untuk mencari airpod sekiranya berlaku
    Keselamatan komunikasi dalam Messages
  • Siapa yang boleh menggunakan keselamatan komunikasi dalam Messages?
  • Adakah ini bermakna Messages akan berkongsi maklumat dengan Apple atau penguatkuasa undang-undang?
  • Adakah ini memecahkan penyulitan hujung ke hujung dalam Messages?
  • Adakah ciri ini menghalang kanak-kanak di rumah penderaan daripada mendapatkan bantuan?
  • Adakah ibu bapa akan diberitahu tanpa anak diberi amaran dan diberi pilihan?
  • Pengesanan CSAM
  • Adakah ini bermakna Apple akan mengimbas semua foto yang disimpan pada saya iPhone ?
  • Adakah ini akan memuat turun imej CSAM ke ‌iPhone&zwnj saya; untuk dibandingkan dengan foto saya?
  • Mengapa Apple melakukan ini sekarang?
  • Keselamatan untuk pengesanan CSAM untuk Foto iCloud
  • Bolehkah sistem pengesanan CSAM dalam ‌iCloud Photos‌ digunakan untuk mengesan perkara selain daripada CSAM?
  • Bolehkah kerajaan memaksa Apple menambah imej bukan CSAM pada senarai cincang?
  • Bolehkah imej bukan CSAM 'disuntik' ke dalam sistem untuk membenderakan akaun untuk perkara selain CSAM?
  • Adakah pengesanan CSAM dalam ‌iCloud Photos‌ palsu bendera orang yang tidak bersalah kepada penguatkuasa undang-undang?

Pembaca yang berminat harus merujuk dokumen untuk jawapan penuh Apple kepada soalan ini. Walau bagaimanapun, perlu diingat bahawa untuk soalan yang boleh dijawab dengan ya/tidak binari, Apple memulakan kesemuanya dengan 'Tidak' dengan pengecualian tiga soalan berikut daripada bahagian bertajuk 'Keselamatan untuk pengesanan CSAM untuk ‌ Foto iCloud‌:'

Bolehkah sistem pengesanan CSAM dalam Foto iCloud digunakan untuk mengesan perkara selain daripada CSAM?
Proses kami direka untuk mengelakkan perkara itu daripada berlaku. Pengesanan CSAM untuk Foto iCloud dibina supaya sistem hanya berfungsi dengan cincang imej CSAM yang disediakan oleh NCMEC dan organisasi keselamatan kanak-kanak yang lain. Set cincang imej ini adalah berdasarkan imej yang diperoleh dan disahkan sebagai CSAM oleh organisasi keselamatan kanak-kanak. Tiada pelaporan automatik kepada penguatkuasa undang-undang, dan Apple menjalankan semakan manusia sebelum membuat laporan kepada NCMEC. Akibatnya, sistem hanya direka bentuk untuk melaporkan foto yang diketahui CSAM dalam Foto iCloud. Di kebanyakan negara, termasuk Amerika Syarikat, hanya memiliki imej ini adalah satu jenayah dan Apple bertanggungjawab untuk melaporkan sebarang kejadian yang kami ketahui kepada pihak berkuasa yang berkenaan.

Bolehkah kerajaan memaksa Apple menambah imej bukan CSAM pada senarai cincang?
Apple akan menolak sebarang tuntutan sedemikian. Keupayaan pengesanan CSAM Apple dibina semata-mata untuk mengesan imej CSAM yang diketahui disimpan dalam Foto iCloud yang telah dikenal pasti oleh pakar di NCMEC dan kumpulan keselamatan kanak-kanak yang lain. Kami telah menghadapi tuntutan untuk membina dan menggunakan perubahan mandat kerajaan yang merendahkan privasi pengguna sebelum ini, dan telah menolak permintaan tersebut. Kami akan terus menolak mereka pada masa akan datang. Biar kami jelas, teknologi ini terhad untuk mengesan CSAM yang disimpan dalam iCloud dan kami tidak akan memenuhi permintaan mana-mana kerajaan untuk mengembangkannya. Tambahan pula, Apple menjalankan semakan manusia sebelum membuat laporan kepada NCMEC. Dalam kes di mana sistem membenderakan foto yang tidak sepadan dengan imej CSAM yang diketahui, akaun tersebut tidak akan dilumpuhkan dan tiada laporan akan difailkan kepada NCMEC.

Bolehkah imej bukan CSAM 'disuntik' ke dalam sistem untuk membenderakan akaun untuk perkara selain CSAM?
Proses kami direka untuk mengelakkan perkara itu daripada berlaku. Set cincang imej yang digunakan untuk pemadanan adalah daripada imej CSAM sedia ada yang diketahui yang telah diperoleh dan disahkan oleh organisasi keselamatan kanak-kanak. Apple tidak menambah pada set cincang imej CSAM yang diketahui. Set cincang yang sama disimpan dalam sistem pengendalian setiap pengguna iPhone dan iPad, jadi serangan yang disasarkan terhadap individu tertentu sahaja tidak boleh dilakukan di bawah reka bentuk kami. Akhir sekali, tiada pelaporan automatik kepada penguatkuasa undang-undang, dan Apple menjalankan semakan manusia sebelum membuat laporan kepada NCMEC. Sekiranya berlaku kemungkinan imej pembenderaan sistem yang tidak sepadan dengan imej CSAM yang diketahui, akaun itu tidak akan dilumpuhkan dan tiada laporan akan difailkan kepada NCMEC.

Apple telah menghadapi kritikan yang ketara daripada penyokong privasi, penyelidik keselamatan, pakar kriptografi, ahli akademik dan lain-lain kerana keputusannya untuk menggunakan teknologi dengan pengeluaran iOS 15 dan iPad 15 , dijangka pada bulan September.

Ini telah mengakibatkan satu surat terbuka mengkritik rancangan Apple untuk mengimbas iPhone untuk CSAM dalam ‌iCloud Photos‌ dan imej eksplisit dalam mesej kanak-kanak, yang telah mendapat lebih 5,500 tandatangan sehingga berita ini ditulis. Apple juga telah menerima kritikan daripada WhatsApp milik Facebook, yang ketuanya Will Cathcart memanggilnya 'pendekatan yang salah dan halangan untuk privasi orang di seluruh dunia.' Ketua Pegawai Eksekutif Epic Games Tim Sweeney juga diserang keputusan itu, mendakwa dia 'berusaha keras' untuk melihat langkah itu dari sudut pandangan Apple, tetapi telah membuat kesimpulan bahawa, 'tidak dapat dielakkan, ini adalah perisian pengintip kerajaan yang dipasang oleh Apple berdasarkan anggapan bersalah.'

'Tidak kira betapa berniat baik, Apple melancarkan pengawasan besar-besaran ke seluruh dunia dengan ini,' berkata pemberi maklumat terkenal Edward Snowden, sambil menambah bahawa 'jika mereka boleh mengimbas lucah kanak-kanak hari ini, mereka boleh mengimbas apa sahaja esok.' Yayasan Frontier Elektronik bukan untung juga dikritik Rancangan Apple, menyatakan bahawa 'walaupun pintu belakang yang didokumentasikan dengan teliti, difikirkan dengan teliti, dan berskop sempit masih merupakan pintu belakang.'

bagaimana untuk memulakan semula iphone 11 dengan butang
Tag: Privasi Apple , ciri keselamatan kanak-kanak Apple