Berita Apple

Craig Federighi Mengakui Kekeliruan Mengenai Ciri Keselamatan Anak Apple dan Menjelaskan Butiran Baharu Mengenai Perlindungan

Jumaat 13 Ogos 2021 7:33 pagi PDT oleh Hartley Charlton

Naib presiden kanan kejuruteraan perisian Apple, Craig Federighi, hari ini mempertahankan rancangan kontroversi syarikat itu ciri keselamatan kanak-kanak dalam temu bual penting dengan The Wall Street Journal , mendedahkan beberapa butiran baharu tentang perlindungan yang terbina dalam sistem Apple untuk mengimbas perpustakaan foto pengguna untuk Bahan Penderaan Seksual Kanak-kanak (CSAM).





privasi craig wwdc 2021
Federighi mengakui bahawa Apple telah mengendalikan minggu lepas pengumuman daripada dua ciri baharu itu dengan teruk, berkaitan dengan pengesanan kandungan eksplisit dalam Messages untuk kanak-kanak dan kandungan CSAM yang disimpan dalam Foto iCloud perpustakaan, dan mengakui kekeliruan yang meluas di sekitar alat:

Sangat jelas bahawa banyak mesej telah bercelaru dengan teruk dari segi cara sesuatu difahami. Kami berharap perkara ini dapat dilihat dengan lebih jelas untuk semua orang kerana kami berasa sangat positif dan kuat tentang apa yang kami lakukan.



bagaimana untuk menambah gambar ke skrin utama

[...]

Jika difikirkan semula, memperkenalkan kedua-dua ciri ini pada masa yang sama adalah resipi untuk kekeliruan seperti ini. Dengan melepaskannya pada masa yang sama, orang ramai secara teknikal menghubungkannya dan menjadi sangat takut: apakah yang berlaku dengan mesej saya? Jawapannya...tiada apa-apa yang berlaku dengan mesej anda.

Ciri Keselamatan Komunikasi bermakna jika kanak-kanak menghantar atau menerima imej eksplisit melalui iMessage, mereka akan diberi amaran sebelum melihatnya, imej itu akan menjadi kabur dan akan ada pilihan untuk ibu bapa mereka dimaklumkan. Pengimbasan CSAM, sebaliknya, cuba memadankan foto pengguna dengan imej cincang CSAM yang diketahui sebelum ia dimuat naik ke iCloud . Akaun yang telah dikesan CSAM kemudiannya akan tertakluk pada semakan manual oleh Apple dan mungkin dilaporkan kepada Pusat Kebangsaan untuk Kanak-kanak Hilang dan Dieksploitasi (NCMEC).

macam mana nak screenshot pada ipad

Ciri-ciri baharu ini telah menerima banyak kritikan daripada pengguna, penyelidik keselamatan , yang Electronic Frontier Foundation (EFF) dan Edward Snowden , Bekas ketua keselamatan Facebook , dan juga pekerja Apple .

Di tengah-tengah kritikan ini, Federighi menangani salah satu bidang utama yang membimbangkan, menekankan bahawa sistem Apple akan dilindungi daripada diambil kesempatan oleh kerajaan atau pihak ketiga lain dengan 'pelbagai peringkat kebolehauditan.'


Federighi juga mendedahkan beberapa butiran baharu mengenai perlindungan sistem, seperti fakta bahawa pengguna perlu bertemu sekitar 30 perlawanan untuk kandungan CSAM dalam mereka. Foto perpustakaan sebelum Apple dimaklumkan, dan kemudiannya ia akan mengesahkan jika imej tersebut kelihatan sebagai contoh tulen CSAM.

Jika dan hanya jika anda memenuhi ambang sesuatu mengikut susunan 30 imej lucah kanak-kanak yang diketahui padanan, barulah Apple mengetahui apa-apa tentang akaun anda dan mengetahui apa-apa tentang imej tersebut, dan pada ketika itu, hanya tahu tentang imej tersebut, bukan tentang mana-mana imej anda yang lain. Ini tidak melakukan analisis kerana adakah anda mempunyai gambar anak anda di dalam tab mandi? Atau, dalam hal ini, adakah anda mempunyai gambar pornografi dalam bentuk lain? Ini benar-benar hanya padanan pada cap jari tepat imej lucah kanak-kanak tertentu yang diketahui.

Beliau juga menunjukkan kelebihan keselamatan meletakkan proses pemadanan pada iPhone secara langsung, bukannya ia berlaku pada pelayan ‌iCloud‌.

Kerana ia ada pada [telefon], penyelidik keselamatan sentiasa dapat mengintrospeksi perkara yang berlaku dalam perisian [telefon] Apple. Oleh itu, jika sebarang perubahan dibuat yang bertujuan untuk meluaskan skop ini dalam beberapa cara —dengan cara yang kami telah komited untuk tidak melakukannya—ada kebolehpercayaan, mereka dapat melihat bahawa perkara itu sedang berlaku.

Apabila ditanya sama ada pangkalan data imej yang digunakan untuk memadankan kandungan CSAM pada peranti pengguna boleh terjejas dengan memasukkan bahan lain, seperti kandungan politik di wilayah tertentu, Federighi menjelaskan bahawa pangkalan data itu dibina daripada imej CSAM yang diketahui daripada berbilang organisasi keselamatan kanak-kanak, dengan sekurang-kurangnya dua berada 'dalam bidang kuasa yang berbeza,' untuk melindungi daripada penyalahgunaan sistem.

bagaimana saya memadamkan akaun id epal

Organisasi perlindungan kanak-kanak ini, serta juruaudit bebas, akan dapat mengesahkan bahawa pangkalan data imej hanya terdiri daripada kandungan daripada entiti tersebut, menurut Federighi.

Temu bual Federighi adalah antara tolak balik PR terbesar dari Apple setakat ini berikutan tindak balas orang ramai yang bercampur-campur terhadap pengumuman ciri keselamatan kanak-kanak, tetapi syarikat itu juga telah berulang kali cuba untuk menangani kebimbangan pengguna , menerbitkan Soalan Lazim dan secara langsung menangani kebimbangan dalam wawancara dengan pihak media .

Tag: The Wall Street Journal , Craig Federighi , ciri keselamatan kanak-kanak Apple