Berita Apple

Apple Memperkenalkan Ciri Keselamatan Kanak-kanak Baharu, Termasuk Mengimbas Perpustakaan Foto Pengguna untuk Bahan Penderaan Seksual yang Dikenali

Khamis 5 Ogos 2021 1:00 petang PDT oleh Joe Rossignol

Apple hari ini pratonton ciri keselamatan kanak-kanak baharu yang akan datang ke platformnya dengan kemas kini perisian akhir tahun ini. Syarikat itu berkata ciri itu akan tersedia di A.S. hanya semasa pelancaran dan akan diperluaskan ke wilayah lain dari semasa ke semasa.





ciri keselamatan komunikasi iphone

Keselamatan Komunikasi

Pertama, apl Messages pada iPhone, iPad dan Mac akan mendapat ciri Keselamatan Komunikasi baharu untuk memberi amaran kepada kanak-kanak dan ibu bapa mereka apabila menerima atau menghantar foto seksual yang eksplisit. Apple berkata apl Messages akan menggunakan pembelajaran mesin pada peranti untuk menganalisis lampiran imej, dan jika foto ditentukan untuk eksplisit secara seksual, foto itu akan menjadi kabur secara automatik dan kanak-kanak akan diberi amaran.



temui airpod saya memainkan bunyi belum selesai

Apabila kanak-kanak cuba melihat foto yang dibenderakan sebagai sensitif dalam apl Messages, mereka akan dimaklumkan bahawa foto itu mungkin mengandungi bahagian badan peribadi dan bahawa foto itu mungkin menyakitkan. Bergantung pada umur kanak-kanak itu, terdapat juga pilihan untuk ibu bapa menerima pemberitahuan jika anak mereka meneruskan untuk melihat foto sensitif itu atau jika mereka memilih untuk menghantar foto seksual eksplisit kepada kenalan lain selepas diberi amaran.

Apple berkata ciri Keselamatan Komunikasi baharu akan datang dalam kemas kini kepada iOS 15, iPadOS 15 dan macOS Monterey akhir tahun ini untuk akaun yang ditetapkan sebagai keluarga dalam iCloud. Apple memastikan bahawa perbualan iMessage akan kekal dilindungi dengan penyulitan hujung ke hujung, menjadikan komunikasi peribadi tidak boleh dibaca oleh Apple.

Mengimbas Foto untuk Bahan Penderaan Seksual Kanak-kanak (CSAM)

Kedua, bermula tahun ini dengan iOS 15 dan iPadOS 15, Apple akan dapat mengesan imej Bahan Penderaan Seksual Kanak-kanak (CSAM) yang diketahui disimpan dalam Foto iCloud, membolehkan Apple melaporkan kejadian ini kepada Pusat Kebangsaan untuk Kanak-Kanak Hilang dan Dieksploitasi (NCMEC) , organisasi bukan untung yang bekerjasama dengan agensi penguatkuasaan undang-undang AS.

Apple berkata kaedahnya untuk mengesan CSAM yang diketahui direka dengan mengambil kira privasi pengguna. Daripada mengimbas imej dalam awan, Apple berkata sistem itu akan melakukan padanan pada peranti terhadap pangkalan data cincang imej CSAM yang diketahui yang disediakan oleh NCMEC dan organisasi keselamatan kanak-kanak lain. Apple berkata ia akan mengubah lagi pangkalan data ini menjadi set cincang yang tidak boleh dibaca yang disimpan dengan selamat pada peranti pengguna.

Teknologi pencincangan, dipanggil NeuralHash, menganalisis imej dan menukarnya kepada nombor unik khusus untuk imej itu, menurut Apple.

'Tujuan utama cincang adalah untuk memastikan imej yang serupa dan serupa secara visual menghasilkan cincang yang sama, manakala imej yang berbeza antara satu sama lain menghasilkan cincang yang berbeza,' kata Apple dalam kertas putih 'Perlindungan Diperluaskan untuk Kanak-kanak' baharu. 'Sebagai contoh, imej yang telah dipangkas sedikit, saiz semula atau ditukar daripada warna kepada hitam dan putih dilayan sama dengan asalnya dan mempunyai cincang yang sama.'

carta alir csam epal
Sebelum imej disimpan dalam Foto iCloud, Apple berkata proses padanan pada peranti dilakukan untuk imej itu terhadap set cincang CSAM yang tidak boleh dibaca yang diketahui. Jika terdapat padanan, peranti mencipta baucar keselamatan kriptografi. Baucar ini dimuat naik ke Foto iCloud bersama-sama dengan imej, dan setelah ambang padanan yang tidak didedahkan melebihi, Apple dapat mentafsir kandungan baucar untuk perlawanan CSAM. Apple kemudian menyemak secara manual setiap laporan untuk mengesahkan terdapat padanan, melumpuhkan akaun iCloud pengguna dan menghantar laporan kepada NCMEC. Apple tidak berkongsi ambang tepatnya, tetapi memastikan 'tahap ketepatan yang sangat tinggi' bahawa akaun tidak dibenderakan secara salah.

Apple berkata kaedahnya untuk mengesan CSAM yang diketahui memberikan 'faedah privasi yang ketara' berbanding teknik sedia ada:

• Sistem ini ialah cara yang berkesan untuk mengenal pasti CSAM yang diketahui disimpan dalam akaun Foto iCloud sambil melindungi privasi pengguna.
• Sebagai sebahagian daripada proses, pengguna juga tidak boleh mengetahui apa-apa tentang set imej CSAM yang diketahui yang digunakan untuk pemadanan. Ini melindungi kandungan pangkalan data daripada penggunaan berniat jahat.
• Sistem ini sangat tepat, dengan kadar ralat yang sangat rendah iaitu kurang daripada satu dalam satu trilion akaun setahun.
• Sistem ini jauh lebih memelihara privasi daripada pengimbasan berasaskan awan, kerana ia hanya melaporkan pengguna yang mempunyai koleksi CSAM yang diketahui disimpan dalam Foto iCloud.

Teknologi asas di sebalik sistem Apple agak kompleks dan ia telah menerbitkan a ringkasan teknikal dengan butiran lanjut.

'Perlindungan Apple yang diperluaskan untuk kanak-kanak adalah pengubah permainan. Dengan begitu ramai orang menggunakan produk Apple, langkah keselamatan baharu ini mempunyai potensi menyelamatkan nyawa untuk kanak-kanak yang terpikat dalam talian dan imej mengerikan mereka disebarkan dalam bahan penderaan seksual kanak-kanak,' kata John Clark, Presiden dan Ketua Pegawai Eksekutif Pusat Kebangsaan untuk Hilang. & Kanak-kanak Dieksploitasi. 'Di Pusat Kebangsaan Kanak-Kanak Hilang & Dieksploitasi, kami tahu jenayah ini hanya boleh diatasi jika kami teguh dalam dedikasi kami untuk melindungi kanak-kanak. Kami hanya boleh melakukan ini kerana rakan kongsi teknologi, seperti Apple, meningkatkan dan membuat dedikasi mereka diketahui. Realitinya ialah privasi dan perlindungan kanak-kanak boleh wujud bersama. Kami memuji Apple dan berharap dapat bekerjasama untuk menjadikan dunia ini tempat yang lebih selamat untuk kanak-kanak.'

Memperluaskan Panduan CSAM dalam Siri dan Carian

iphone csam siri
Ketiga, Apple berkata ia akan mengembangkan panduan dalam Siri dan Carian Spotlight merentas peranti dengan menyediakan sumber tambahan untuk membantu kanak-kanak dan ibu bapa kekal selamat dalam talian dan mendapatkan bantuan dengan situasi tidak selamat. Sebagai contoh, pengguna yang bertanya kepada Siri bagaimana mereka boleh melaporkan CSAM atau eksploitasi kanak-kanak akan ditunjuk kepada sumber untuk tempat dan cara memfailkan laporan.

Kemas kini Siri dan Carian akan datang lewat tahun ini dalam kemas kini kepada iOS 15, iPadOS 15, watchOS 8 dan macOS Monterey, menurut Apple.

Nota: Disebabkan oleh sifat politik atau sosial perbincangan mengenai topik ini, utas perbincangan terletak di kami Berita Politik forum. Semua ahli forum dan pelawat tapak dialu-alukan untuk membaca dan mengikuti urutan, tetapi pengeposan terhad kepada ahli forum dengan sekurang-kurangnya 100 siaran.

Tag: Privasi Apple , ciri keselamatan kanak-kanak Apple