Kenapa Sistem neuralMatch Milik Apple Dianggap Berbahaya?

pada 3 tahun lalu - by
Advertising
Advertising

Ilustrasi (Foto: David / Unsplash)


Uzone.id- Apple berupaya untuk membantu penegakan hukum investigasi kriminal dalam kasus child abuse atau pelecehan anak-anak dengan cara memindai foto yang disimpan di perangkat iPhone dan iCloud.

Sayangnya, upaya ini dianggap membuka pintu lebar bagi pemerintah dan pihak berwajib dalam mengakses data pribadi pengguna.

Sistem neuralMatch akan secara proaktif memperingatkan tim pengawas ketika ada gambar ilegal yang terdeteksi, dan akan dilanjutkan dengan menghubungi penegak hukum apabila gambar tersebut terverifikasi,” kata Financial Times.

neuralMatch yang dilatih menggunakan 200 ribu gambar dari National Center for Missing & Exploited Children, akan diluncurkan pertama kali di AS.

Foto-foto nantinya akan di-hash dan dibandingkan dengan database gambar pelecehan anak-anak yang telah diketahui.

Melansir Wikipedia, hash adalah suatu kode dari hasil enkripsi yang umumnya terdiri dari huruf maupun angka yang acak. Fungsi Hash banyak sekali digunakan untuk mempercepat pencarian dalam tabel data atau pembandingan data seperti di dalam basis data, mencari duplikasi atau kesamaan (rekaman) di sebuah arsip komputer yang besar, menemukan goresan-goresan yang sama di sebuah DNA, dan sebagainya.

BACA JUGA:Windows 11 Beta Resmi Diluncurkan, Begini Cara Instalnya

“Menurut orang-orang yang diberi pengarahan tentang rencana tersebut, setiap foto yang diunggah ke iCloud di AS akan diberikan 'voucher keamanan' yang menunjukkan apakah foto tersebut dicurigai atau tidak," katanya lagi.

Tapi, langkah ini ternyata menuai pro dan kontra. Profesor dan kriptografer Universitas John Hopkins Matthew Green menyuarakan keprihatinan tentang sistem ini dalam Twitternya.

“Alat semacam ini bisa jadi keuntungan untuk menemukan konten pornografi anak di ponsel orang,” kata Green.

“Meski kalian yakin bahwa Apple takkan membiarkan alat tersebut disalahgunakan, tapi masih banyak hal yang perlu dipikirkan. Sistem ini bergantung pada database ‘hash media yang bermasalah’ dimana tak bisa ditinjau para konsumen,” tambahnya.

Sebelumnya, Apple telah menyuarakan perlindungan privasi yang ada dalam perangkatnya. Mereka juga menentang FBI ketika pihak berwenang meminta izin untuk mengakses iPhone yang digunakan salah satu penembak dalam serangan San Bernardino 2015.

Jika sistem neuralMatch benar dilakukan, ini akan sangat bertolak belakang dengan apa yang digembar-gemborkan Apple sebelumnya, mengingat sistem ini akan menjelajah lebih jauh dan memungkinkan akses pusat pada penyimpanan lokal.

Hingga saat ini, Apple belum memberikan tanggapan mengenai laporan Financial Times ini. (The Verge)