Apple digugat atas keputusannya untuk tidak menerapkan sistem yang akan memindai foto iCloud untuk mencari materi pelecehan seksual terhadap anak (CSAM).

Gugatan tersebut menyatakan bahwa dengan tidak berbuat lebih banyak untuk mencegah penyebaran materi ini, hal ini memaksa korban untuk mengingat kembali trauma mereka, menurut The New York Times. Gugatan tersebut menggambarkan Apple mengumumkan “desain yang ditingkatkan dan digembar-gemborkan secara luas yang ditujukan untuk melindungi anak-anak,” namun gagal “menerapkan desain tersebut atau mengambil tindakan apa pun untuk mendeteksi dan membatasi” materi ini.

Apple pertama kali mengumumkan sistem ini pada tahun 2021, menjelaskan bahwa mereka akan menggunakan tanda tangan digital dari Pusat Nasional untuk Anak Hilang dan Tereksploitasi serta kelompok lain untuk mendeteksi konten CSAM yang diketahui di perpustakaan iCloud pengguna. Namun, tampaknya rencana tersebut dibatalkan setelah pendukung keamanan dan privasi menyarankan agar rencana tersebut menciptakan pintu belakang untuk pengawasan pemerintah.

Gugatan tersebut kabarnya datang dari seorang wanita berusia 27 tahun yang menggugat Apple dengan nama samaran. Dia mengatakan seorang kerabat menganiaya dia ketika dia masih bayi dan membagikan foto-foto dirinya secara online, dan dia masih menerima pemberitahuan penegakan hukum hampir setiap hari tentang seseorang yang dituduh memiliki gambar-gambar tersebut.

Pengacara James Marsh, yang terlibat dalam gugatan tersebut, mengatakan ada kelompok potensial yang terdiri dari 2.680 korban yang berhak mendapatkan kompensasi dalam kasus ini.

TechCrunch telah menghubungi Apple untuk memberikan komentar. Sebuah perusahaan…

Tautan sumber

TINGGALKAN KOMENTAR

Silakan masukkan komentar anda!
Silakan masukkan nama Anda di sini