Apple geçtiğimiz dönemde çocuklara yönelik cinsel istismarı önlemeye yönelik bazı özellikler duyurmuştu. Bu özelliklerden biri iCloud Fotoğraflar'da depolanan CSAM görüntülerini taramaya yönelik bir sistemdi. Böylece iCloud fotoğraflarında CSAM görüntülerini saklayan suçlular kolayca tespit edilebilecekti. Bu özellik şimdiye kadar kullanıma sunulmadı, hatta gizlilik konusunda birçok tartışmanın yaşanmasına neden oldu. Görünüşe bakılırsa Apple da bu konuda önemli bir karar aldı.
Bilim ve Teknoloji
10 Aralık 2022 - 15:02
Çok konuşulmuştu! Apple, tartışmalı o özellikten vazgeçti
Apple, geçen yıl iCloud fotoğraflarında yer alan çocuklara yönelik cinsel istismarı materyallerinin (CSAM) tespit edilmesine yönelik bir özellik duyurmuştu. CSAM tespit özelliği, yararlı bulunurken gizlilik konusunda büyük tartışmalara da yol açmıştı. Nitekim ABD basınında yer alan bir açıklamaya göre, Apple'ın CSAM tespit özelliği hakkında sürpriz bir gelişme yaşandı.
Bilim ve Teknoloji
10 Aralık 2022 - 15:02
Bu haber 113 defa okunmuştur.
İlginizi Çekebilir