Apple'a çocuk istismarı içeriği davası
Apple, iCloud'da çocuk istismarı içeriğini tespit etme sistemini uygulamaması nedeniyle dava ediliyor. Davada içeriklerin taranıp kaldırılmaması sebebiyle mağdurların travmalarını yeniden yaşadığı yönünde iddialar yer alıyor
Apple, iCloud fotoğraflarını çocuk istismarı içeriği (CSAM) için tarayacak bir sistemi uygulamama kararı nedeniyle dava ediliyor. Dava, Apple'ın bu materyalin yayılmasını önlemek için daha fazla çaba göstermemesi nedeniyle mağdurların travmalarını yeniden yaşamaya zorlandığını iddia ediyor. Apple, 2021 yılında bu sistemi duyurmuş, ancak güvenlik ve gizlilik savunucularının hükümet gözetimi için bir arka kapı oluşturabileceği endişeleri nedeniyle bu planları uygulamayı bırakmıştı.
"HÜKÜMET GÖZETİMİ İÇİN ARKA KAPI OLABİLİR"
Apple, 2021 yılında Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi (NCMEC) ve diğer gruplardan toplanan dijital imzalar sonrasında kullanıcıların iCloud kütüphanelerindeki bilinen CSAM içeriğini tespit edecek bir sistem duyurmuştu. Ancak, güvenlik ve gizlilik savunucularının bu teknolojinin hükümet gözetimi için bir arka kapı oluşturabileceği endişeleri nedeniyle bu planları rafa kaldırdı.
2,680 MAĞDUR OLDUĞU BELİRTİLİYOR
Dava, bir akrabası tarafından bebekken istismara uğrayan ve görüntüleri çevrimiçi olarak paylaşılan 27 yaşındaki bir kadın tarafından açıldı. Kadın, hala neredeyse her gün bu görüntülere sahip olan birinin suçlandığına dair kolluk kuvvetlerinden bildirimler aldığını belirtti. Avukat James Marsh, bu davada tazminat almaya hak kazanabilecek potansiyel 2.680 mağdur olduğunu söyledi.
Apple, TechCrunch'a yaptığı açıklamada, bu suçlarla mücadele etmek için güvenlik ve gizlilikten ödün vermeden yenilikler yapmaya devam ettiklerini belirtti. Ağustos ayında, 9 yaşındaki bir kız çocuğu ve vasisi, Apple'ı iCloud'da CSAM'ı ele almamakla suçlayarak dava açmıştı.