Apple Her Cihazı Çocuk İstismarı İçeriğine Karşı Tarayacak

 




Apple Perşembe günü, ABD'de Çocukların Cinsel İstismarı Malzemesinin (CSAM) yayılmasını sınırlama çabalarının bir parçası olarak iOS, iPadOS, watchOS ve macOS'ta yeni çocuk güvenliği özelliklerini tanıttığını söyledi.


Bu amaçla, iPhone üreticisi, küçük yaştaki kullanıcı hesapları tarafından (13 yaş altı) gönderilen veya alınan resimler, mesajlaşma platformu üzerinden paylaşılan müstehcen fotoğraflar konusunda ebeveynleri uyarmak için. tüm iMessage'ları incelemek için cihaz üzerinde makine öğreniminden yararlanmanın yanı sıra, iCloud Fotoğrafları'na yüklenirken bilinen çocuk istismarı içeriği için her Apple cihazı aracılığıyla paylaşılan görüntülerin istemci tarafında taranmasını başlatmayı planladığını söyledi. 


Ayrıca Apple, kullanıcılar CSAM ile ilgili konular için arama yapmaya çalıştıklarında "bu konuya ilginin zararlı ve sorunlu olduğu" konusunda uyarıda bulunarak bir müdahale başlatmak için Siri ve Arama'yı güncellemeyi de planlıyor.


Apple, "Mesajlar, resim eklerini analiz etmek ve bir fotoğrafın müstehcen olup olmadığını belirlemek için cihazdaki makine öğrenimini kullanılır" dedi. "Özellik, Apple'ın mesajlara erişmemesi için tasarlandı." İletişim Güvenliği adı verilen özelliğin, Aile Paylaşımı özelliği aracılığıyla ebeveynler tarafından etkinleştirilmesi gereken bir katılım ayarı olduğu söyleniyor.


Çocuk Cinsel İstismarı Malzemesi Nasıl Tespit Edilir?


Bilinen CSAM görüntülerinin tespiti, fotoğraflar buluta yüklenmeden önce Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi (NCMEC) ve diğer çocuk güvenliği kuruluşları tarafından sağlanan bilinen CSAM görüntü karmalarından oluşan bir veritabanı kullanılarak cihaz üzerinde eşleştirmenin yapılmasını içerir. "NeuralHash" olarak adlandırılan sistem, özel küme kesişimi olarak bilinen bir şifreleme teknolojisi tarafından desteklenmektedir. Ancak, tarama otomatik olarak gerçekleşirken, özelliğin yalnızca iCloud fotoğraf paylaşımı açıkken çalışmaktadır.


Dahası, bir iCloud Photos hesabı bilinen çocuk istismarı görüntülerinin bir eşiğini geçerse, Apple'ın, içeriği "yorumlamasına" izin veren, eşik gizli paylaşımı adı verilen başka bir şifreleme ilkesi kullanması bekleniyor. Eşleştirin, ve öyleyse, kullanıcının hesabını devre dışı bırakın, materyali NCMEC'e bildirin ve kolluk kuvvetlerine iletin.


Araştırmacılar Gizlilik Konusunda Endişelerini Belirttiler


Apple'ın CSAM girişimi, güvenlik araştırmacılarını endişelendirdi, ve bunun siyasi ve güvenlikle ilgili sonuçları olabilecek diğer içerik türlerini tespit edecek şekilde genişletilebileceğine ve hatta masum bireyleri zararsız ama kötü niyetli görüntüler göndererek bu çerçeveye sokabileceğine dair endişelerini dile getirdi.


ABD'li muhbir Edward Snowden, projenin iyi niyetine rağmen, Apple'ın sunduğu şeyin "kitlesel gözetim" olduğunu tweetlerken, Johns Hopkins Üniversitesi kriptografi profesörü ve güvenlik uzmanı Matthew Green, "Sorun şu ki, şifreleme güçlü bir araçtır. gizlilik sağlar ve herhangi birinin gönderdiği her görüntüyü incelerken gerçekten güçlü bir mahremiyete sahip olamazsınız." dedi.








Apple, e-posta yoluyla gönderilen iCloud dosyalarını ve görselleri bilinen çocuk istismarı görüntülerine karşı zaten kontrol ediyor; Google, Twitter, Microsoft, Facebook ve Dropbox gibi potansiyel istismar materyallerini aramak ve işaretlemek için benzer görüntü karma yöntemleri kullanan teknoloji devleri, ancak şirketin Bir gizlilik ipinde yürümeye çalışmak, şifrelemeyi zayıflatma konusundaki tartışmaları yenileyebilir, dijital çağda gizlilik ve polislik konusunda uzun süredir devam eden bir çekişmeyi tırmandırabilir.


New York Times, 2019 yılındaki bir soruşturmada, 2018'de cinsel istismara uğrayan 45 milyon çevrimiçi fotoğraf ve videonun rapor edildiğini ve bunların yaklaşık üçte ikisini Facebook Messenger'ın oluşturduğunu ve Facebook'un bir bütün olarak %90'dan sorumlu olduğunu ortaya koydu.


Yaklaşan değişiklikler aynı zamanda, Facebook'un sahibi olduğu WhatsApp ile birlikte, şifrelemeyi kasıtlı olarak zayıflatma ve sistemlerini arka kapıya açma çabalarına sürekli olarak direnen bir şirket için bir nevi yüz ifadesine işaret ediyor. Bununla birlikte, Reuters geçen yıl, ABD Federal Soruşturma Bürosu'nun (FBI) bunun soruşturmaları engelleyeceğine dair endişelerini dile getirmesinin ardından şirketin 2018'de kullanıcıların tam yedeklemelerini iCloud'a şifreleme planlarından vazgeçtiğini bildirdi.


Electronic Frontier Foundation, "Çocuk istismarı ciddi bir sorun ve Apple, bununla mücadele etmek için gizliliği koruyan duruşunu büken ilk teknoloji şirketi değil. Ancak bu seçim, genel kullanıcı gizliliği için yüksek bir bedelle gelecek." dedi. (EFF) yaptığı açıklamada, Apple'ın hamlesinin şifreleme korumalarını kırabileceğini ve daha geniş suistimallere kapı açabileceğini belirtti.


"Apple'ın oluşturduğu dar arka kapıyı genişletmek için gereken tek şey, ek içerik türleri aramak için makine öğrenimi parametrelerinin genişletilmesi veya yalnızca çocukların değil, herkesin hesaplarının taranması için yapılandırma bayraklarının ince ayarının yapılmasıdır.


CSAM'ın çabaları, iOS 15 ve macOS Monterey'in bir parçası olarak önümüzdeki aylarda ABD'de kullanıma sunulacak, ancak uluslararası olarak sunulup sunulmayacağı veya ne zaman sunulacağı henüz belli değil. Aralık 2020'de Facebook, Avrupa komisyonunun e-gizlilik yönergesinde yapılan ve çocuklara yönelik cinsel istismar görüntüleri ve diğer yasa dışı içerikleri kullanıcılar olmadan taramayı etkin bir şekilde yasaklayan e-gizlilik yönergesinde yapılan son değişikliklere yanıt olarak Avrupa'daki bazı çocuk istismarı tespit araçlarını kapatmak zorunda kaldı.



thehackernews'dan alıntıdır.

Hiç yorum yok: