iPhone

Apple’ın Fotoğraf Taraması ‘Yaygın Yanlış Anlaşıldı’



Apple’ın yeni çocuk güvenliği özellikleriyle ilgili sunumu – en tartışmalı olarak saklanan fotoğrafların çocuk istismarı görüntüleri için taranması – en hafif tabiriyle beceriksizdi ve yanıt açıkça karışıktı. Ancak son günlerde Apple, kararını Amerikan medyasına daha iyi açıklamaya çalıştı.

Bu çekiciliğin bir parçası olarak Craig Federighi, Wall Street Journal’a bu makalenin devamındaki bir videoya yerleştirilmiş uzun bir röportaj verdi. Röportaj iki yeni işleve odaklandı: iCloud fotoğrafları için bir tarama işlevi ve iMessage için yeni bir çocuk koruma işlevi.

Federighi, “geçmişte”, her iki işlevi aynı anda sunmanın “bu tür bir kafa karışıklığına bir reçete olduğunu” kabul ediyor ve hem Apple’ın planları hakkındaki bazı yanlış anlamaları gidermeye hem de politikaları daha yaygın eleştirilere karşı savunmaya çalışıyor.

Apple neyi ve nerede tarar?

Röportajda Federighi, “Apple telefonumu görüntüler için tarıyor” şeklindeki genel iddiayı şiddetle reddediyor. VP yazılımına göre, yasadışı görüntü dosyalarının tespiti, özellikle iCloud’a yüklenen fotoğraflarla sınırlıdır – açıklayacağımız gibi, taramanın bir kısmı teknik olarak cihazda gerçekleşse bile.

Federighi, böyle bir kontrolün diğer tüm bulut depolama hizmetlerinde uzun süredir yaygın bir uygulama olduğunu belirtiyor. Ayrıca, bu rakip hizmetler, Apple’ın gizliliğini korumak için kaçınmak istediği bir şey olarak, kullanıcılarının her birinin fotoğraflarını rutin olarak tarardı.

Federighi, “Bu tür bir yeteneği sunmadan önce, bunu bu alanda daha önce yapılmış her şeyden çok daha özel bir şekilde yapmanın çok önemli olduğunu hissettik” diyor.

Yalnızca isteğe bağlı olan iCloud Fotoğraf Kitaplığı’nı kullanırsanız, görüntüler Apple sunucularına yüklenirken kontrol edilir.

Bir görüntü yüklendiğinde, görüntünün NeuralHash adı verilen, bir tür parmak izi oluşturulur. Bu, NCMEC organizasyonu tarafından tutulan bilinen yasa dışı görüntülerden oluşan bir veri tabanıyla karşılaştırılır. Kontroller için yalnızca bilinen çocuk istismarı görüntüleri kullanıldığından, kendi çocuğunuzun küvetteki resmi ve genel olarak pornografik içerik işaretlenmeyecektir.

Bir görüntü, veritabanında listelenenle eşleşirse, otomatik olarak “güvenlik fişi” adı verilen bir görüntü oluşturulur ve görüntüye eklenir. Federighi’ye göre, ilk kez bir sayı veren 30 civarında olan güvenlik kuponları ancak bir eşik sayısı aşılırsa, hesap hakkında Apple’a bilgi verilecek. Ve o zaman bile, Apple diğerlerine değil, yalnızca işaretli görüntü dosyalarına erişebilir.

Federighi’ye göre, analizin bir kısmını cihaz üzerinde bir algoritma gerçekleştiriyor ve ardından analizin ikinci bir kısmını sunucu üzerinde gerçekleştiriyor. Bununla birlikte, Joanna Stern’in haklı olarak işaret ettiği gibi, analizin çoğu kişiyi rahatsız eden cihaz üzerinde gerçekleşen kısmıdır. Bu, “Apple cihazınızda bir şeyler yapabilir” izlenimini veriyor, diye açıklıyor.

Ancak Federighi’ye göre bu bir yanlış anlaşılma. Denetimin yalnızca buluta yükleme sırasında gerçekleştiğini söylüyor. iMessage veya Telegram’daki fotoğraflar gibi tüm görüntü dosyalarında çalışan bir işlem değildir.

Federighi ayrıca bunun bir arka kapı olduğunu kesinlikle reddediyor. Bir sunucudaki verilerin kısıtlama olmaksızın kontrol edilmesinin söz konusu olmadığını söylüyor. ABD, Avrupa ve Çin’de kullanılan tüm iPhone’lar için tek bir veritabanı var.

Federighi, Apple’a güvenmenin bile gerekli olmadığını söylüyor çünkü süreç birkaç yetkili tarafından kontrol ediliyor. Apple’ın sistemi, hiçbir yabancı otoritenin değişiklikleri zorlayamayacağı (örneğin, diğer verileri aramak için) kasıtlı olarak tasarladığını iddia ediyor.

Mesajlarda Çıplaklık

Apple’ın aynı zamanda duyurduğu ikinci bir yeni işlev de çocuk güvenliğiyle ilgilidir, ancak bu, fotoğraf tarama işleviyle aynı değildir ve bazı ek karışıklıklara yol açmış olabilir.

Yeni özellik Mesajları etkiler ve çocuklar tarafından alınan görüntüleri izlemeyi ve filtrelemeyi amaçlar. Özellik bir ebeveyn tarafından açılırsa ve çocuk çıplak bir fotoğraf alırsa, resim gizlenecek ve çocuk uyarılacaktır. Veliler de bilgilendirilebilir.

Bu, çocukları cinsel yırtıcılarla temastan korumak içindir ve tamamen ebeveyn kontrolü altındadır. iPhone’daki akıllı bir görüntü tanıma sistemi çıplaklığı tanıyabilir.

Gerçekten bir iPhone’un sahibi kim?

Ancak son olarak, Stern bir kez daha birinin iPhone’unun gerçekten sahibi olup olmadığı sorusunu gündeme getiriyor.

Federighi’ye göre durum hala böyle: telefon hala sahibine ait. Yalnızca bulutta depolanan fotoğraflar için bir kontrol yapılır. Bu nedenle sistem, mümkün olan en iyi gizlilik korumasını kullanır.

Apple, gizlilik ve çocuk koruma arasındaki dengeyi birleştirmek için açıkça çaba sarf etti. Ancak şirket, gizlilik savunucularından gelen eleştirilere şaşırmamalı.

Bu karmaşık prosedürün müşteri üzerinde yaratacağı izlenime duyurulmadan önce çok az dikkat edildiği görülüyor. Müşteri muhtemelen şu basit soruyu soracaktır: “Apple fotoğraflarımı tarıyor mu, taramıyor mu?” Ve karmaşık doğrulama süreçlerine ve kuponlara rağmen, sonunda cevap evet, Apple yapıyor.

Bu makale ilk olarak Macwelt’te yayınlandı. David Price’ın çevirisi.

.

Kaynak: https://www.macworld.co.uk/news/federighi-apple-scanning-misunderstood-3807542/

İlgili Makaleler

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu
WeCreativez WhatsApp Support
İstanbul Apple Tamir Merkezi
Fiyat talebinde bulunmak için Apple cihazınızın marka modelini ve arızası hakkında bizi kısaca bilgilendiriniz.

Reklam Engelleyici Algılandı

Lütfen reklam engelleyiciyi kapatarak siteyi gezinmeyi deneyin...