Apple: Fotoğraf Tarama Özelliğinin Yanlış Anlaşıldı

Apple, geçtiğimiz günlerde yeni bir güvenlik sistemini duyurmuştu. Çocuk istismarının önüne geçmek için kullanılacak bu yeni sistem, iCloud’a yüklü fotoğrafların taranması ve çocuk istismarı imajları ile karşılaştırılarak istismar içeren imajların olması durumunda yetkililere bildirilmesini içeriyordu.

Lakin Apple geçtiğimiz günlerde yaptığı bir açıklama ile sadece ‘gerekli görülen’ şahısların bildirileceğini tabir etmişti. Bu da beraberinde farklı bir açıdan öbür tartışmaları getirdi. Son derece değerli bir maksada hizmet etmek için tanıtılan sistem, her şeye karşın tanıtıldığı günden beri tenkit oklarının gayesi haline gelmiş durumda. Teknoloji dünyasından değerli isimler sistemin farklı maksatlar için şahsî kapalılığı ve güvenliği ziyana uğratacak formda kullanılabilir olduğunu düşünüyor. Apple ise tartışmaların başladığı andan itibaren bu telaffuzlara karşı kendini savunuyor.

‘Sistemin çalışma hali yanlış anlaşıldı’:

c6558a82e1dce93c8bbbfcd77796721732ad42f9

Mevzuya ait açıklama yapan son isim, Apple yazılım grubunun yöneticisi Craig Federighi oldu. Federighi, mevzuyla ilgili olarak The Wall Street Journal ile gerçekleştirdiği bir röportajda, sisteme gelen tenkitlerin yanlış anlaşılmış olmasıyla ilgili olduğunu söz etti.

Federighi, röportajında en geniş özetle Apple’ın şahsî bilgi saklılığı konusunda ne kadar hassas olduğunu, bireylerin tüm datalarının gizlililiğinin Apple’ın teminatında olduğunu, sistemin berbata kullanımdan korunduğunu söyledi.

Ayrıyeten sistemin iCloud’a yüklü tüm fotoğrafları taramayacağını; aslında gerçekleştirilecek sürecin fotoğrafları taramadan fazla imgelerin kodlarının çocuk istismarı içeren imajların yer aldığı bir veritabanı ile karşılaştırmadan ibaret olduğunu bir defa daha vurguladı. Burada ‘fotoğrafların taranması’ noktasının yanlış anlaşılma olduğu, daha evvelki Apple açıklamalarında da yer almıştı.

Federighi açıklamasında durumu ”Öteki bulut servislerine bakarsanız, tüm fotoğrafları tek tek taradıklarını ve tahlil ettiklerini görürsünüz; biz insanların fotoğraflarına bakmadan onları taramanın bir yolunu bulmak istedik. Bu ‘Çocuğunun küvette bir fotoğrafı var mı?” ya da ”Herhangi bir pornografik imaj var mı?” üzere bir soru sorup bir tarama yapmak değil; yalnızca makul çocuk pornosu imgelerinin parmak izlerini arayarak eşleme yapmak” kelamlarıyla özetledi.

Yorum yapın