Apple iPhone Fotoğraflarınızı Tarıyor mu? İşte Bilmeniz Gerekenler

Apple iPhone Fotoğraflarınızı Tarıyor mu? İşte Bilmeniz Gerekenler

Apple, güvenlik ve gizlilik politikalarıyla ünlüdür. Ancak iPhone fotoğraflarını taramaya yönelik son plan, teknoloji dünyasında alarma neden oldu. Apple, artan çocuk cinsel istismarı materyalleri (CASM) vakalarına bir engel koymak için bu planı uygulamayı planlıyor.

Cinsel içerikli içerik toplumda hem ahlaki hem de yasal olarak kabul edilemez ancak seks ticareti bunu zorunlu hale getirdi Apple gibi şirketlerin bazı sert adımlar atması gerekiyor. Apple, iPhone'daki fotoğrafları tarayacak ve kullanıcının seks/insan kaçakçılığına karışıp karışmadığını anlayacak ve bu önlem, toplumdaki bu kötülüğe son vermek için ileriye doğru atılmış bir adım olacak.

Ancak Apple'ın bu yeni planı, Kullanıcılar gizliliklerinden endişe duydukları için kullanıcılar tarafından küçümseniyor. Bu hiç şüphesiz, Apple'ın iPhone'daki yeni fotoğraf tarama sistemi bilgilerinizi ele geçireceğinden telefonunuzdaki verilerin güvende olmayacağı bir gizlilik ihlalidir.

Apple, iPhone Fotoğraflarınızı Tarıyor mu? İşte nasıl tarama yapıyor?

CASM'yi kontrol etmek için üç özellik içerecek olan yeni iOS 15 güncellemeleriyle CSAM algılama teknolojisi mevcut olacak.

Tümü Üç özellik, bir cihazda çocukların yer aldığı müstehcen içerikleri tespit edip işaretleyerek CSAM kötülüğünün toplumdan silinmesine yardımcı olacak. CSAM milyonlarca video ve görselle virüs gibi yayılıyor. Zamanla kolluk kuvvetleri tarafından yaklaşık 19.000 mağdur tespit edildi.

Apple, yeni özelliklerinin "çocukları, onları işe almak ve sömürmek için iletişim araçlarını kullanan yırtıcılardan korumaya yardımcı olmayı ve çocukların cinsel istismarının yayılmasını sınırlamayı" amaçladığını söyledi. kötüye kullanım malzemesi."

Bu Özellik Nasıl Çalışacak?

Apple'ın CSAM algılama teknolojisi, iCloud görüntülerini tarayacak ve daha sonra bunları bilinen kodlarla karşılaştıracak bilgisayar tabanlı bir algoritmaya dayanmaktadır. çocuk cinsel istismarı görüntüleri. Bu kodlar, Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezi (NCMEC) de dahil olmak üzere çocuk güvenliği kuruluşlarının veri tabanında saklanmaktadır.

Fotoğraf veritabanıyla eşleştirilirse bir kişi resmi inceleyerek CSAM olup olmadığını görecektir. Fotoğrafın CSAM olduğu belirlenirse hesabınız Apple tarafından kapatılacak ve kolluk kuvvetlerine ve NCMEC'ye bildirilecektir.

Yeni Teknoloji Bir Güvenlik Tehdidi Olacak mı?

Güncellemede yeni özelliklerin devreye girmesiyle Apple, uçtan uca şifrelemeyi etkileyeceği için kesinlikle kullanıcıların güvenliğini güvence altına alacak. Bu tarama özelliği hükümet için bir boşluk haline gelebilir, bilgisayar korsanları ve verilerinize yetkisiz erişim sağlayabilen Apple çalışanları bunu kişisel amaçlarla kullanabilir. Kullanıcının mahremiyetine ciddi bir tehdit oluşturabilir çünkü bu tür hassas veriler herhangi bir otorite tarafından ele geçirilebilir ve mahremiyetin daha büyük çöküşüne yol açabilir.

Hijazi'ye göre. "Apple'ın kalbinin doğru yerde olduğuna ve burada doğru olanı yapmaya çalıştığına inanıyorum, ancak bu önlem çok geniş kapsamlı çünkü süreçteki herkesin mahremiyetini feda ediyor".

Öyle mi? Apple'ın fotoğrafları taramasını engellemenin bir yolu var mı?

Hijazi'ye göre. "Gizliliğinize önem veriyorsanız, herhangi bir iOS cihazının uçtan uca şifreleme atlamalarına ve tam fotoğraf erişimine karşı savunmasız olduğunu varsaymalısınız" diyor. "Çevrim içi veya bağlı herhangi bir cihazda gizlilik diye bir şey yoktur ve her zaman durumun böyle olduğunu varsaymalı ve buna göre davranmalısınız."

Peki, Apple'ın bunu yapmasını engelleyebileceğiniz bir çıkış yolu var. iCloud fotoğraflarınızı tarayarak gizliliğinizi koruyabilirsiniz. Fotoğraflarınız için iCloud saklama alanını devre dışı bırakabilir ve gizliliğinizi sağlayabilirsiniz.

iCloud fotoğraflarını devre dışı bırakmak için adımları izleyin:-

Sonuç:-

CSAM, çocukların cinsel istismarını önlemede iyi bir adımdır ancak evet göz ardı edilmemesi gereken gerçek, gizliliğin bu şekilde sızdırıldığıdır. Apple, kullanıcıların gizliliğini ihlal etmeyen başka adımlar da atabilirdi ve aynı zamanda çocukların cinsel istismarı da önlenebilirdi.

Ancak kişi temizse ve şüpheli bir durum olmadığını biliyorsa. Verileri varsa, o zaman asil davaya ve Apple'ın attığı bir adıma dair hiçbir söylentiye ve desteğe kulak vermemelidir. Bizi sosyal medyada takip edin – .

Okunma: 0

yodax