Google tarafından bir CSAM karma hatası, bir ebeveyni belaya sokar, Apple'ın CSAM tespiti hakkında daha fazla şüphe uyandırır

New York Times, Google tarafından CSAM karma olayının, Covid-19 kilitlenmesi sırasında 2021'de hasta bir çocuğun masum bir ebeveynine karşı yasal işlemlere yol açtığını bildirdi. Bu dava, Apple'ın CSAM algılama özelliğinin ve karma sisteminin tamamen güvenilirliği ve doğruluğu hakkında daha fazla soru sordu.

Çocuk Cinsel İstismar Materyali (CSAM), suçlular tarafından küçük çocukları tımar etmek için kullanılır ve çocuk pornografisi ve seks kaçakçılığı amaçları için çevrimiçi olarak kullanılır. CSAM'ın yayılmasını önlemek için, teknoloji şirketleri, ABD'de Kayıp ve İstismar Çocuk Merkezi (NCMEC) tarafından sağlanan ve malzeme tespit edildiğinde gerekli yasal eylemleri yerine getiren çocuk cinsel istismarı materyallerini tanımlamak için kullanıcıların fotoğraflarını tarayan bir nöral karma sistemi kullanırlar.

Google, 2018 yılında İçerik Güvenliği API AI araç setini “proaktif olarak“ daha önce hiç görülmemiş CSAM görüntülerini tanımlamak ve CSAM olarak teyit edilirse, kaldırıldı ve mümkün olduğunca çabuk bildirilip rapor etmesi ”için hizmetlerinde başlattı. Sistemin olduğu gibi, gizlilik savunucularının uyarı verdiği bir sorun olan bir doktorun danışmanlığını almak için kolluk kuvvetleri ile sıcak su ile ilgili bir ebeveyn çıkardı.

Google'ın kusurlu CSAM Hashhing, uzmanların Apple Tespit Tech'e karşı argümanını güçlendiriyor

Rapora göre, sanık ebeveyn Mark, oğlunun genital bölgesinde şişmeyi fark etti ve Oğlunun bir doktorla video danışmanlığı isteği üzerine oğlunun fotoğraflarını çekti, çünkü ofisler Şubat 2021'de Covid-19 pandemi nedeniyle kapatıldı.

Fotoğrafları çektikten iki gün sonra Mark, Google tarafından hesaplarının şirketin politikalarını ihlal eden ve yasadışı olabilecek “zararlı içerik” depolamak için kilitlendiği konusunda bilgilendirildi. Mark'ın telefon numarası, kişileri, fotoğrafları ve e -postaları kilitlendi.

Mark kararı temyiz etmeye çalışmasına rağmen, yetkililere bildirildi ve San Franciso Emniyet Müdürlüğü konuyu soruşturmak için bir soruşturma başlattı. Uygun olarakEşek“Google, NCMEC'in siberTipline'e 621.583 CSAM vakası bildirirken, NCMEC, NYT'nin 2021'de Mark'ın Oğlunu içerdiğini söylediği bir liste olan 4.260 potansiyel kurban yetkililerini uyardı”.

Kusurlu bir karma ile başlayan çile, araştırmacı Mark'ın masum olduğunu ve olayın “bir suçun unsurlarını karşılamadığını ve hiçbir suçun gerçekleşmediğini” bulduğunda sona erdi. Bu, birkaç gizlilik uzmanının uyarı yaptığı ebeveynler ve diğer kullanıcılar için tam olarak kabus. Küvette veya havuzda oynayan çocukların masum resimleri de CSAM ile karma olabilir.

Devamını oku:Apple'ın CSAM Tespit İkilemi - Tech Dev, neden CSAM algılama araçlarını terk ettiğini açıklıyor

Apple, kullanıcıların fotoğraflarını tarayacak ve bunları iCloud'a yüklemeden önce NCMEC tarafından sağlanan çocuk cinsel istismar malzemesi karmalarıyla karşılaştıracak CSAM algılama özelliğini duyurduğunda. Hashing sistemi 30 görüntü eşiğine ulaştığında, şirket hesabı insan incelemesi için yönlendirir ve gerekirse cezalandırıcı önlemler alır.

Bununla birlikte, bir geliştirici, algılama sistemini hasat etmek için tersine mühendislik yapan Apple'ın iOS 14.3 güncellemesi ve karma sisteminin kusurlu olduğunu vurguladı. Gazetecilerden, güvenlik uzmanlarından ve diğerlerinden sonra Apple, şimdilik özelliği geciktirdi.