AB Komisyonu, çocuk cinsel istismarı materyallerinin (CSAM) çevrimiçi olarak yayılmasını önlemek ve önlemek için yeni yasalar önerdi. Otorite, Will Apple, Google ve diğerlerini CSAM'ı platformlardan algılamaya, raporlamaya ve kaldırmaya zorlayacaktır.
Ağustos 2021'de Apple, üç temel özellik içeren “Çocuklar İçin Genişletilmiş Koruma” dediğini duyurdu:
- Mesajlarda iletişim güvenliği-CSAM veya cinsel olarak açık içerik için Mesajlar uygulamasında gönderilen veya alınan tüm görüntülerin cihazda taranmasını etkinleştirmesi için ebeveynler için bir katılım özelliği. Sömürücü materyalin tespiti üzerine, özellik çocukları uyarır ve kaynakların yardım istemesini önerir.
- CSAM TespitiNCMEC tarafından sağlanan bilinen CSAM görüntüleri için bilinen CSAM veritabanına dayanan cihaz içi eşleşen ICloud fotoğraflarında.
- Akıllı Siri ve AramaCSAM ile ilgili aramalara müdahale etmek ve kullanıcıların CSAM'ı ve çevrimiçi olarak karşılaşılan diğer çocuk sömürüsü türlerini bildirmelerine yardımcı olmak.
Üç özellikten, CSAM tespiti, özelliğin kolluk kuvvetleri ve otoriter hükümetlerin kullanıcılara gözetleme ve bir milyardan fazla iphone'u gözetim cihazlarına dönüştürmesi için bir arka kapı yaratacağını savunan siber güvenlik uzmanları, araştırmacılar ve sivil haklar grupları tarafından en çok eleştirildi.
Yaygın bir tepkiden sonra, teknoloji devi, gözetim ve sansür için yeniden kullanılabileceği endişelerini gidermek için CSAM algılama özelliğini geciktirmeye karar verdi. Ancak AB Komisyonu artık Apple'ı CSAM tespitini yürürlüğe koymaya zorlayabilir.
Apple zaten CSAM için iCloud Mail'i tarsa da, çocuk cinsel istismarı materyali için iCloud fotoğraflarını taramıyor. Bu, Apple'ın yeni AB kurallarına nasıl uyabileceğini bulması ve aynı zamanda tartışmalardan kaçınması gerekeceği anlamına geliyor.

AB Komisyonu, CSAM Online ile mücadele bahanesi altında uçtan uca şifreleme korumasını kaldırmak için çalışmakla suçlandı
Yeni "TeklifÇocuk cinsel istismarını önlemek ve bunlarla mücadele etmek için kurallar koyan bir düzenleme için ”üç puanlık bir gündem vardır:
- Çevrimiçi çocuk cinsel istismarının etkili tespiti, raporlanması ve kaldırılması
- Temel hakların korunmasını sağlayan yasal kesinlik geliştirildi,
şeffaflık ve hesap verebilirlik - Artan çocuk cinsel istismarının çoğalmasında ve etkilerinin azalması
çabaların koordinasyonu
Ancak, siber güvenlik uzmanları Apple ile aynı endişeleri gündeme getiriyor. Apple'ın CSAM algılama sistemini doğru bir şekilde sızdıran ve eleştiren Matthew Green, AB'nin ön güdüsünü uçtan uca şifreleme korumasını kaldırmaya çağırıyor. OyazılıO:
Ayrıca bakınız:Apple, mesajlar için iletişim güvenliğine konsantre olmak için iCloud fotoğrafları için CSAM algılamasını öldürür
Gerçek özgür konuşma konularından bahsetmişken, AB, CSAM materyali için şifreli mesajların taranmasını zorunlu kılabilecek bir düzenleme öneriyor. Bu tekrar Apple.
Bu belge şimdiye kadar gördüğüm en korkunç şey. CSAM'ı tespit etmek için değil, “tımar” tespit etmek için özel metin mesajlarını okuyacak yeni bir kitle gözetim sistemi öneriyor.
