Google'ın tartışma yaratan çocuk istismarı şikayeti sonuçlandı
Google, geçtiğimiz yıl çocuk istismarı iddiasıyla bir ebeveyn için federal mahkemeye başvurdu. Mahkeme soruşturma sonucunu açıkladı.
Google, geçtiğimiz yıllarda yapay zeka destekli çocuk cinsel istismarı tespit teknolojisini hayata geçirdi. The New York Times raporuna göre, çocuğunun kasık enfeksiyonunun fotoğrafını çekmek isteyen bir ebeveyn soruşturma geçirdi.
2018 yılında hayata geçirilen çocuk cinsel istismarı materyali (CSAM) tespit sistemi, Google'ın bulut depolama hizmetine yüklenen fotoğrafları anlık olarak tarıyor. Yapay zeka ile taranan fotoğraflar, herhangi bir istismar tespit edildiğinde direkt olarak yetkililere bildiriliyor.
Google, çocuk istismarı iddiasıyla bir ebeveyni şikayet etti
Pandemi sürecinin başlangıcı, neredeyse tüm ülkelerin kapanma kararı almasına neden olmuştu. Bu süreçte sağlık hizmetinden yararlanamayan vatandaşlar, doktor ve hemşireler ile çevrimiçi iletişim kurdu. 2021 yılında çocuğunun kasıklarında oluşan şişlikten endişelenen bir ebeveyn, hemşirenin talebi üzerine genital bölgenin fotoğrafını gönderdi.
Fotoğrafları çektikten yaklaşık 2 gün sonra Google'ın hesaplarını kapattığını belirten ebeveyn, Google Fi hizmetini kullandığı için telefon numarasına erişimin de yasaklandığını açıkladı. E-posta, kişi listesi ve fotoğraflara erişemeyen ebeveyn, San Francisco Polis Departmanı tarafından Aralık 2021'de açılan soruşturma sonucunda suçsuz bulundu.
Meta, Mark Zuckerberg'e dava açtı!
Konu hakkında açıklama yapan Christa Muldoon, "CSAM olarak adlandırılan materyaller mide bulandırıcı ve şirketimiz bu tarz içerikler ile sonuna kadar mücadele edecek. CSAM'i neyin oluşturduğunu tanımlarken ABD yasalarına uyuyoruz. CSAM görsellerini tanımlamak ve platformlarımızdan kaldırmak için karma eşleştirme teknolojisi ile yapay zekanın bir kombinasyonunu kullanıyoruz. Ayrıca, çocuk güvenliği uzmanlarından oluşan ekibimiz, işaretlenen içeriğin doğruluğunu inceliyor ve kullanıcıların tıbbi tavsiye isteyebileceği durumları belirleyebilmemize yardımcı olmak için çocuk doktorlarına danışıyor." ifadelerine yer verdi.
Apple, benzer nedenler ile geçtiğimiz yıl Çocuk Güvenliği planını duyurdu. Görsellerin iCloud'a yüklenmeden önce taranacağını belirten şirket, CSAM veritabanı ile eşleşme sağlandığında içeriğin moderatör tarafından inceleneceğinin altını çiziyor. Electronic Frontier Foundation (EFF) tarafından eleştiri yağmuruna tutulan özellik, isteğe bağlı olarak aktif edilecek şekilde hayata geçirildi.
Siz bu konu hakkında ne düşünüyorsunuz? Fikirlerinizi yorumlar kısmında ve SDN Forum'da paylaşabilirsiniz.