Görüntü üreten yapay zeka, çocuk istismarını tasvir eden görüntülerde artışa yol açıyor. Bu, zaten zor olan mağdurları tespit etme ve gerçek istismarla mücadele etme görevini karmaşık hale getiriyor.
Görüntü üreten yapay zekanın, çocuklara yönelik cinsel istismarın gerçeğe yakın görüntülerinde endişe verici bir artışa yol açtığı bildiriliyor. Washington Post Kar amacı gütmeyen bir çocuk güvenliği grubu olan Thorn tarafından yapılan araştırmaya atıfta bulunan raporlar.
Müfettişler, sahte görüntülerin hacminin kurbanları aramayı ve gerçek çocuk istismarına karşı mücadeleyi engellediğinden endişe ediyorlar. Mevcut takip sistemi, yetkilileri ezen sahte görüntülerle karıştırılabilir. Normal araştırmalarına ek olarak hangi görüntülerin gerçek hangilerinin sahte olduğunu bulmaları gerekecekti.
Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezi’nde hukuk işleri müdürü olan Yiota Souras, yapay zeka tarafından oluşturulan taciz görüntülerinde keskin bir artışı doğruladı. Bu görüntülerin seri üretimi, gerçek çocukları görüntülerde gördükleri gibi davranmaya ikna etmek için de kullanılabileceğini söylüyor.
reklam
Pedofil forumlarında yapay zeka silahlanma yarışı
Rapora göre, üretken AI araçları pedofil forumlarında tam gelişmiş bir silahlanma yarışını ateşledi. Katılımcıların ayrıca diğer sübyancıların kendi görüntülerini nasıl oluşturabileceklerine dair talimatları paylaştığı Dark Web forumlarında binlerce görüntü keşfedildi. Açık kaynak modeller kullanıyorlar.
ActiveFence’de çocuk koruma ve insan istismarı direktörü Avi Jager, 3.000’den fazla katılımcının yer aldığı bir forumda yapılan bir ankette, yaklaşık yüzde 80’inin çocuk istismarı görüntüleri oluşturmak için bir AI görüntü oluşturucu kullandıklarını veya kullanmayı planladıklarını söyledi. Kuruluş, sosyal medyanın ve akış sitelerinin platformlarında çocuk pornografisini önlemesine yardımcı olur.
Çocuk savunucuları ve ABD’li adalet yetkilileri, yapay zeka tarafından oluşturulan görüntülerin kanunen cezalandırılması gerektiğini söylüyor. Ancak cezanın derecesini belirleyecek bir karar henüz yok. Görüntüler gerçek çocukları içermediğinden, federal çocuk koruma yasalarını ihlal edip etmedikleri şüpheli.
Gelecekte, AI görüntüleri ile gerçek fotoğrafları güvenilir bir şekilde ayırt edebilen sistemler, çevrimiçi tanıma sistemlerine entegre olmalarına izin vererek yardımcı olabilir. Başka bir yaklaşım da AI görüntülerini doğrudan onları oluşturan yazılımda etiketlemektir.
Haziran ayı başlarında, FBI uyardı sosyal medyadakiler gibi mevcut görüntülerden ek ve açık görüntüler oluşturmak için üretken yapay zekayı kullanan bir yaklaşım. ABD soruşturma dairesi, Nisan 2023’ten bu yana bu sözde “gasp mağdurlarında” bir artış gördü.
Öneri