UNICEF, 'Deepfake'in kötüye kullanımı da kötüye kullanımdır' uyarısında bulundu.
Birleşmiş Milletler Çocuk Fonu (UNICEF), 4 Şubat 2026’da yaptığı açıklamada, yeni kanıtların yapay zekâ tarafından üretilen gençlerin cinselleştirilmiş görüntülerinin hızla çoğaldığını ve bunu durduracak yasaların yetersiz olduğunu ortaya koyduğunu belirtti.
Birleşmiş Milletler Haber Ajansının yaptığı açıklamada, "Deepfake'in kötüye kullanımından kaynaklanan zarar gerçek ve acil bir sorundur " dedi. "Çocuklar, yasanın yetişmesini bekleyemezler."
Birleşmiş Milletler Haber Ajansı, uluslararası polis teşkilatı INTERPOL ve dünya çapında çocukların cinsel istismarına son vermeyi amaçlayan ECPAT küresel ağı tarafından 11 ülkede yürütülen bir araştırmaya göre, son bir yılda en az 1,2 milyon genç, görüntülerinin cinsel içerikli deepfake videolarına dönüştürüldüğünü açıkladı.
Araştırmaya göre, bazı ülkelerde bu oran 25 çocuktan birine veya tipik bir sınıftaki bir çocuğa denk geliyor.
'Çıplaklaştırma' araçları
Deepfake teknolojisi, yapay zekâ ile oluşturulan veya manipüle edilen ve gerçek gibi görünmesi amaçlanan görüntüler, videolar veya ses kayıtlarıdır ve giderek artan bir şekilde çocukları içeren cinselleştirilmiş içerik üretmek için kullanılmaktadır. Bu kullanım, yapay zekâ araçlarının fotoğraflardaki kıyafetleri çıkarmak veya değiştirmek için kullanıldığı ve sahte çıplak veya cinselleştirilmiş görüntüler oluşturduğu "çıplaklaştırma" olarak adlandırılan yöntemleri de içermektedir.
UNICEF, “Bir çocuğun görüntüsü veya kimliği kullanıldığında, o çocuk doğrudan mağdur edilir. Kimliği belirlenebilir bir mağdur olmasa bile, yapay zekâ tarafından üretilen çocuk cinsel istismarı materyali, çocukların cinsel istismarını normalleştirir, istismar içerikli materyallere olan talebi körükler ve kolluk kuvvetleri için yardıma ihtiyacı olan çocukları tespit etme ve koruma konusunda önemli zorluklar yaratır” dedi.
“Deepfake kötüye kullanımı, bir tür kötüye kullanımdır ve yol açtığı zararın sahte hiçbir yanı yoktur ”.
Güçlü güvenlik önlemlerine yönelik talep
BM Haber Ajansı, sistemlerinin kötüye kullanılmasını önlemek için "tasarımla güvenlik" yaklaşımlarını ve sağlam güvenlik önlemlerini uygulayan yapay zeka geliştiricilerinin çabalarını büyük memnuniyetle karşıladığını belirtti.
Ancak şu ana kadar verilen yanıtlar tutarsız ve çok fazla yapay zekâ modeli yeterli güvenlik önlemleri olmadan geliştiriliyor.
Üretken yapay zekâ araçlarının, manipüle edilmiş görüntülerin hızla yayıldığı sosyal medya platformlarına doğrudan entegre edilmesi durumunda riskler daha da artabilir.
UNICEF, "Çocuklar bu riskin son derece farkındalar" dedi ve araştırmanın yapıldığı bazı ülkelerde gençlerin üçte ikisine yakınının yapay zekanın sahte cinsel içerikli görüntüler veya videolar oluşturmak için kullanılabileceğinden endişe duyduğunu belirtti.
Hızla büyüyen bir tehdit
"Endişe düzeyleri ülkeler arasında büyük farklılıklar göstermekte olup, bu durum daha güçlü farkındalık, önleme ve koruma tedbirlerine duyulan acil ihtiyacın altını çizmektedir."
Hızla büyüyen bu tehditle mücadele etmek için BM Haber Ajansı, Aralık 2025 ayında çocuk haklarını destekleyen politikalar ve sistemler için öneriler içeren Yapay Zekâ ve Çocuklar Rehberi 3.0'ı yayınladı.
Şu anda UNICEF, giderek artan tehditle mücadele etmek için acil eylem çağrısında bulunuyor:
- Hükümetler, çocuk cinsel istismarı materyali tanımlarını yapay zekâ tarafından üretilen içerikleri de içerecek şekilde genişletmeli ve bunların oluşturulmasını, temin edilmesini, bulundurulmasını ve dağıtılmasını suç haline getirmelidir.
- Yapay zekâ geliştiricileri, yapay zekâ modellerinin kötüye kullanılmasını önlemek için tasarım aşamasında güvenlik yaklaşımlarını ve sağlam güvenlik önlemlerini uygulamalıdır.
- Dijital şirketler, yapay zekâ tarafından üretilen çocuk cinsel istismarı içerikli materyalleri yalnızca kaldırmakla kalmayıp, bunların yayılmasını da engellemeli ve tespit teknolojilerine yatırım yaparak içerik denetimini güçlendirmelidir.
Kaynak: UNICEF, BM Haberleri, New York, 4 Şubat 2026