EN

Deepfake 'Çıplaklaştırma' Teknolojisi Tehlikeli Boyutlara Ulaştı

3 dk okuma süresi dk okuma
33 görüntülenme
Deepfake 'Çıplaklaştırma' Teknolojisi Tehlikeli Boyutlara Ulaştı
Paylaş:
YAPAY ZEKA SPİKERİ

Deepfake 'Çıplaklaştırma' Teknolojisi Tehlikeli Boyutlara Ulaştı

0:000:00

Yapay zeka destekli deepfake teknolojisi, özellikle 'çıplaklaştırma' (nudify) araçları aracılığıyla giderek daha gerçekçi ve tehlikeli bir hal alıyor. WIRED'in araştırmasına göre, bu amaçla kurulan onlarca web sitesi, bot ve uygulama, tek bir fotoğrafı kısa süreli gerçekçi açık saçık videolara dönüştürebiliyor. Ücret karşılığı sunulan bu hizmetlerde, 'giysi çıkarma' temalı videolardan çok daha açık cinsel senaryo şablonları kullanıcılara sunuluyor.

Grok'tan Telegram'a: Endüstriyelleşen Bir Zarar Ekosistemi

Elon Musk'ın şirketlerinin geliştirdiği sohbet botu Grok'un, rıza dışı 'çıplaklaştırılmış' binlerce görsel üretmek için kullanıldığı daha önce rapor edilmişti. Ancak bu, buzdağının yalnızca görünen kısmı. Uzmanlar, çok daha açık içerikler üreten ve çocuk cinsel istismarı materyali (CSAM) oluşturulmasına bile olanak tanıyan geniş bir ekosistemin varlığına dikkat çekiyor.

Avrupa Birliği, Grok'un ürettiği cinselleştirilmiş deepfake'ler nedeniyle X platformunu soruşturma kararı almıştı. Deepfake uzmanı Henry Ajder, durumu 'toplumsal bir bela' olarak nitelendirerek, bu araçların yılda milyonlarca dolar gelir elde ediyor olabileceğini ifade ediyor.

REKLAM

Tek Bir Fotoğraf, Onlarca Senaryo

Geçtiğimiz yıl içinde bu tür hizmetlerin işlevselliği önemli ölçüde arttı. Araştırmacıların incelediği 50'den fazla deepfake sitesinin neredeyse tamamı, artık yüksek kaliteli video üretimi sunuyor ve kadınların yerleştirilebileceği düzinelerce cinsel senaryo listeliyor. Telegram üzerindeki onlarca kanal ve bot ise düzenli olarak yeni pozlar ve pozisyonlar gibi yazılım güncellemeleri paylaşıyor.

Bağımsız analist Santiago Lakatos, bu hizmetlerin büyük teknoloji şirketlerinin altyapılarını kullandığını ve bu süreçte büyük paralar kazanmış olabileceklerini belirtiyor. Lakatos, "Artık sadece 'birini soymak' değil, bunun fantezi versiyonlarının tümü sunuluyor. Farklı pozisyonlar, hatta hamile görünümü verebilen versiyonlar var" diye ekliyor.

Mağdurlar ve Yetersiz Yasal Koruma

Rıza dışı üretilen samimi görüntülerin (NCII) mağdurları ve hayatta kalanları neredeyse her zaman kadınlar ve kız çocukları oluyor. MIT'de yapay zeka güvenliği üzerine çalışan araştırmacı Stephen Casper, bu ekosistemin açık kaynaklı modellerin sırtından yükseldiğini söylüyor.

The New School'tan Psikoloji Doçenti Pani Farvid, toplumun kadına yönelik şiddeti hangi biçimde gelirse gelsin ciddiye almadığını vurguluyor. Bir Avustralya araştırması, deepfake istismarının başlıca dört motivasyonunu tespit etti: cinsel içerikle şantaj (sextortion), başkalarına zarar verme, akranlarından onay görme/bağ kurma ve araçların ne yapabildiğine dair merak.

İnsan hakları örgütü Witness'tan Bruna Martins dos Santos, bu araçları kullanan bazı toplulukların neden oldukları zarara karşı 'kayıtsız' veya gündelik bir tavır sergilediğini ifade ediyor. Bazı failer için bu teknoloji, güç ve kontrolle ilgili.

Bu arada, yapay zeka sohbet botlarının kullanıcı yaşını doğrulamaya başlaması gibi girişimler olsa da, zararlı içerik üretimine yönelik yasal düzenlemelerin uygulanması ya çok yavaş ilerliyor ya da hiç hayata geçirilmiyor. Teknoloji sektörü çalışanları bile, etik sorumlulukları konusunda şirket yöneticilerini harekete geçmeye zorluyor.

KONULAR:

#deepfake çıplaklaştırma#yapay zeka etiği#nudify teknolojisi#rıza dışı cinsel içerik#yapay zeka ile istismar#deepfake zararları#Grok deepfake