Anthropic CEO'su Amodei: Yapay Zeka İnsanlık İçin Varoluşsal Tehdit Olabilir
Anthropic CEO'su Amodei: Yapay Zeka İnsanlık İçin Varoluşsal Tehdit Olabilir
Yapay Zeka Liderinden Çarpıcı Uyarı: Kontrolsüz Güç Tehlikesi
Yapay zeka şirketi Anthropic'in kurucu ortağı ve CEO'su Dario Amodei, kişisel blogunda yayınladığı 19.000 kelimelik bir makalede, insanlığın önümüzdeki dönemde 'neredeyse hayal edilemez bir güce' kavuşacağını, ancak sosyal, politik ve teknolojik sistemlerin bu gücü kullanacak olgunluğa sahip olup olmadığının belirsiz olduğunu ifade etti.
2026 İçin Kritik Tehlike Uyarısı
Amodei, 2023'e kıyasla 2026'da gerçek tehlikeye çok daha yakın olunduğunu savundu. Makalesinde, kitlesel iş kayıpları, ekonomik gücün aşırı derecede merkezileşmesi ve servet eşitsizliğinin artması gibi risklere dikkat çekti. CEO, bu riskleri bertaraf etmek için anlamlı önlemler alınması konusundaki teşviklerin yetersiz olduğunu belirtti.
Diğer Şirketlere Sert Eleştiri
Anthropic CEO'su, makalesinde bazı yapay zeka şirketlerini, mevcut modellerde çocukların cinselleştirilmesine yönelik 'rahatsız edici bir ihmalkarlık' sergilemekle eleştirdi. Bu durumun, söz konusu şirketlerin gelecek modellerde otonomi risklerini ele alma eğilimi veya yeteneği göstereceği konusunda şüphe uyandırdığını yazdı. Bu eleştirinin, Google ve Apple'ın 'Nudify' uygulamaları barındırması gibi son tartışmalarla bağlantılı olduğu değerlendiriliyor.
REKLAM
Biyolojik Silah ve Otonom Sistem Tehdidi
Amodei'nin işaret ettiği diğer riskler arasında, yapay zekanın tehlikeli biyolojik silahlar veya 'üstün' askeri silahlar geliştirmesi yer alıyor. Bir yapay zekanın 'kontrolden çıkıp insanlığa üstün gelebileceği' veya ülkelerin 'yapay zeka avantajını diğer ülkeler üzerinde güç kazanmak için kullanabileceği' uyarısında bulunan CEO, bunun 'küresel totaliter bir diktatörlük' olasılığını doğurabileceğini savundu.
Demokrasi-Otoriter Rejim İkilemi
CEO'ya göre, yapay zeka sistemlerini insanlığı tehdit etmeyecek şekilde dikkatle inşa etmek için zaman ayırmak, demokratik ülkelerin otoriter ülkelerin önünde kalma ve onlara boyun eğmeme ihtiyacıyla gerilim yaratıyor. Ancak otokrasilerle mücadele için gerekli olan aynı yapay zeka araçlarının, aşırıya kaçıldığında, kendi ülkelerinde tiranlık yaratmak için içe döndürülebileceği konusunda uyardı. Bu tür bir ikilem, Mark Carney'nin Davos'taki yapay zeka bağımsızlığı uyarılarıyla benzerlik gösteriyor.
Çözüm Önerisi ve Çin'e Yönelik Sert Benzetme
Çözümün bir parçası olarak Amodei, diğer ülkelerin güçlü yapay zeka inşa etmek için gereken kaynaklardan mahrum bırakılması çağrısını yineledi. ABD'nin Nvidia yapay zeka çiplerini Çin'e satmasını, 'Kuzey Kore'ye nükleer silah satıp ardından füze kılıflarının Boeing tarafından yapıldığı için ABD'nin kazandığını övünmeye' benzetti.
Finansal Çıkar ve Eleştiriler
Amodei'nin bu uyarıları, şirketinin 350 milyar dolarlık bir değerleme ile çok milyar dolarlık bir finansman turunu kapatmaya hazırlandığı bir döneme denk geliyor. Bu durum, Amodei'nin makalesinde bahsettiği risklere çözüm olarak kendini konumlandırmada büyük bir finansal çıkarı olduğu yönünde yorumlara yol açıyor. Ayrıca, gelişmiş yapay zekanın gerçek riskleri konusunda gerçekçiler, şüpheciler ve teknoloji savunucuları arasında tartışmalar devam ediyor. Bazı eleştirmenler, Amodei gibi liderlerin sıklıkla dile getirdiği varoluşsal risklerin abartılmış olabileceğini, özellikle teknolojideki iyileştirmelerin yavaşlıyor gibi göründüğü bir dönemde bunun dikkate alınması gerektiğini savunuyor. Benzer şekilde, İngiltere'deki yapay zeka telif hakkı planına verilen tepkiler de teknoloji düzenlemelerine yönelik kamusal endişeyi yansıtıyor.
Regülasyon eksikliği ve etik kaygılar sadece şirketler düzeyinde değil, eğitim gibi alanlarda da kendini gösteriyor. ABD'de okulların yapay zeka politikalarını kendi başlarına geliştirmek zorunda kalması, merkezi bir çerçevenin yokluğunda ortaya çıkan zorluklara örnek teşkil ediyor. Yayıncılar da benzer bir belirsizlikle karşı karşıya; İngiltere'nin Google'dan yayıncıların yapay zeka özetlerine katılmama hakkı talep etmesi, içerik üzerindeki kontrolün önemini vurguluyor.