Cuma, Haziran 14, 2024
Ana SayfaTeknoloji Haberleri"Kontrol kaybından" korkan AI eleştirmenleri, AI geliştirmede 6 aylık duraklama çağrısı yapıyor

“Kontrol kaybından” korkan AI eleştirmenleri, AI geliştirmede 6 aylık duraklama çağrısı yapıyor

Dönmeyi bırakan bir kürenin yapay zeka tarafından oluşturulmuş bir görüntüsü.
Büyüt / Dönmeyi bırakan bir kürenin yapay zeka tarafından oluşturulmuş bir görüntüsü.

Kararlı Difüzyon

Çarşamba günü Future of Life Enstitüsü, web sitesinde yapay zeka laboratuvarlarını “GPT-4’ten daha güçlü AI sistemlerinin eğitimini en az 6 ay süreyle derhal durdurmaya” çağıran açık bir mektup yayınladı. Elon Musk ve birkaç önde gelen yapay zeka araştırmacısı tarafından imzalanan mektup, kısa sürede basında dikkatleri üzerine çekmeye başladı ve bazıları eleştiri sosyal medyada

OpenAI, bu ayın başlarında, kompozisyon görevlerini yerine getirebilen ve insan düzeyinde standart testleri geçtiği iddia edilen bir yapay zeka modeli olan GPT-4’ü piyasaya sürdü, ancak bu iddialar hala araştırma tarafından değerlendiriliyor. Ne olursa olsun, GPT-4 ve Bing Chat’in yeteneklerinde önceki yapay zeka modellerine göre ilerlemesi, önceden beklenenden daha hızlı süper akıllı yapay zeka sistemlerine doğru ilerlediğimize inanan bazı uzmanları ürküttü.

Bu doğrultuda, Future of Life Enstitüsü, AI’daki son gelişmelerin, tahmin edilmesi veya kontrol edilmesi zor olan AI modellerini geliştirmek ve uygulamak için “kontrolden çıkmış bir yarışa” yol açtığını savunuyor. Bu AI sistemlerinin planlama ve yönetim eksikliğinin endişe verici olduğuna ve güçlü AI sistemlerinin ancak etkileri iyi anlaşıldığında ve yönetilebilir olduğunda geliştirilmesi gerektiğine inanıyorlar. Mektupta yazdıkları gibi:

Kapsamlı araştırmaların gösterdiği ve üst düzey yapay zeka laboratuvarları tarafından kabul edildiği üzere, insan-rekabet zekasına sahip yapay zeka sistemleri, toplum ve insanlık için büyük riskler oluşturabilir. Geniş çapta onaylanan Asilomar Yapay Zeka İlkelerinde belirtildiği gibi, Gelişmiş Yapay Zeka, Dünya üzerindeki yaşam tarihinde derin bir değişikliği temsil edebilir ve orantılı özen ve kaynaklarla planlanmalı ve yönetilmelidir.

Mektup özellikle, “tüm işlerin” yapay zekaya verilmesi ve uygarlığın “kontrolünün kaybedilmesi” de dahil olmak üzere, bazıları yapay zeka topluluğunun bazı kesimlerinde oldukça tartışmalı olan varsayımsal senaryoları varsayan dört yüklü soru soruyor:

  • “Meli makinelerin bilgi kanallarımızı propaganda ve gerçek olmayan şeylerle doldurmasına izin mi vereceğiz?”
  • “Meli tatmin edici olanlar da dahil olmak üzere tüm işleri otomatikleştiriyoruz?
  • “Meli sonunda sayıca üstün olabilecek, zekâsı geçebilecek, modası geçmiş ve bizim yerimizi alabilecek insan olmayan zihinler geliştiriyoruz?”
  • “Meli medeniyetimizin kontrolünü kaybetme riskine mi giriyoruz?”

Mektup, bu potansiyel tehditleri ele almak için AI laboratuvarlarını “GPT-4’ten daha güçlü AI sistemlerinin eğitimini en az 6 ay boyunca derhal duraklatmaya” çağırıyor. Duraklama sırasında yazarlar, yapay zeka laboratuvarlarının ve bağımsız uzmanların yapay zeka tasarımı ve geliştirmesi için ortak güvenlik protokolleri oluşturmak üzere işbirliği yapmasını öneriyor. Bu protokoller, bağımsız dış uzmanlar tarafından denetlenecek ve AI sistemlerinin “makul bir şüphenin ötesinde güvenli” olmasını sağlamalıdır.

Bununla birlikte, “GPT-4’ten daha güçlü” ifadesinin aslında pratik veya düzenleyici anlamda ne anlama geldiği açık değildir. Mektup, çok modlu veya büyük bir dil modelinin göreli gücünü ölçerek uyumluluğu sağlamanın bir yolunu belirtmez. Ayrıca OpenAI, GPT-4’ün nasıl çalıştığıyla ilgili teknik ayrıntıları yayınlamaktan özellikle kaçındı.

Future of Life Institute, 2014 yılında biyoteknoloji, nükleer silahlar ve iklim değişikliği de dahil olmak üzere insanlığın karşı karşıya olduğu varoluşsal risklerle ilgilenen bir grup bilim insanı tarafından kurulmuş, kar amacı gütmeyen bir kuruluştur. Ek olarak, AI’dan kaynaklanan varsayımsal varoluşsal risk, grup için önemli bir odak noktası olmuştur. Reuters’e göre, organizasyon öncelikle Musk Vakfı, Londra merkezli etkili özgecilik grubu Founders Pledge ve Silicon Valley Community Foundation tarafından finanse ediliyor.

Mektubu imzalayan önemli isimler Reuters muhabiri tarafından doğrulandı bahsi geçen Tesla CEO’su Elon Musk, AI öncüleri Yoshua Bengio ve Stuart Russell, Apple kurucu ortağı Steve Wozniak, Stability AI CEO’su Emad Mostaque ve yazar Yuval Noah Harari. Açık mektup, İnternet’teki herkesin doğrulama olmaksızın imzalaması için mevcuttur; bu, başlangıçta eski Microsoft CEO’su Bill Gates, OpenAI CEO’su Sam Altman ve kurgusal karakter gibi bazı yanlış eklenmiş isimlerin dahil edilmesine yol açtı. John Wick. Daha sonra bu isimler kaldırıldı.

RELATED ARTICLES

Popüler Konular