Cuma, Haziran 21, 2024
Ana SayfaTeknoloji HaberleriOpenAI yöneticileri, yeni operasyonda yapay zekanın "yok olma riski" konusunda uyarıyor...

OpenAI yöneticileri, yeni operasyonda yapay zekanın “yok olma riski” konusunda uyarıyor…

Yapay zeka tarafından oluşturulmuş bir görüntü
Büyüt / “Yapay zekanın dünyayı ele geçirmesinin” yapay zeka tarafından oluşturulmuş bir görüntüsü.

Kararlı Difüzyon

Salı günü Yapay Zeka Güvenliği Merkezi (CAIS), OpenAI ve DeepMind yöneticileri, Turing Ödülü sahipleri ve diğer yapay zeka araştırmacıları tarafından imzalanan tek cümlelik bir bildiri yayınladı.

CAIS’in “Yapay zekadan kaynaklanan önemli ve acil risklerin geniş bir yelpazesi” konusunda tartışma başlatmayı amaçladığını söylediği kısa açıklama şu şekildedir: “Yapay zekanın yok olma riskini azaltmak, diğer toplumsal sorunların yanında küresel bir öncelik olmalıdır. -pandemi ve nükleer savaş gibi riskleri ölçeklendirin.”

Açıklamanın yüksek profilli imza sahipleri arasında Turing Ödülü sahibi Geoffery Hinton ve Yoshua Bengio, OpenAI CEO’su Sam Altman, OpenAI Baş Bilim İnsanı Ilya Sutskever, OpenAI CTO’su Mira Murati, DeepMind CEO’su Demis Hassabis, Anthropic CEO Dario Amodei ve UC Berkeley, Stanford’dan profesörler yer alıyor. , ve MİT.

Bu açıklama, Altman dünyayı dolaşıp devlet başkanlarıyla yapay zeka ve potansiyel tehlikeleri hakkında toplantılar yaparken geldi. Mayıs ayının başlarında Altman, ABD Senatosu önünde endüstrisinin düzenlemelerini savundu.

Kısa uzunluğu göz önüne alındığında CAIS açık mektubu, içermediği şeylerle dikkat çekiyor. Örneğin, terimin hayalet hareketlerinden herhangi bir şeye uygulanabileceğini göz önünde bulundurarak, “AI” ile tam olarak ne anlama geldiğini belirtmez. Pac-Man 1940’ların bilge gangster tarzında soneler yazabilen dil modellerine. Mektup, yok olma risklerinin nasıl azaltılabileceğini de önermiyor, yalnızca bunun “küresel bir öncelik” olması gerektiğini söylüyor.

Bununla birlikte, ilgili bir basın açıklamasında CAIS, “yapay zeka risklerinin bizi hazırlıksız yakalamaması için korkuluklar yerleştirmek ve kurumlar kurmak” istediğini söylüyor ve yapay zeka hakkındaki uyarıyı J. Robert Oppenheimer’ın potansiyel etkiler hakkındaki uyarısına benzetiyor. atom bombasının.

AI etik uzmanları eğlenmedi

Dönmeyi bırakan bir kürenin yapay zeka tarafından oluşturulmuş bir görüntüsü.
Büyüt / Dönmeyi bırakan bir kürenin yapay zeka tarafından oluşturulmuş bir görüntüsü.

Kararlı Difüzyon

Bu, bu yıl gördüğümüz varsayımsal, dünyanın sonunu getiren yapay zeka tehlikeleriyle ilgili ilk açık mektup değil. Mart ayında Life of Life Enstitüsü, basında geniş yer bulan ancak aynı zamanda şüpheci bir yanıtla karşılanan “GPT-4’ten daha güçlü” AI modellerinde altı aylık bir duraklamayı savunan Elon Musk imzalı daha ayrıntılı bir bildiri yayınladı. makine öğrenimi topluluğundaki bazılarından.

Genellikle yapay zeka etiğine odaklanan uzmanlar, ortaya çıkan bu açık mektup trendinden hoşlanmıyor.

Hugging Face’de makine öğrenimi araştırma bilimcisi olan Dr. Sasha Luccioni, yeni CAIS mektubunu el çabukluğuna benzetiyor: “Her şeyden önce, AI’nın varsayımsal varoluşsal riskinden pandemiler ve iklim değişikliği gibi çok somut risklerle aynı nefeste bahsetmek. halk için çok taze ve içgüdüsel olan, ona daha fazla güvenilirlik kazandırıyor” diyor. “Ayrıca yanlış yönlendirme, halkın dikkatini bir şeye (gelecekteki riskler) çekerek başka bir şey düşünmesinler (önyargı, yasal sorunlar ve rıza gibi somut güncel riskler).”

RELATED ARTICLES

Popüler Konular