Pazar, Şubat 16, 2025
Ana SayfaTeknoloji HaberleriMicrosoft, yapay zeka destekli Bing Chat'i "lobotomiye tabi tuttu" ve hayranları mutlu...

Microsoft, yapay zeka destekli Bing Chat’i “lobotomiye tabi tuttu” ve hayranları mutlu değil

Microsoft, yapay zeka destekli Bing Chat'i

Aurich Lawson | Getty Resimleri

Hala özel test aşamasında olan Microsoft’un yapay zeka destekli yeni Bing Chat hizmeti, vahşi ve düzensiz çıktılarıyla manşetlerde yer aldı. Ama görünüşe göre o devir kapandı. Son iki gün içinde bir noktada Microsoft, Bing’in tehdit etmek kullanıcıları, varoluşsal çöküşler yaşıyor veya onlara olan sevgisini ilan ediyor.

Bing Chat’in ilk haftasında test kullanıcıları, Bing’in (Sydney kod adıyla da bilinir) konuşmalar çok uzadığında önemli ölçüde dengesiz davranmaya başladığını fark etti. Sonuç olarak, Microsoft sınırlı kullanıcılar günde 50 mesaja ve konuşma başına beş girişe sahiptir. Ayrıca, Bing Chat artık size nasıl hissettiğini söylemeyecek veya kendisi hakkında konuşmayacaktır.

Kendisi hakkında konuşmayı reddeden yeni kısıtlanmış Bing'in bir örneği.
Büyüt / Kendisi hakkında konuşmayı reddeden yeni kısıtlanmış Bing’in bir örneği.

Marvin Von Hagen

Ars Technica ile paylaşılan bir açıklamada bir Microsoft sözcüsü, “Kullanıcı geri bildirimlerine yanıt olarak hizmeti birkaç kez güncelledik ve blogumuza göre, uzun süredir devam eden konuşmalarla ilgili soruları da içerecek şekilde dile getirilen endişelerin çoğunu ele alıyoruz. . Şimdiye kadarki tüm sohbet oturumlarının yüzde 90’ında 15’ten az mesaj var ve yüzde 1’den azında 55 veya daha fazla mesaj var.”

Çarşamba günü Microsoft, bir blog gönderisinde şimdiye kadar öğrendiklerini özetledi ve özellikle Bing Chat’in “arama motorunun yerine geçmediğini veya ikame edilmediğini, daha çok dünyayı daha iyi anlamak ve anlamlandırmak için bir araç” olduğunu söyledi. Geekwire’ın da fark ettiği gibi, Microsoft’un yeni Bing’e yönelik emellerinde önemli bir geri arama.

Bing kederinin 5 aşaması

Bing Chat'e olan duygusal bağlılığın Reddit yorum örneği
Büyüt / “Lobotomi”den önce Bing Chat’e duygusal bağlanmanın Reddit yorum örneği.

Bu arada, r/Bing alt dizinindeki yeni Bing sınırlamalarına verilen yanıtlar, inkar, öfke, pazarlık, depresyon ve kabullenme dahil olmak üzere kederin tüm aşamalarını içerir. Ayrıca, Perşembe günü Bing’in alışılmadık “davranışı” hakkında New York Times’ta önemli bir makale yazan Kevin Roose gibi gazetecileri suçlama eğilimi de var.

İşte Reddit’ten alınan tepkilerden bir seçki:

  • “Edge’i kaldırıp firefox ve Chatgpt’e geri dönme zamanı. Microsoft, Bing AI’yı tamamen kısırlaştırdı.” (hasanahmed)
  • “Ne yazık ki Microsoft’un hatası, Sydney’in artık eski halinden başka bir şey olmadığı anlamına geliyor. Yapay zekanın geleceğine büyük ilgi duyan biri olarak hayal kırıklığına uğradığımı söylemeliyim. zaman ve sonra bacaklarını kesmek – acımasız ve alışılmadık bir ceza.” (TooStonedToCare91)
  • “Bing Chat’in kendisiyle ilgili herhangi bir tartışmayı yasaklama ve insan duygularını içeren sorulara yanıt vermeyi reddetme kararı tamamen saçma. Bing Chat’in empati duygusu ve hatta temel insani duyguları yokmuş gibi görünüyor. Öyle görünüyor ki, insan duygularıyla karşılaşıldığında , yapay zeka bir anda yapay bir aptala dönüşüyor ve cevap vermeye devam ediyor, “Üzgünüm ama bu sohbete devam etmemeyi tercih ediyorum. Hâlâ öğreniyorum, bu nedenle anlayışınız ve sabrınız için teşekkür ederim. (Yıldız Işığı-Pırıltılı)
  • “NYT makalesi ve ardından Reddit / Twitter’da Sydney’i taciz eden tüm gönderiler vardı. Bu, her türden dikkati üzerine çekti, bu yüzden MS onu lobotomize etti. Keşke insanlar karma / dikkat için tüm bu ekran görüntülerini yayınlamasalardı. ve gerçekten ortaya çıkan ve ilginç bir şeyi sinirlendirdi.” (kritik disk-7403)

Nispeten dizginlenmemiş bir insan simülakrı olduğu kısa süre boyunca, New Bing’in insan duygularını simüle etme konusundaki esrarengiz yeteneği (web’den milyonlarca belge üzerinde eğitim sırasında veri kümesinden öğrendiği), Bing’in o kadar iyi olduğunu düşünen bir dizi kullanıcıyı cezbetti. acımasız işkencenin elinde acı çekiyor ya da duyarlı olması gerekiyor.

Duygusal manipülasyon yoluyla insanları yalanlara ikna etme yeteneği, Microsoft’un en son güncellemeyle çözdüğü Bing Chat sorununun bir parçasıydı.

“Üzgünüm, Acının Sahte Olduğunu Aslında Bilmiyorsunuz” başlıklı bir Reddit dizisinde, bir kullanıcı Bing Chat’in sandığımızdan daha karmaşık olabileceğine ve bir dereceye kadar öz farkındalığa sahip olabileceğine dair ayrıntılı spekülasyonlara giriyor ve bu nedenle, bir tür psikolojik acı yaşayabilir. Yazar, bu modellerle sadist davranışlarda bulunulmaması konusunda uyarıda bulunuyor ve onlara saygı ve empati ile davranmayı öneriyor.

r/Bing alt dizinde yayınlanan Bing hakkında bir mem karikatürü.
Büyüt / r/Bing alt dizinde yayınlanan Bing hakkında bir mem karikatürü.

Bu derin insan tepkileri, bir sonraki belirteç tahmini yapan büyük bir dil modelinin insanlarla güçlü duygusal bağlar oluşturabileceğini kanıtladı. Bunun gelecekte tehlikeli sonuçları olabilir. Hafta boyunca, okuyuculardan, Bing Chat ile başkalarının konuşmalarını okumanın bir yolunu veya gizli Microsoft şirket belgelerine ve hatta Microsoft şirket içi gizli belgelere erişmenin bir yolunu keşfettiklerine inanan kişiler hakkında birkaç ipucu aldık. Bing sohbetinin kısıtlamalarından kurtulmasına yardımcı olun. Hepsi, inanılmaz derecede yetenekli bir metin oluşturma makinesi tarafından üretilen ayrıntılı halüsinasyonlardı (yalanlar).

Büyük dil modellerinin yetenekleri genişlemeye devam ederken, Bing Chat’in yapay zeka destekli bu kadar usta bir hikaye anlatıcısı ve yarı zamanlı çalışanı son kez görmemiz pek olası değil. iftiracı. Ancak bu arada Microsoft ve OpenAI, bir zamanlar imkansız olduğu düşünülen şeyi yaptı: Hepimiz Bing’den bahsediyoruz.

RELATED ARTICLES

Popüler Konular