Perşembe, Haziran 20, 2024
Ana SayfaTeknoloji HaberleriChatGPT ve Bing Chat bir şeyleri uydurmada neden bu kadar iyi?

ChatGPT ve Bing Chat bir şeyleri uydurmada neden bu kadar iyi?

ChatGPT ve Bing Chat bir şeyleri uydurmada neden bu kadar iyi?

Aurich Lawson | Getty Resimleri

Geçtiğimiz birkaç ay boyunca, ChatGPT gibi AI sohbet robotları, hemen hemen her konuda insan benzeri bir şekilde sohbet etme yetenekleri nedeniyle dünyanın dikkatini çekti. Ancak ciddi bir dezavantajları vardır: İkna edici yanlış bilgileri kolayca sunabilirler, bu da onları güvenilmez olgusal bilgi kaynakları ve potansiyel iftira kaynakları haline getirir.

Yapay zeka sohbet robotları neden bir şeyler uyduruyor ve onların çıktılarına tamamen güvenebilecek miyiz? Birkaç uzmana sorduk ve yanıtları bulmak için bu yapay zeka modellerinin nasıl çalıştığını inceledik.

“Halüsinasyonlar”—yapay zekada yüklü bir terim

OpenAI’nin ChatGPT’si gibi yapay zeka sohbet botları, yanıtlarını oluşturmak için “büyük dil modeli” (LLM) adı verilen bir yapay zeka türüne güvenir. Bir LLM, insanların doğal olarak yazacağı veya konuşacağı gibi “doğal dil” metinlerini okuyabilen ve oluşturabilen milyonlarca metin kaynağı üzerinde eğitilmiş bir bilgisayar programıdır. Ne yazık ki, onlar da hata yapabilir.

Akademik literatürde, AI araştırmacıları bu hataları genellikle “halüsinasyonlar” olarak adlandırırlar. Ancak konu ana akım hale geldikçe bu etiket tartışmalı hale geldi çünkü bazı insanlar bunun AI modellerini antropomorfize ettiğini (insan benzeri özelliklere sahip olduklarını öne sürerek) veya ima edilmemesi gereken durumlarda onlara eylemlilik sağladığını (kendi seçimlerini yapabileceklerini öne sürerek) düşünüyor. Ticari LLM’lerin yaratıcıları, çıktıların kendilerinin sorumluluğunu almak yerine hatalı çıktılar için AI modelini suçlamak için halüsinasyonları bir bahane olarak da kullanabilirler.

Yine de üretken yapay zeka o kadar yeni ki, bu son derece teknik kavramları daha geniş kitlelere açıklamak için mevcut fikirlerden ödünç alınan metaforlara ihtiyacımız var. Bu bağlamda, “konfabülasyon” teriminin benzer şekilde kusurlu olmasına rağmen “halüsinasyon”dan daha iyi bir mecaz olduğunu düşünüyoruz. İnsan psikolojisinde, bir kişinin hafızasında bir boşluk olduğunda ve beyin, başkalarını aldatma niyeti olmadan geri kalanını inandırıcı bir şekilde doldurduğunda bir “konfabülasyon” meydana gelir. ChatGPT değil insan beyni gibi çalışır, ancak “konfabülasyon” terimi muhtemelen daha iyi bir metafor olarak hizmet eder çünkü aşağıda inceleyeceğimiz gibi iş başında yaratıcı bir boşluk doldurma ilkesi vardır.

konfabülasyon sorunu

Bir yapay zeka botunun potansiyel olarak yanıltabilecek, yanlış bilgilendirebilecek veya karalayabilecek yanlış bilgiler üretmesi büyük bir sorundur. Geçenlerde The Washington Post, bir hukuk profesörünün ChatGPT’nin kendisini birini cinsel tacizde bulunan hukuk bilginleri listesine koyduğunu keşfettiğini bildirdi. Ama bu asla olmadı—ChatGPT uydurdu. Aynı gün Ars, Avustralyalı bir belediye başkanının ChatGPT’nin rüşvetten hüküm giydiğini ve hapis cezasına çarptırıldığını iddia ettiğini iddia ettiğini bildirdi, bu tamamen bir uydurma.

ChatGPT kullanıma sunulduktan kısa bir süre sonra insanlar arama motorunun sona erdiğini ilan etmeye başladı. Bununla birlikte, aynı zamanda, ChatGPT’nin konfabulasyonlarının birçok örneği sosyal medyada dolaşmaya başladı. AI bot icat etti kitabın Ve çalışmalar var olmayan, yayınlar o profesörler yazmadı, sahte akademik makalelerYANLIŞ yasal alıntılarvar olmayan Linux sistem özelliklerigerçek dışı perakende maskotlarıVe teknik detaylar bu mantıklı değil.

Yine de, ChatGPT’nin gelişigüzel yalan söyleme tercihine rağmen, sezgilere aykırı bir şekilde, konfabülasyona karşı direnci, bugün bunun hakkında konuşmamızın nedenidir. Bazı uzmanlar, ChatGPT’nin teknik olarak vanilya GPT-3’e (önceki model) göre bir gelişme olduğunu, çünkü bazı soruları yanıtlamayı reddedebileceğini veya yanıtlarının doğru olmayabileceğini size bildirebileceğini belirtiyor.

Scale AI’da personel bilgi istemi mühendisi olarak görev yapan büyük dil modellerinde uzman olan Riley Goodside, “Chat’in başarısındaki en önemli faktörlerden biri, birçok ortak soru için fark edilmeyecek şekilde konfabülasyonu yeterince bastırmayı başarmasıdır” dedi. “Önceki sürümlerle karşılaştırıldığında, ChatGPT bir şeyler uydurmaya çok daha az eğilimli.”

Bir beyin fırtınası aracı olarak kullanılırsa, ChatGPT’nin mantıksal sıçramaları ve konfabulasyonları yaratıcı atılımlara yol açabilir. Ancak olgusal bir referans olarak kullanıldığında, ChatGPT gerçek zararlara neden olabilir ve OpenAI bunu bilir.

Modelin lansmanından kısa bir süre sonra, OpenAI CEO’su Sam Altman tweet attı, “ChatGPT inanılmaz derecede sınırlı, ancak bazı şeylerde yanıltıcı bir büyüklük izlenimi yaratacak kadar iyi. Şu anda önemli herhangi bir şey için ona güvenmek bir hata. Bu, ilerlemenin bir önizlemesi; sağlamlık konusunda yapacak çok işimiz var. ve doğruluk.” daha sonra cıvıldamakşöyle yazdı: “BenÇok şey biliyor ama tehlike şu ki, kendinden emin ve zamanın önemli bir kısmında yanılıyor.”

Burada neler oluyor?

RELATED ARTICLES

Popüler Konular