Çarşamba günü OpenAI, GPT-3 büyük dil modelleri ailesi için diyalog tabanlı bir AI sohbet arabirimi olan ChatGPT’yi duyurdu. Şu anda bir test aşamasında OpenAI hesabıyla kullanmak ücretsizdir. OpenAI’nin Oyun Alanı ve API’sinde bulunan GPT-3 modelinin aksine ChatGPT, kullanıcı dostu bir konuşma arabirimi sağlar ve potansiyel olarak zararlı çıktıları güçlü bir şekilde sınırlamak için tasarlanmıştır.
OpenAI, duyuru blog sayfasında “Diyalog formatı, ChatGPT’nin takip eden soruları yanıtlamasına, hatalarını kabul etmesine, yanlış öncüllere meydan okumasına ve uygunsuz istekleri reddetmesine olanak tanıyor” diye yazıyor.
Şimdiye kadar, insanlar ChatGPT’yi test ediyor, çok çeşitli potansiyel kullanımlar buluyor ve aynı zamanda güvenlik açıklarını keşfediyor. Bu olabilir şiir yazdoğru kodlama hataları ayrıntılı örneklerle, oluşturmak AI sanat istemleri, yazmak yeni kod, açıklamak sosisli sandviçin felsefi sınıflandırması üzerine, ve kabarcık sıralama algoritmasının en kötü durum zaman karmaşıklığını “1940’ların gangster filminden hızlı konuşan bilge bir adam” tarzında açıklayın.
OpenAI’nin yeni ChatGPT’si, kabarcık sıralama algoritmasının en kötü durum zaman karmaşıklığını Python kod örnekleriyle, 1940’ların bir gangster filminden hızlı konuşan bilge bir adamın tarzında açıklıyor: pic.twitter.com/MjkQ5OAIlZ
— Riley Goodside (@goodside) 1 Aralık 2022
ChatGPT ayrıca zararlı olabilecek pek çok soruyu (nefret söylemi, şiddet içeren içerik veya nasıl bomba yapılacağı gibi konularla ilgili) yanıtlamayı reddeder çünkü cevaplar karşı çıkmak “programlaması ve amacı”. OpenAI bunu hem bir özel bilgi istemi tüm girdilerin başına gelir ve insanların oluşturduğu yanıtları nasıl derecelendirdiğine bağlı olarak bir yapay zeka modelinde ince ayar yapabilen İnsan Geri Bildiriminden Güçlendirmeli Öğrenim (RLHF) adlı bir teknik kullanır.
Büyük dil modellerinin saldırgan eğilimlerini dizginlemek, potansiyel pazar kullanışlılığını sınırlayan temel sorunlardan biridir ve OpenAI, ChatGPT’yi herkes için güvenli bir AI modeli sağlama yönünde önemli bir yinelemeli adım olarak görür.
Yine de, şaşırtıcı olmayan bir şekilde, insanlar bunu nasıl yapacaklarını çoktan anladılar. atlatmak ChatGPT’nin yerleşik içerik filtrelerinden bazıları, yapay zekadan sınırlı bir çıktıyı bir taklit senaryosu (hatta bir şiir). ChatGPT ayrıca görünüyor hassas hızlı enjeksiyon saldırılarına, Ars’ın Eylül ayında ortaya attığı bir hikaye.
GPT-3 gibi, diyalog tabanlı kuzeni de tamamen otoriter bir şekilde bir şeyler uydurmakta çok iyidir, örneğin: olmayan bir kitap, içeriğiyle ilgili ayrıntılar dahil. Bu, bugün var olan büyük dil modelleriyle ilgili başka bir önemli sorunu temsil ediyor: Eğer nefes nefese ikna edici bilgileri baştan sona oluşturabiliyorlarsa, çıktılarından herhangi birine nasıl güvenebilirsiniz?
OpenAI’nin yeni sohbet robotu harika. Bazı çok ilginç şeyler halüsinasyon görüyor. Örneğin, bana (v kulağa ilginç gelen!) bir kitaptan bahsetti ve ben de ona şunu sordum:
Maalesef ne Amazon ne G Scholar ne de G Books kitabın gerçek olduğunu düşünmüyor. Belki de öyle olmalı! pic.twitter.com/QT0kGk4dGs
— Michael Nielsen (@michael_nielsen) 1 Aralık 2022
Yine de, insanların sahip olduğu gibi algılananChatGPT’nin çıktı kalitesi bir kayda değer gelişme Salı günü hakkında yazdığımız yeni text-davinci-003 modeli de dahil olmak üzere önceki GPT-3 modellerinin üzerinde. OpenAI, ChatGPT’nin “2021’in 4. çeyreğinden önceki bir metin ve kod karışımı” üzerinde eğitilmiş “GPT 3.5” model serisinin bir parçası olduğunu söylüyor.
Bu sırada, GPT-4 söylentileri döndürmeye devam edin. Bugünün ChatGPT modeli, OpenAI’nin 2021’deki GPT-3 eğitim çalışmasının doruk noktasını temsil ediyorsa, firmanın son 12 ayda GPT ile ilgili hangi yenilikler üzerinde çalıştığını görmek ilginç olacaktır.