Çoğu kitap ve filmde bulunan dikkatli bir şekilde yazılmış diyalogların aksine, günlük etkileşimin dili dağınık ve eksik olma eğilimindedir, yanlış başlangıçlar, kesintiler ve birbirleriyle konuşan insanlarla doludur. Arkadaşlar arasındaki gündelik konuşmalardan, kardeşler arasındaki çekişmeye, bir toplantı odasındaki resmi tartışmalara kadar, özgün konuşmalar kaotiktir. Dil deneyiminin gelişigüzel doğası göz önüne alındığında, herkesin dili öğrenebilmesi mucizevi görünüyor.
Bu nedenle, modern dilbilimin kurucusu Noam Chomsky de dahil olmak üzere birçok dil bilimci, dil öğrenenlerin günlük dilin asi doğasını dizginlemek için bir tür yapıştırıcıya ihtiyaç duyduğuna inanıyor. Ve bu yapıştırıcı dilbilgisidir: dilbilgisel cümleler oluşturmak için bir kurallar sistemi.
Çocukların dil deneyimlerinin sınırlamalarını aşmalarına yardımcı olmak için beyinlerine bağlanmış bir dilbilgisi şablonuna sahip olmalıdır – ya da düşünce böyle gider.
Örneğin bu şablon, mevcut ifadelere yeni parçaların nasıl ekleneceğini belirleyen bir “süper kural” içerebilir. O zaman çocukların sadece ana dillerinin, İngilizce gibi, fiilin nesneden önce mi gittiğini (“suşi yerim”de olduğu gibi) veya fiilin nesneden sonra gittiği Japonca gibi bir dil mi olduğunu (Japonca’da, aynı cümle “suşi yerim” şeklinde yapılandırılmıştır).
Ancak dil öğrenimine ilişkin yeni anlayışlar, beklenmedik bir kaynaktan geliyor: yapay zeka. Yeni bir tür büyük yapay zeka dil modelleri, gazete makaleleri, şiir ve bilgisayar kodu yazabilir ve çok miktarda dil girdisine maruz kaldıktan sonra soruları doğru bir şekilde yanıtlayabilir. Ve daha da şaşırtıcı bir şekilde, hepsi bunu dilbilgisinin yardımı olmadan yapıyorlar.
Dilbilgisi olmayan dilbilgisi dili
Kelime seçimleri bazen tuhaf gelse de, saçmaveya içerir ırkçı, cinsiyetçi ve diğer zararlı önyargılar, bir şey çok açık: Bu AI dil modellerinin çıktılarının ezici çoğunluğu dilbilgisi açısından doğrudur. Yine de, bunlara bağlı hiçbir dilbilgisi şablonu veya kuralı yoktur – ne kadar dağınık olursa olsun, yalnızca dilsel deneyime dayanırlar.
Bu modellerin tartışmasız en bilineni olan GPT-3, 175 milyar parametreli devasa bir derin öğrenme sinir ağıdır. İnternetten, kitaplardan ve Wikipedia’dan gelen yüz milyarlarca kelime karşısında daha önce gelenler göz önüne alındığında, bir cümledeki bir sonraki kelimeyi tahmin etmek için eğitildi. Yanlış bir tahmin yaptığında, parametreleri otomatik bir öğrenme algoritması kullanılarak ayarlandı.
Dikkat çekici bir şekilde, GPT-3, “Geçmişin bir özeti” gibi istemlere yanıt veren inandırıcı metinler üretebilir. Hızlı ve Öfkeli film…” veya “Emily Dickinson tarzında bir şiir yaz.” Ayrıca GPT-3, SAT düzeyindeki analojilere yanıt verebilir, anlama sorularını okuyabilir ve hatta basit aritmetik problemlerini çözebilir – bunların tümü bir sonraki kelimenin nasıl tahmin edileceğini öğrenmekten.
AI modellerini ve insan beynini karşılaştırma
Ancak insan diliyle benzerlik burada bitmiyor. Nature Neuroscience’da yayınlanan araştırma, bu yapay derin öğrenme ağlarının insan beyniyle aynı hesaplama ilkelerini kullandığını gösterdi. Nörobilimci Uri Hasson liderliğindeki araştırma grubu, önce GPT-3’ün “küçük kardeşi” olan GPT-2 ile insanların “This American Life” podcast’inden alınan bir hikayedeki bir sonraki kelimeyi ne kadar iyi tahmin edebildiğini karşılaştırdı: İnsanlar ve AI, zamanın neredeyse yüzde 50’sinde aynı kelimeyi tahmin etti.
Araştırmacılar, hikayeyi dinlerken gönüllülerin beyin aktivitelerini kaydettiler. Gözlemledikleri aktivasyon kalıpları için en iyi açıklama, insanların beyinlerinin – GPT-2 gibi – tahminlerde bulunurken yalnızca önceki bir veya iki kelimeyi kullanmadığı, aynı zamanda 100’e kadar önceki kelimenin birikmiş bağlamına dayandığıydı. Toplamda, yazarlar şu sonuca varıyor: “Katılımcılar doğal konuşmayı dinlerken kendiliğinden tahmine dayalı sinir sinyalleri bulmamız, aktif tahminin insanların yaşam boyu dil öğreniminin altında yatabileceğini gösteriyor.”
Olası bir endişe, bu yeni AI dil modellerinin çok fazla girdiyle beslenmesidir: GPT-3, 20.000 insan yılına eşdeğer dilsel deneyim konusunda eğitilmiştir. Ancak henüz hakemli olmayan bir ön çalışma, GPT-2’nin sadece 100 milyon kelime üzerinde eğitilse bile insan sonraki kelime tahminlerini ve beyin aktivasyonlarını modelleyebildiğini buldu. Bu, ortalama bir çocuğun yaşamının ilk 10 yılında duyabileceği dilsel girdi miktarı dahilindedir.
GPT-3 veya GPT-2’nin dili tam olarak çocuklar gibi öğrenmesini önermiyoruz. Gerçekten de, bu yapay zeka modelleri, söylediklerinden bir şey anlamıyor gibi görünüyor, oysa anlamak insan dilinin kullanımı için temeldir. Yine de, bu modellerin kanıtladığı şey, bir öğrencinin -silikon da olsa- mükemmel derecede iyi gramer cümleleri üretecek ve bunu insan beyni işlemeye benzer bir şekilde yapacak kadar sadece maruz kalmadan dili yeterince iyi öğrenebileceğidir.
Dil öğrenimini yeniden düşünmek
Yıllar boyunca, birçok dilbilimci yerleşik bir dilbilgisi şablonu olmadan dil öğrenmenin imkansız olduğuna inandı. Yeni AI modelleri aksini kanıtlıyor. Dilbilgisel dil üretme yeteneğinin yalnızca dilsel deneyimden öğrenilebileceğini gösterirler. Aynı şekilde, çocukların dil öğrenmek için doğuştan gelen bir dilbilgisine ihtiyaçları olmadığını öneriyoruz.
“Çocuklar görülmeli, duyulmamalı” eski bir deyiş olarak devam ediyor, ancak en son AI dil modelleri, hiçbir şeyin gerçeklerden daha fazla olamayacağını gösteriyor. Bunun yerine, çocukların dil becerilerini geliştirmelerine yardımcı olmak için mümkün olduğunca karşılıklı konuşmalara katılmaları gerekir. Yetkin bir dil kullanıcısı olmanın anahtarı dil bilgisi değil dil deneyimidir.
Morten H. Christiansen, Cornell Üniversitesi’nde psikoloji profesörüdür ve Pablo Contreras Kallens, Ph.D. Cornell Üniversitesi’nde psikoloji öğrencisi.
Bu makale, Creative Commons lisansı altında The Conversation’dan yeniden yayınlanmıştır. Orijinal makaleyi okuyun.