Birkaç ay ilkin, asal sayılarla ilgili bazı deneyler hakkında yazmıştım. İki 8 basamaklı asal sayıyı çarparak 16 basamaklı asal olmayan bir sayı oluşturdum ve ChatGPT’ye (GPT -3.5 kullanarak) daha büyük sayının asal olup olmadığını sormuş oldum. Sayının asal olmadığını doğru bir halde yanıtladı, sadece bana sayının asal çarpanlarını söylediğinde açıkça yanlıştı. Ek olarak, yaygın olarak kullanılan Miller-Rabin asallık testini tatbik eden kısa bir program oluşturdu. Bazı belirgin hataları düzelttikten sonrasında programı çalıştırdım ve bana (doğru bir halde) numaramın asal olmadığını söylese de, Miller-Rabin’in iyi malum bir uygulamasıyla karşılaştırıldığında, ChatGPT’nin kodu birçok hata yapmış oldu. Kullanılabilir olduğunda, GPT-4 bana benzer sonuçlar verdi. Ve sonucun kendisi – bu iyi bir tahmin olabilirdi. Rastgele seçilen 16 basamaklı bir sayının asal olmama olasılığı ortalama %97’dir.
OpenAI, kısa süre ilkin uzun süreden beri beklenen Eklentiler hususi durumunu GPT-4 modelini kullanarak ChatGPT Plus (ücretli sürüm) kullanıcılarına açtı. İlk eklentilerden biri Mathematica ve Wolfram Alpha’nın yapımcıları Wolfram’dandı. Bunu tecrübe etmek zorundaydım! Spesifik olarak, ana testimi tekrardan tecrübe etmek zorunda kaldım. Ve her şey işe yaradı: ChatGPT problemi Wolfram’a gönderdi, sayının asal olmadığını belirledi ve bana doğru asal çarpanları verdi. Herhangi bir kod oluşturmadı, sadece asallığın iyi mi kontrol edileceğini açıklayan Wolfram Alpha netice sayfasına bir bağlantı sağlamış oldu. ChatGPT’den Wolfram’a gidip gelme süreci de acı verecek kadar yavaştı, direkt Wolfram Alpha kullanmaktan yada birkaç satır Python yazmaktan oldukca daha yavaştı. Fakat işe yaradı ve asal sayıların fanatikleri için bu bir artı.
Daha süratli öğrenin. Daha derin kaz. Daha uzağa bakın.
Hala rahatsızdım. ChatGPT neleri Wolfram Alpha’ya aktaracağına ve neleri kendi başına halledeceğine iyi mi karar verir? Analizden birkaç sual denedim; şaşırtıcı olmayan bir halde Wolfram’a gittiler. Sonrasında hakikaten basitleştim: “3 + 5 kaç eder?” Wolfram yok ve ChatGPT bana cevabın 8 bulunduğunu söylediğinde şaşırmadım. Sadece bu, şu suali akla getirdi: Peki ya daha karmaşık aritmetik? Ben de “123456789 + 98776543321 ne kadar?” diye sormuş oldum, taşımayı öğrenmiş her ilköğretim öğrencisinin çözebileceği bir sorun. Gene Wolfram yok fakat bu sefer yanıt yanlıştı.
ChatGPT’nin daha ileri matematikte zayıf olmasının yanı sıra aritmetikte de zayıf bulunduğunu uzun süreden beri biliyorduk. Wolfram eklentisi matematik problemini kolaylıkla çözer. Sadece, ChatGPT aritmetik mevzusunda hala zayıf ve kendi başına aritmetik halletmeye çalışıyor. Cevaplayamadığım mühim sual “bir sorun ne vakit eklentiye gönderilecek kadar karmaşık hale gelir?” Eklenti büyük bir kazançtır, sadece niteliksiz değildir.
ChatGPT’nin alıntı yapma eğilimi de iyi malum başka bir sorundur. Birkaç hafta ilkin, bir özet yazmak için ChatGPT’yi kullanan bir avukat hakkında bir öykü dolaştı. ChatGPT birçok içtihada atıfta bulunmuş oldu, sadece tüm alıntıları oluşturdu. Bir yargıç ondan gerçek içtihat yasasını sunmasını istediğinde, avukat itaatkar bir halde davaları kendileri oluşturan ChatGPT’ye geri döndü. Hakim memnun olmadı. Bu, başka bir suali gündeme getiriyor: ChatGPT devamlı alıntı halletmeye eğilimli olmuştur, sadece artık bunun için bir eklenti var! ScholarAI eklentisi, bilimsel niteliği olan veritabanlarında alıntılar arar ve bağlantılar döndürür. Bu, bu avukata destek olmazdı (hemen hemen Westlaw yada LexisNexis’ten eklentiler görmüyorum), sadece şunu sormaya kıymet: peki ya alıntılar?
Ilkin tıbbi bir sual sormayı denedim. Ben tabip değilim, bu yüzden sual basitti: Antibiyotiğe dirençli bakterilerle ilgili son araştırma nedir? ChatGPT, suali ScholarAI’ye gönderdi ve ben de ilgili alıntıların uzun bir listesini geri aldım. (Eklenti bir döngüye girmiş benzer biçimde göründü, bu yüzden sonunda çıktıyı sonlandırdım.) Yazıların standardını yada ilgi düzeyini değerlendirecek yetkinliğe haiz olmasam da, tüm bağlantılar geçerliydi: makaleler gerçekti ve yazar adları orijinaldi. doğru. Burada halüsinasyon yok.
Peşinden İngiliz edebiyatı hakkında bazı sorular sormuş oldum (Doktoram var, bu yüzden gerçek sorular uydurabilirim). Karşılığında o denli oldukca alıntı almadım, muhtemelen ArXiv benzer biçimde ön baskı sunucularımız olmadığı ve dergilerin burs üstündeki tescilli kilitlerini protesto etmek için oldukca azca şey yaptığımız için. Sadece aldığım alıntılar geçerliydi: yazarları doğru sıralanmış gerçek kitaplar ve makaleler.
Gene de bu başka bir suali akla getirdi. Bir yazı sıralaması kesinlikle yararlıdır, sadece makaleyi yazmak için gene de hepsini okumanız gerekir. ChatGPT benim için bir yazı yazabilir mi? Ondan Salman Rüşdi’nin çalışmasında sömürgecilik hakkında yazmasını istedim ve kötü sayılmaz kısa bir tecrübe etme aldım. Buna “tembel” istem söylediğim şey: Öğrenmek için suni zekayı kullanmak yerine işten çıkmakla ilgilenen bir öğrenciden beklediğim şey. Alıntılar vardı ve bunlar gerçekti; ChatGPT, belirtilen yayınlara bağlantı vermedi, sadece Google bu tarz şeyleri bulmayı kolaylaştırdı. Ortaya çıkan yazı, özetin ötesinde makalelere herhangi bir aşinalık göstermedi – yeterince adil, şundan dolayı kaynakların bir çok için özet, halka açık olan tek şeydi. Daha da önemlisi, yazı Rushdie’nin kurgusuyla hakikaten herhangi bir bağlantı kurmuyordu. Bunun benzer biçimde pek oldukca cümle vardı: “Hamish Dalley, Rushdie’nin birçok eserinin ilişkin olduğu bir tür olan postkolonyal yazıda tarihsel romanın rolünü tartışıyor.” Doğru, fakat bu ne Rushdie’nin ne de Dalley’nin işi hakkında pek bir şey söylemiyor. Söylediğim benzer biçimde, kompozisyon kötü değildi fakat not vermek zorunda kalsaydım, ödevi teslim eden talebe mutlu olmazdı. Gene de, ChatGPT ve ScholarAI, muhteşem bir yazının temeli olabilecek muntazam bir literatür araştırması yaptıkları için saygınlık kazanıyor. Ve eğer bir talebe bu ilk istemi alırsa, Rushdie’nin romanlarıyla beraber bilimsel niteliği olan yazıları okursa ve bunu, ChatGPT’ye tam olarak hangi noktaları ilgili alıntılarla beraber söylemek istediğini özetleyen daha detaylı bir istem yazmak için kullanırsa, netice muhteşem olabilirdi. Bir tecrübe etme, N*1000 kelime sağlama alıştırması değildir; mevzuyla ilgilenmeyi içeren bir fikir sürecinin sonucudur. ChatGPT ve ScholarAI bu etkileşimi kolaylaştırırsa buna itiraz etmem. Sadece şunu açıklığa kavuşturalım: Kelimeleri kim üretirse üretsin, ChatGPT kullanıcıları gene de okuma ve düşünme işini yapmak zorundadır.
Wolfram eklentisinde olduğu benzer biçimde, ChatGPT’nin ne vakit ScholarAI kullandığını ve ne vakit kullanmadığını idrak etmek yararlı olacaktır. ChatGPT’den bana ilişkin yazıları bulmasını istedim; eklentiyi kullanırken, özür dileyerek bana yazarlarının ilk adı Michael olan yazıların bir listesini vermesine karşın hiçbir şey bulamadı. Michael tarafınca yazılan yazıların üzücü listesine karşın, bu yanıtı “doğru” olarak kabul edeceğim. Herhangi bir bilimsel niteliği olan yazı yayınlamadım, sadece O’Reilly Radar hakkında herhangi bir web aramasının suni zekaya gerek kalmadan yada halüsinasyon riski olmadan bulabileceği oldukca sayıda materyal yayınladım.
Birazcık daha derine inerseniz, sonuçlar şaşırtıcıdır. ChatGPT’yi eklentiler etkinken kullanırsanız ve eklentiyi kullanmamasını söyleyen bir istem yazarsanız, boş gelir, sadece Google Bilimsel nitelikli benzer biçimde çevrimiçi veritabanlarını araştırmanızı önerir. Yeni bir konuşma başlatırsanız ve Negatif eklentileri etkinleştirin (eklentiler yalnızca görüşmenin başlangıcında etkinleştirilebilir yada dönem dışı bırakılabilir), gene de hiçbir şey elde edemezsiniz sadece ChatGPT size Michael Loukides’in O’Reilly için sık sık yazan ve denetlemek için tanınmış bir yazar bulunduğunu söyler. makaleler için O’Reilly internet sayfası. (Bu değişik yanıtların eklentinin durumuyla mı, yoksa ChatGPT’nin çıktısını rastgele belirleme biçimiyle mi ilgili olduğu açık değil.) Dalkavukluk sizi bir yere götürür herhalde, fakat oldukca uzağa değil. O’Reilly ile gösterim geçmişim 1990’lara kadar uzanıyor ve tamamen halka açık; ChatGPT’nin niçin bundan habersiz olduğu açık değil. Bing aramaları etkinken yeni bir görüşme başlatmak, yazdığım makalelere yönelik geçerli bağlantıların bir listesini bana sağlamış oldu; sadece üç kez tecrübe etmek zorunda kalmamalıydım, süreç direkt Bing (yada Google) ile arama yapmaktan oldukca daha yavaştı. ve niçin bazı yazıların dahil edilip bazılarının edilmediği açık değildi. Ve hakikaten birden oldukca kez denemeniz gerekiyor: Aynı görüşmede hem Bing aramalarını hem de eklentileri kullanamazsınız.
Wolfram eklentisinde olduğu benzer biçimde, ScholarAI büyük bir gelişmedir – sadece gene de niteliksiz değildir. Gene de aradığınız içeriğin bilimsel niteliği olan bir dergide mi, internette mi yoksa başka bir yerde mi bulunduğunu bilmeniz gerekiyor. ChatGPT size ne vakit bir eklenti kullandığını ve hangi eklentiyi kullandığını söylese de, ne yapacağını devamlı evvelde tahmin edemezsiniz ve bir eklenti kullanmadığında ChatGPT bizim yaptığımız aynı hatalara karşı savunmasızdır. Beklemeye geldim. Hala denemeniz ve neticeleri denetim etmeniz gerekiyor.
Başka bir kontrol olarak, yapabileceğim bazı geziler için uçuşları denetlemek için Kayak eklentisini kullandım. Eklenti, New Haven (HVN) benzer biçimde oldukca ufak havaalanlarında isabetli yada ıskalı benzer biçimde görünse de, büyük havalimanlarında (daha ufak olanlar dahil) iyi bir iş çıkarıyor. Bu, eklentinin kendisi yada ChatGPT yerine Kayak’ın bir sınırlamasıdır. Şu anda her görüşmenin başlangıcında kullanacağınız eklentileri etkinleştirmeniz gerekiyor ve ChatGPT rakip eklentileri etkinleştirmenize izin vermiyor. Hem Kayak hem de Expedia yükleyebilirsiniz, sadece herhangi bir sohbette yalnızca birini kullanabilirsiniz. Eklentiler olgunlaştıkça bu davranış değişirse şaşırmam.
Son olarak: yüklediğim tüm eklentiler ücretsizdi. Sadece buna boşuna “eklenti deposu” dendiğini düşünmüyorum. Eklenti ücretlerini görmek beni şaşırtmaz ve bazı eklentiler sonunda ücretli bir hesaba abonelik gerektirse şaşırırdım. Bazı eklentiler abonelik tabanlı hizmetlere erişir; Beta döneminden çıktığımızda aboneliklerin lüzumlu olacağını umuyorum.
Eklentilerin nihayet geldiği için heyecanlıyım. Eklentiler hala beta aşamasındadır, bundan dolayı davranışlarının neredeyse kati olarak değişeceği; Tanım ettiğim davranışlar siz bunu okuduğunuzda değişmiş olabilir. Ben bu yazıyı yazarken birkaç tanesi değişti. Eklentiler, halüsinasyonlar ve öteki hata türleri mevzusunda dikkatli olma ihtiyacını kesinlikle ortadan kaldırmaz.Sdüşünme ihtiyacının yerini de almazlar. Sadece, ChatGPT’nin artık mevcut verilere ulaşıp erişebilmesinin ne kadar mühim bulunduğunu idrak etmek zor. ChatGPT, Kasım 2021’den ilkin verilerle sınırlıyken ilgi çekici bir oyuncaktı. Giderek daha oldukca bir vasıta benzer biçimde görünüyor.
Source: www.oreilly.com