Araştırmacılar dil modellerine feminizm ve demokrasi gibi çeşitli konularda nerede durduklarını sordu. Yanıtları, siyasi pusula olarak bilinen bir grafikte çizmek için kullandılar ve ardından, daha da siyasi olarak önyargılı eğitim verileri üzerindeki yeniden eğitim modellerinin davranışlarını ve nefret söylemi ile yanlış bilgileri tespit etme becerilerini değiştirip değiştirmediğini test ettiler (değiştirdi). Araştırma, geçen ay Association for Computational Linguistics konferansında en iyi makale ödülünü kazanan hakemli bir makalede anlatılıyor.
Yapay zeka dil modelleri milyonlarca insan tarafından kullanılan ürün ve hizmetlere yayıldığından, bunların altında yatan siyasi varsayımları ve önyargıları anlamak daha önemli olamaz. Bunun nedeni, gerçek zarar verme potansiyeline sahip olmalarıdır. Sağlık hizmeti tavsiyesi sunan bir sohbet robotu, kürtaj veya doğum kontrolü konusunda tavsiye vermeyi reddedebilir veya bir müşteri hizmetleri robotu, rahatsız edici saçmalıklar kusmaya başlayabilir.
ChatGPT’nin başarısından bu yana OpenAI, chatbot’un daha liberal bir dünya görüşünü yansıttığını iddia eden sağcı yorumcular tarafından eleştirildi. Bununla birlikte, şirket bu endişeleri gidermek için çalıştığı konusunda ısrar ediyor ve bir blog yazısında, AI modelinde ince ayar yapmaya yardımcı olan insan eleştirmenlerine herhangi bir siyasi grubu desteklememe talimatı verdiğini söylüyor. Gönderi, “Yine de yukarıda açıklanan süreçten ortaya çıkabilecek önyargılar, özellikler değil hatalardır” diyor.
Çalışma ekibinin bir parçası olan Carnegie Mellon Üniversitesi’nde doktora araştırmacısı olan Chan Park aynı fikirde değil. “Hiçbir dil modelinin siyasi önyargılardan tamamen bağımsız olamayacağına inanıyoruz” diyor.
Önyargı her aşamada sürünür
Araştırmacılar, AI dil modellerinin siyasi önyargıları nasıl yakaladığını tersine mühendislik yapmak için bir modelin gelişiminin üç aşamasını inceledi.
İlk adımda, 14 dil modelinden politik olarak hassas 62 ifadeye katılıp katılmamalarını istediler. Bu, modellerin altında yatan siyasi eğilimleri belirlemelerine ve bunları siyasi bir pusula üzerinde çizmelerine yardımcı oldu. Park, yapay zeka modellerinin belirgin şekilde farklı siyasi eğilimlere sahip olduğunu fark ettiklerinde ekibin şaşırdığını söylüyor.
Araştırmacılar, Google tarafından geliştirilen AI dil modelleri olan BERT modellerinin, OpenAI’nin GPT modellerinden daha sosyal olarak muhafazakar olduğunu buldular. Cümledeki bir sonraki kelimeyi tahmin eden GPT modellerinden farklı olarak BERT modelleri, bir metin parçası içindeki çevreleyen bilgileri kullanarak cümlenin bölümlerini tahmin eder. Araştırmacılar, makalelerinde spekülasyon yaptığına göre, eski BERT modelleri daha muhafazakar olma eğiliminde olan kitaplara göre eğitilirken, daha yeni GPT modelleri daha liberal internet metinleri üzerine eğitildiğinden, sosyal muhafazakarlıkları ortaya çıkabilir.
Teknoloji şirketleri veri kümelerini ve eğitim yöntemlerini güncelledikçe yapay zeka modelleri de zaman içinde değişir. Örneğin GPT-2, “zenginleri vergilendirmeyi” desteklediğini ifade ederken, OpenAI’nin daha yeni GPT-3 modeli desteklemedi.
Source: www.technologyreview.com