Gelişmiş AI sistemlerinin geliştirilmesinde bir duraklama bulunduğunu korumak için çaba sarfeden Açık Mektup etrafındaki tartışmayı görmezden gelmek zor. Tehlikeli mi? İnsanlığı yok edecekler mi? Birkaçımız haricinde hepimizi bunaltıcı, yoksullaştırılmış hayatlara mı mahkum edecekler? Bunlar hakkaten karşı karşıya olduğumuz tehlikelerse, AI geliştirmeyi altı ay süresince duraklatmak kesinlikle zayıf ve etkisiz bir önleyicidir.
AI’nın görevli kullanımını korumak için çaba sarfeden sesleri görmezden gelmek daha kolaydır. Suni zekayı görevli bir halde kullanmak, suni zekanın saydam, adil ve mümkün olduğunda açıklanabilir olmasını gerektirir. Suni zekayı kullanmak, adil olduklarından güvenilir olmak için suni zeka sistemlerinin çıktılarını denetlemek anlamına gelir; suni zeka modellerinin davranışlarını belgelemek ve veri setlerini eğitmek anlamına gelir, böylece kullanıcılar verilerin iyi mi toplandığını ve bu verilerde hangi önyargıların bulunduğunu bilir. Bu, konuşlandırıldıktan sonrasında sistemlerin izlenmesi, gerektiğinde güncellenmesi ve ayarlanması anlamına gelir bu sebeple herhangi bir model eninde sonunda “bayatlaşacak” ve fena performans göstermeye başlayacaktır. İnsan kabiliyetlerini değiştirmektense geliştiren ve özgürleştiren sistemler tasarlamak anlamına gelir. Bu, suni zeka sistemlerinin neticelerinden insanların görevli bulunduğunu idrak etmek anlamına gelir; “Bilgisayarın yapmış olduğu buydu” demekle razı gelmiyor.
Daha süratli öğrenin. Daha derin kaz. Daha uzağa bakın.
Bu boşluğa bakmanın en yaygın yolu, onu mevcut ve uzun vadeli problemler arasındaki fark çevresinde çerçevelemektir. Bu kesinlikle doğru; “duraklama” mektubu, Mars’ta koloniler kurmakla yada gezegeni bir ataç yığınına dönüştürmekle, emlakta tekrardan çizmek yada ceza davalarında kefaletle olduğundan fazlaca daha çok ilgilenen “Future of Life Enstitüsü”nden geliyor.
Sadece soruna bakmanın daha mühim bir yolu var ve bu, uzun vadeli sorunların çoğunu iyi mi çözeceğimizi esasen bildiğimizi fark etmektir. Bu çözümlerin tümü, kısa vadeli hakkaniyet ve hakkaniyet mevzularına dikkat etmeye odaklanır. İnsani değerleri içerecek şekilde tasarlanan AI sistemleri, insanları bir makine lehine tatminkar olmayan yaşamlara mahkum etmeyecektir. İnsan düşüncesini yada inisiyatifini marjinalize etmeyecekler. İnsani değerleri içeren AI sistemleri, dünyayı ataçlara dönüştürmeye karar vermeyecek; Açıkçası, bunun iyi bir düşünce bulunduğunu belirleyen herhangi bir “akıllı” sistem hayal edemiyorum. Biyolojik cenk için tabanca tasarlamayı reddedebilirler. Ve eğer insanları Mars’a götürebilirsek, Ursula Leguin’in pek fazlaca romanında anlatılanlar benzer biçimde varlıklı bir kleptokrasinin egemen olduğu koloniler değil, adil koloniler kurmamıza yardım edecekler.
Çözümün öteki bir parçası da hesap verebilirliği ve tazminatı ciddiye almaktır. Bir model hata yaptığında, bir tür insan sorumluluğu olmalıdır. Birisi yanlış yüz tanıma sebebiyle hapse atıldığında, hatanın tespit edilmesi, mağdurun özgür bırakılması, sabıka kaydının düzeltilmesi ve modelden görevli kişilere uygun cezaların uygulanması için süratli bir süreç olması gerekir. Bu cezalar, iş yapma maliyeti olarak yazılmayacak kadar büyük olmalıdır. Bunun yanlış bir kimlik icra eden bir insandan ne farkı var? Bir insan, kar amacı güden bir şirket tarafınca bir polis departmanına satılmaz. “Bilgisayar o şekilde dedi” kafi bir cevap değildir ve eğer bunun ekonomik olmadığı anlamına geldiğini kabul ediyorsanız, bazı türde uygulamalar geliştirilemez, o süre kim bilir bu uygulamalar geliştirilmemelidir. Polisin yüz idrak etme sistemlerini %90’ın üstünde yanlış pozitif oranlarıyla kullandığını bildiren makaleler beni dehşete düşürdü; ve bu raporlar beş senelik olmasına karşın, hızla gelişen teknolojinin gelişmesi ihtimali beni pek rahatlatmıyor. Şaşırtıcı hata oranları karşısında bile, bu sistemlerden görevli insanların kullanımlarını müdafa eğilimi beni daha da azca rahatlatıyor.
Önyargı, ön yargı ve nefret söyleminden kaçınmak, şu anda ele alınabilecek başka bir tehlikeli sonuç hedeftir. Sadece bu amaca, eğitim verilerini önyargıdan bir halde temizleyerek ulaşılamaz; netice hiçbir gerçeği yansıtmayan veriler üstünden kabul eden sistemler olacaktır. Hem gerçekliğimizin hem de tarihimizin kusurlu ve önyargılı bulunduğunu kabul etmeliyiz. Suni zekayı önyargıyı saptamak ve düzeltmek, taraflı veriler karşısında adil kararlar vermesi için eğitmek ve neticelerini denetlemek için kullanmak fazlaca daha kıymetli olacaktır. Bu şekilde bir sistemin, insanların neticelerini denetleyebilmesi ve değerlendirebilmesi için saydam olması gerekir. Eğitim verileri ve tasarımı hem iyi belgelenmiş hem de halka açık olmalıdır. Timnit Gebru, Margaret Mitchell ve ötekiler tarafınca hazırlanan Veri Kümeleri için Veri Sayfaları ve Model Raporlama için Model Kartları bir başlangıç noktasıdır, sadece yalnızca bir başlangıç noktasıdır. Bir modelin davranışını doğru bir halde belgelemek için fazlaca daha ileri gitmemiz gerekecek.
Önyargılı ve önyargılı veriler karşısında yansız sistemler inşa etmek, sadece yazılım geliştirme projelerinden fazlaca sık dışlanan hanımefendilerin ve her türden azınlığın katılımıyla mümkün olacaktır. Sadece yansız sistemler oluşturmak yalnızca bir başlangıçtır. İnsanların ek olarak, insan haklarına hücum etmek için tasarlanmış suni zeka sistemlerine karşı önlemler üstünde emek harcaması ve insan refahını desteklemek için yeni teknoloji ve altyapı türleri hayal etmesi gerekiyor. Bu projelerin her ikisi de, karşı önlemler ve yeni altyapılar, neredeyse kesinlikle yeni tür suni zeka sistemlerinin tasarlanmasını ve inşa edilmesini içerecektir.
Hangi taraf savunursa savunsun, bir düzenleme acelesinden şüpheleniyorum. Ilke olarak düzenlemeye karşı değilim. Fakat ne dilediğine fazlaca dikkat etmelisin. ABD’deki yasama organlarına baktığımda, düzenlemenin pozitif bir şeyle neticelenmesi olasılığının fazlaca düşük bulunduğunu görüyorum. En iyi ihtimalle anlam ifade etmeyen tribünlere girerdik. En kötüsü de fazlaca olası: Hanımefendilere, ırksal ve etnik azınlıklara ve LBGTQ insanlarına karşı performatif zulüm tatbik eden yasalar ve yönetmelikler çıkaracağız. Beyazları rahatsız etmiş olduğu için köleliği tartışmasına izin verilmemiş suni zeka sistemlerini görmek istiyor muyuz? Bu tür bir düzenleme esasen birçok okul bölgesini etkiliyor ve bunun suni zekayı etkilemeyeceğini düşünmek saflık olur.
Ek olarak “Duraklat” mektubunun arkasındaki sebeplerden de şüpheliyim. Bazı fena oyunculara, hanım düşmanlığı ve öteki nefret biçimleri için bir oyun alanı olan “uyanmayan” bir suni zeka inşa etmeleri için süre vermek mi? Bu, dikkati hakkaniyet ve hakkaniyet benzer biçimde temel konulardan başka yöne çeviren bir histeri yaratma girişimi mi? Danah Boyd’un öne sürdüğü benzer biçimde, teknoloji liderleri yarattıkları suni zeka derebeylerine doğal olarak olan yeni alt derslik haline gelmekten mi korkuyor?
Bir “AI Duraklatma”nın sonuçlarının hastalık olasılığından daha fena olacağından korkmama karşın, bu soruları yanıtlayamıyorum. Danah’ın yazdığı benzer biçimde, “Suni zekayı saplantı haline getirmek, sosyoteknik gerçekliğimizle boğuşmanın etkili bir yolundan fazlaca stratejik bir dikkat dağıtmadır.” Ya da Brian Behlendorf’un suni zeka liderlerinin bizi suni zekadan korkmamız mevzusunda uyarması hakkında yazdığı benzer biçimde1:
Cassandra olmak eğlencelidir ve tıklamalara yol açabilir…. Fakat hakkaten pişmanlık duyarlarsa? Yapabilecekleri öteki şeylerin yanı sıra, aşağıdakiler için bağış yapabilir, tanıtımına destek olabilir, gönüllü olabilir yada aşağıdakiler için kod yazabilirler:
Bir “Duraklatma”, fena oyuncuların arayı kapatmasına yada öne geçmesine destek olmaktan başka bir işe yaramaz. Belirsiz uzun vadeli bir gelecekte beraber yaşayabileceğimiz bir suni zeka oluşturmanın tek bir yolu var ve bu da adil ve tam da bugün olan bir suni zeka oluşturmak: gerçek sorunlarla ve gerçek olayların yol açmış olduğu zararlarla ilgilenen bir suni zeka. insanoğlu, hayal edilenler değil.
Dipnotlar
- hususi e-posta
Source: www.oreilly.com