30 Kasım 2022’de dünya, tıpkı 12 Ağustos 1908’de ilk Model T’nin Ford montaj hattından ayrılmış olduğu zamanki şeklinde değişti. Bu, OpenAI’nin ChatGPT’yi piyasaya sürdüğü, suni zekanın araştırma laboratuvarlarından masum bir dünyaya çıkmış olduğu gündü. ChatGPT, iki ay içinde yüz milyondan fazla kullanıcıya ulaştı; bu, tarihteki tüm teknolojilerden daha süratli benimsenme hızı.
El sıkma yakında başladı. En önemlisi, The Future of Life Institute, ileri düzey AI araştırmalarına derhal ara verilmesi çağrısında bulunan ve şu suali soran bir açık mektup yayınladı: “Makinelerin informasyon kanallarımızı propaganda ve gerçek dışı şeylerle doldurmasına izin vermeli miyiz? Tatminkar olanlar da dahil olmak suretiyle tüm işleri otomatikleştirmeli miyiz? Sonunda sayıca üstün olabilecek, zekice üstün gelebilecek, modası geçmiş ve bizim yerimizi alabilecek insan olmayan zihinler geliştirmeli miyiz? Medeniyetimizin kontrolünü yitirme riskine girmeli miyiz?”
Daha süratli öğrenin. Daha derin kaz. Daha uzağa bakın.
Cevap olarak, Suni Zekayı Geliştirme Derneği, suni zekanın halihazırda hayatımızda yapmış olduğu birçok pozitif farklılığa atıfta bulunan ve suni zeka güvenliğini iyileştirmeye ve etkilerini anlamaya yönelik mevcut çabalara dikkat çeken kendi mektubunu yayınladı. Hakikaten de, Suni Zeka yönetmeliği hakkında, daha geçen hafta gerçekleşen, Suni Zeka Üstüne Ortaklık şeklinde, Görevli Üretken Suni Zeka temalı yakın tarihindeki toplantı şeklinde, devam eden mühim toplantılar var. İngiltere, hafifçe, “yenilik yanlısı” bir dokunuşla da olsa suni zekayı düzenleme niyetini aslına bakarsan deklare etti. ABD’de Senato Azınlık Lideri Charles Schumer, suni zeka için “yeni bir düzenleyici rejimin ana hatlarını çizen bir çerçeve” getirme planlarını duyurdu. En fena durumda, tutarsız düzenlemelerden oluşan bir yama yığınına neden olan AB’nin de bunu izleyeceğinden güvenli olabilirsiniz.
Tüm bu çabalar, düzenlemelerin veri gizliliği ve mülkiyeti, önyargı ve hakkaniyet, şeffaflık, hesap verebilirlik ve standartlar şeklinde mevzuları ele alması gerektiği mevzusundaki genel düşünce birliğini yansıtıyor. OpenAI’nin kendi AI güvenlik ve mesuliyet yönergeleri aynı hedeflere atıfta bulunur, sadece ek olarak birçok kişinin merkezi, en genel sual olarak görmüş olduğu suali da ortaya koyar: AI tabanlı kararları insani değerlerle iyi mi uyumlu hale getiririz? Onlar yazar:
“AI sistemleri günlük yaşamın bir parçası haline geliyor. Anahtar, bu makinelerin insan niyetleri ve değerleri ile uyumlu olmasını sağlamaktır.”
Fakat kimin insani değerleri? Suni zeka eleştirmenlerinin çoğunun olmayı arzuladığı iyiliksever idealistler mi? Halka açık bir firmanın paydaş kıymetini müşterilerin, tedarikçilerin ve bir tüm olarak toplumun önüne koyma zorunluluğu var mı? Suçlular yada haydut devletler başkalarına zarar vermeye kesin mı? Aladdin şeklinde, her şeye gücü yeten bir suni zeka cinine fena düşünülmüş bir istek dile getiren iyi niyetli biri mi?
Hizalama problemini çözmenin kolay bir yolu yoktur. Sadece, izahat ve denetim için sağlam kurumlar olmadan uyum mümkün olmayacaktır. Cemiyet yanlısı sonuçlar istiyorsak, bu neticeleri açıkça hedefleyen ve bunlara ne seviyede ulaşıldığını ölçen metrikler tasarlamalı ve bunlar hakkında rapor vermeliyiz. Bu oldukca mühim bir ilk adım ve onu derhal atmalıyız. Bu sistemler hala büyük seviyede insan kontrolü altındadır. Şimdilik en azından kendilerine söyleneni yapıyorlar ve sonuçlar beklentileri karşılamadığında eğitimleri hızla gelişiyor. Bilmemiz ihtiyaç duyulan, onlara ne söylendiğidir.
Neler açıklanmalı? Bilim kurgu yazarı Charlie Stross’un unutulmaz bir halde “yavaş AI’lar” olarak adlandırdığı şirketlerin düzenlenmiş olduğu kurallarda hem firmalar hem de düzenleyiciler için mühim bir ders var. Şirketleri görevli tutmamızın bir yolu, finansal neticelerini Genel Kabul Görmüş Muhasebe İlkeleri yada Internasyonal Finansal Raporlama Standartları ile uyumlu olarak paylaşmalarını istemektir. Her firmanın mali durumunu değişik bir halde raporlama yöntemi olsaydı, bu tarz şeyleri düzenlemek olanaksız olurdu.
Bugün, AI ilkelerini gösteren düzinelerce kuruluşumuz var, sadece bunlar oldukca azca detaylı rehberlik sağlıyor. Hepsi “Kullanıcı gizliliğini koruyun” ve “Haksız önyargıdan kaçının” şeklinde şeyler söylüyor, sadece şirketlerin güvenlik kameralarından yüz görüntülerini hangi koşullar altında topladığını ve ten rengine bakılırsa doğrulukta bir eşitsizlik var ise ne yapacaklarını tam olarak söylemiyorlar. Bugün ifşaatlar gelişigüzel ve tutarsız oluyor; kimi zaman araştırma raporlarında, kimi zaman kazanç çağrılarında ve kimi zaman de muhbirlerden geliyor. Geçmişte yapılanlarla ya da gelecekte yapılabileceklerle bugün yapılanları karşılaştırmak neredeyse olanaksız. Firmalar, açıklamaları sınırlamak için kullanıcı gizliliği endişelerini, ticari sırları, sistemin karmaşıklığını ve öteki çeşitli sebepleri belirtiyor. Bunun yerine, güvenli ve görevli suni zeka taahhütleri hakkında yalnızca genel güvenceler sağlarlar. Bu kabul edilemez.
Bir an için, finansal raporlamaya rehberlik eden standartların, şirketlerin gerçek finansal durumlarını doğru bir halde yansıtmaları icap ettiğini söylediğini ve bu raporlamanın neleri kapsaması icap ettiğini ve “gerçek finansal durumun” ne anlama geldiğini detaylı bir şekilde belirtmediğini hayal edin. Bunun yerine, GAAP’yi oluşturan ve denetleyen Finansal Muhasebe Standartları Kurulu şeklinde bağımsız standart kuruluşları, bu şeyleri dayanılmaz ayrıntılarla belirtir. Menkul Kıymetler ve Borsa Komisyonu şeklinde düzenleyici kurumlar hemen sonra halka açık şirketlerin GAAP’a bakılırsa rapor vermesini koşul koşar ve denetim firmaları bu raporların doğruluğunu incelemek ve doğrulamak için tutulur.
AI güvenliği için de öyleki. İhtiyacımız olan şey, suni zeka ve daha genel olarak algoritmik sistemler için GAAP’ye eşdeğer bir şey. Genel Kabul Görmüş diyebilir miyiz? AI Prensipler? Standartları denetlemek için bağımsız bir standartlar kuruluşuna, bu tarz şeyleri uygulamak için SEC ve ESMA’ya eşdeğer düzenleyici kurumlara ve araştırma yapma ve şirketlerin ve ürünlerinin doğru açıklamalar yaptığından güvenli olma yetkisine haiz bir denetçiler ekosistemine ihtiyacımız var.
Sadece AI için GAAP oluşturacaksak, GAAP’ın evriminden öğrenilecek bir ders var. Bugün kanıksadığımız ve şirketleri görevli tutmak için kullandığımız muhasebe sistemleri başlangıçta ortaçağ tüccarları tarafınca kendi kullanımları için geliştirildi. Dışarıdan empoze edilmediler, sadece tüccarların kendi ticari girişimlerini takip etmelerine ve yönetmelerine izin verdiği için benimsendiler. Bugün işletmeler tarafınca aynı nedenle evrensel olarak kullanılmaktadırlar.
Öyleyse, suni zeka için düzenlemeler geliştirmeye adım atmak için, gelişmiş suni zeka sistemlerini geliştiren ve dağıtan firmalar tarafınca kullanılan yönetim ve denetim çerçevelerinden daha iyi bir yer var mı?
Üretken AI sistemlerinin ve Büyük Dil Modellerinin yaratıcıları, bu tarz şeyleri seyretmek, değişiklik yapmak ve optimize etmek için aslına bakarsan araçlara haizdir. Önyargı, nefret söylemi ve öteki fena davranış biçimlerinden kaçınmak için modelleri eğitmek için RLHF (“İnsan Geri Bildiriminden Güçlendirmeli Öğrenme”) şeklinde teknikler kullanılır. Firmalar, insanların bu sistemleri iyi mi kullandıklarına dair büyük oranda veri topluyor. Ek olarak stres testi yapıyorlar ve güvenlik açıklarını ortaya çıkarmak için “red team” yapıyorlar. Çıktıyı sonradan işliyorlar, güvenlik katmanları oluşturuyorlar ve sistemlerini “düşmanca izleyeceği yolu göstermeye” ve uyguladıkları kontrolleri bozmaya yönelik öteki girişimlere karşı sağlamlaştırmaya başladılar. Sadece bu stres testinin, son işlemenin ve sağlamlaştırmanın tam olarak iyi mi çalmış olduğu ya da çalışmadığı çoğunlukla düzenleyiciler tarafınca görülmez.
Düzenleyiciler, gelişmiş suni zeka sistemlerini geliştiren ve işletenler tarafınca hali hazırda kullanılan ölçüm ve denetim yöntemlerini resmileştirerek ve bunlarla ilgili detaylı izahat talep ederek başlamalıdır.
Gelişmiş suni zeka sistemlerini hakkaten yaratan ve yönetenlerden operasyonel ayrıntıların yokluğunda, düzenleyicilerin ve savunuculuk gruplarının Büyük Dil Modelleri şeklinde “halüsinasyon” görme ve bilgilerindeki boşlukları görünüşte makul sadece ergonomik olmayan fikirlerle doldurma riskiyle karşı karşıyayız.
Gelişmiş suni zeka oluşturan firmalar, düzenleyici kurumlara ve halka tertipli ve tutarlı bir halde rapor edilebilecek kapsamlı bir işletme ölçümleri seti ve yeni en iyi uygulamalar ortaya çıktıkça bu ölçümleri güncellemek için bir süreç formüle etmek için beraber çalışmalıdır.
İhtiyacımız olan şey, AI modellerinin yaratıcılarının tam, tertipli ve tutarlı bir halde metrikleri ifşa etmiş olduğu devam eden bir süreçtir. onlar kendileri hizmetlerini yönetmek ve iyileştirmek ve kötüye kullanımı yasaklamak için kullanın. Ondan sonra, en iyi uygulamalar geliştirildikçe, tıpkı muhasebe düzenlemelerinin şirketlerin mali durumlarını yönetmek, denetlemek ve iyileştirmek için halihazırda kullandıkları araçları resmileştirmesi şeklinde, düzenleyicilerin de bu tarz şeyleri resmileştirmesi ve mecburi tutması gerekir. Numaralarınızı ifşa etmek daima rahat değildir, sadece mecburi ifşaların, şirketlerin hakkaten en iyi uygulamaları takip ettiğinden güvenli olmak için kuvvetli bir vasıta olduğu kanıtlanmıştır.
Gelişmiş suni zeka geliştiren şirketlerin, suni zekayı denetim etme yöntemlerini ve başarıyı ölçmek için kullandıkları ölçütleri açıklamaları ve bu izahat için standartlar üstünde meslektaşlarıyla beraber emek harcamaları çıkarlarınadır. Şirketlerin gerekseme duyduğu tertipli finansal raporlama şeklinde, bu raporlama da tertipli ve tutarlı olmalıdır. Sadece, çoğu zaman yalnızca halka açık firmalar için mecburi kılınan finansal açıklamaların aksine, suni zeka izahat gereksinimlerinin oldukca daha minik firmalar de ilgilendiriyor olması muhtemeldir.
Açıklamalar, finansta lüzumlu olan üç aylık ve senelik raporlarla sınırı olan olmamalıdır. Mesela, AI güvenlik araştırmacısı Heather Frase, “siber güvenlik yada tüketici dolandırıcılığı raporlama sistemlerine benzer şekilde, büyük dil modellerinden meydana gelen vakaları raporlamak için bir genel muhasebe defterinin oluşturulması icap ettiğini” savundu. Anti-spam sistemlerinde olduğu şeklinde dinamik informasyon paylaşımı da olmalıdır.
En iyi uygulamaların karşılandığını ve karşılanmadığında ne yapılacağını doğrulamak için bir dış laboratuvar tarafınca kontrol edilmesini sağlamak da yararlı olabilir. Ürün testi için garip bir tarihsel paralellik, yangın güvenliği ve elektrikli cihazların kar amacı gütmeyen bir dış denetçi olan Underwriter’s Laboratory tarafınca sertifikalandırılmasında bulunabilir. UL sertifikası lüzumlu değildir, sadece tüketici itimatını arttırdığı için yaygın olarak benimsenmiştir.
Bu, bu sistemler için mevcut yönetim çerçevelerinin haricinde kalan son olarak suni zeka teknolojileri için düzenleyici zorunlulukların olmayabileceği anlamına gelmez. Bazı sistemler ve kullanım durumları ötekilerden daha risklidir. Ulusal güvenlik hususları buna iyi bir örnektir. Bilhassa bir dizüstü bilgisayarda çalıştırılabilen minik LLM’lerde, hala tam olarak anlaşılamayan teknolojilerin geri döndürülemez ve denetim edilemez bir halde çoğalma riski vardır. Bu, Jeff Bezos’un “tek yönlü kapı” olarak adlandırdığı, bir kez verildikten sonrasında geri alınması oldukca zorluk derecesi yüksek bir karardır. Tek yönlü kararlar oldukca daha derinlemesine düşünmeyi gerektirir ve mevcut sanayi uygulamalarının ilerisinde olan bir düzenleme gerektirebilir.
Ek olarak, Stanford İnsan Merkezli Suni Zeka Enstitüsü’nden Peter Norvig’in bu parçanın bir taslağını incelerken belirttiği şeklinde, “‘İnsan Merkezli Suni Zeka’nın üç küresi bulunduğunu düşünüyoruz: kullanıcı (ör. kefalet tavsiye sistemi, kullanıcı yargıçtır); paydaşlar (mesela, sanık ve ailesi, ek olarak geçmişte yada gelecekte kabahat işleme olasılığı olan mağdur ve ailesi); genel olarak cemiyet (mesela toplu hapsedilmelerden etkilenenler için).”
Princeton bilgisayar bilimi profesörü Arvind Narayanan, topluma verilen ve bireylere verilen ziyanı aşan bu sistemik zararların, tipik olarak firmalar içinde gerçekleştirilenlerden oldukca daha uzun vadeli bir görüş ve daha geniş ölçüm şemaları gerektirdiğini belirtti. Sadece AI Pause mektubunu kaleme alan Future of Life Institute şeklinde grupların tahminlerine karşın, bu zararları evvel anlamak çoğu zaman zor olsa gerek. 1908’de bir “montaj hattının durması”, 20. yüzyıl endüstriyel üretiminin dünyaya salmak suretiyle olduğu devasa toplumsal değişimleri evvel tahmin etmemize neden olur mıydı? Bu şekilde bir duraklama bizi daha iyi yada daha fena yapar mıydı?
AI’nın ilerlemesi ve tesiri hakkında köktencilik belirsizlik göz önüne alındığında, hayal edilen her belirli ziyanı önlemeye çalışmaktansa şeffaflığı mecburi kılmak ve hesap verebilirliği uygulamak için kurumlar oluşturmak bizlere daha iyi hizmet ediyor.
Bu sistemleri düzene sokmak için onlar çılgına dönene kadar beklememeliyiz. Sadece düzenleyiciler, basındaki AI alarmizmine aşırı tepki vermemelidir. Yönetmelikler ilk olarak mevcut seyretme ve en iyi uygulamaların açıklanmasına odaklanmalıdır. Bu şekilde firmalar, düzenleyiciler ve kamu yararının koruyucuları, bu sistemlerin iyi mi çalıştığını, en iyi iyi mi yönetilebileceğini ve sistemik risklerin gerçekte neler olabileceğini beraber öğrenebilirler.
Source: www.oreilly.com