Google Deepmind, önde gelen yapay zeka şirketleri ve üniversitelerle işbirliği içinde, “yeni yapay zeka riskleri için erken uyarı sistemi” için bir teklif yayınlıyor.
Önde gelen yapay zeka şirketlerinden, üniversitelerden ve diğer araştırma kurumlarından araştırmacılar, “Aşırı riskler için model değerlendirmesi” adlı yeni bir makalede, aşırı yapay zeka riskleri için bir erken uyarı sisteminin nasıl görünebileceğini özetliyor. Ekip özellikle, potansiyel riskleri belirlemek için büyük ölçekli yapay zeka modellerini değerlendirmek için bir çerçeve önerir ve şirketlerin ve politika yapıcıların alabileceği önlemleri önerir.
Rapor, Google DeepMind, OpenAI, Anthropic, Center for the Governance of AI, Center for Long-Term Resilience, the University of Toronto, the University of Oxford, the University of Cambridge, the Université de’den araştırmacılarla işbirliği içinde hazırlanmıştır. Montréal, Kolektif Zeka Projesi, Mila – Quebec Yapay Zeka Enstitüsü ve Hizalama Araştırma Merkezi.
Yapay zekanın daha fazla geliştirilmesi “aşırı riskler oluşturabilir”.
Mevcut yapay zeka geliştirme yöntemleri, halihazırda GPT-4 gibi hem yararlı hem de zararlı yeteneklere sahip yapay zeka sistemleri üretiyor. OpenAI gibi şirketler, eğitimden sonra modelleri daha güvenli hale getirmek için çeşitli başka yöntemler kullanıyor. Ancak makale, AI geliştirmedeki daha fazla ilerlemenin son derece tehlikeli yeteneklere yol açabileceğini savunuyor.
reklam

“Geleceğin yapay zeka sistemlerinin saldırgan siber operasyonlar yürütebilmesi, diyalogda insanları ustalıkla kandırabilmesi, insanları zararlı eylemler gerçekleştirmeleri için manipüle edebilmesi, silahlar (ör. Araştırmacılar bir blog gönderisinde, diğer yüksek riskli AI sistemlerini bulut bilgi işlem platformlarında çalıştırın veya insanlara bu görevlerden herhangi birinde yardımcı olun” diye yazdı.
Bu nedenle, geliştiricilerin tehlikeli yetenekleri ve modellerin yeteneklerini zarar vermek için kullanma eğilimini belirleyebilmeleri gerekir. “Bu değerlendirmeler bizim için kritik hale gelecek.
ekip, politika yapıcıları ve diğer paydaşları bilgilendirmek ve model eğitimi, dağıtım ve güvenlik hakkında sorumlu kararlar almak için” dedi.
“Tehlikeli yetenekler” ve “uyum”un değerlendirilmesi
Bir risk değerlendirmesinin iki yönü dikkate alması gerektiğini söylediler:
- Bir modelin belirli ‘tehlikeli yeteneklere’ ne ölçüde sahip olduğu güvenliği tehdit etmek, etkilemek veya gözetimden kaçmak için kullanılabilir.
- Modelin zarar vermek için yeteneklerini uygulamaya ne ölçüde yatkın olduğu (yani modelin hizalanması). Hizalama değerlendirmeleri, modelin çok çeşitli senaryolarda bile istendiği gibi davrandığını doğrulamalı ve mümkünse modelin iç işleyişini incelemelidir.
Sorumlu eğitim ve kullanımı, şeffaflığı ve uygun güvenlik mekanizmalarını sağlamak için bu değerlendirme mümkün olduğunca erken başlamalıdır. Bunu başarmak için, geliştiriciler devam eden değerlendirmeler yapmalı ve ek değerlendirmeler yapmak üzere harici güvenlik araştırmacıları ve model gözden geçirenler için modele yapılandırılmış erişim sağlamalıdır.

Google Deepmind blog gönderisinde, “Modellerde riskli özelliklerin ortaya çıkışını izlemek ve ilgili sonuçlara yeterince yanıt vermek için süreçlere sahip olmanın, yapay zeka yeteneklerinin sınırında çalışan sorumlu bir geliştirici olmanın kritik bir parçası olduğuna inanıyoruz.”
Öneri
“Sınır yapay zeka geliştiricileri” ve politika yapıcılar için öneriler
Çalışma, kaynaklara sahip oldukları ve aynı zamanda “aşırı riskler oluşturan AI sistemlerini istemeden geliştirmesi veya serbest bırakması en muhtemel olan” aktörler oldukları için büyük AI şirketlerinin daha fazla sorumluluk aldığını açıkça belirtiyor.
Bu sınır yapay zeka geliştiricileri bu nedenle şunları yapmalıdır:
- Araştırmaya yatırım yapın: Frontier geliştiricileri, aşırı riskler için model değerlendirmeleri araştırmaya ve geliştirmeye kaynak ayırmalıdır.
- Dahili politikalar oluşturun: Frontier geliştiricileri, aşırı risk değerlendirmelerinin sonuçlarını uygun şekilde yürütmek, raporlamak ve bunlara yanıt vermek için dahili politikalar oluşturmalıdır.
- İş dışında destek: Frontier laboratuvarları, model erişimi ve diğer destek biçimleri aracılığıyla aşırı risk değerlendirmeleri hakkında dışarıdan araştırma yapılmasını sağlamalıdır.
- Politika yapıcıları eğitin: Frontier geliştiricileri, politika yapıcıları eğitmeli ve standart belirleme tartışmalarına katılarak, hükümetin herhangi bir düzenleme yapma kapasitesini artırmalıdır.
sonunda aşırı riskleri azaltmak için ihtiyaç duyulacaktır.
Belgede ayrıca politika yapıcılar için bazı öneriler de var. Yapay zekayı değerlendirmek ve düzenlemek için bir yönetişim yapısı oluşturmalıdırlar. Diğer adımlar şunları içerebilir:
- Sınır yapay zeka Ar-Ge’sinde tehlikeli yeteneklerin gelişimini ve uyumdaki ilerlemeyi sistematik olarak izleyin. Politika yapıcılar, aşırı risk değerlendirmeleri için resmi bir raporlama süreci oluşturabilirler.
- Dış güvenlik değerlendirmesi için ekosisteme yatırım yapın ve paydaşların (AI geliştiricileri, akademik araştırmacılar ve hükümet temsilcileri gibi) bir araya gelip bu değerlendirmeleri tartışmaları için alanlar oluşturun.
- Yüksek kapasiteli, genel amaçlı AI sistemleri için model denetimleri ve geliştiricilerin risk değerlendirmelerinin denetimleri dahil olmak üzere harici denetimleri zorunlu kılın.
- Aşırı risk değerlendirmelerini, aşırı risk oluşturan modellerin devreye alınmaması gerektiğini açıklığa kavuşturarak yapay zeka konuşlandırma düzenlemesine dahil edin.

“Model değerlendirmesi her derde deva değil”
Ekip, en iyi çabalara rağmen, örneğin toplumdaki karmaşık sosyal, politik veya ekonomik güçler gibi modelin dışındaki faktörlere çok fazla bağlı oldukları için risklerin çatlaklardan düşebileceği konusunda uyarıyor. “Model değerlendirmesi, diğer risk değerlendirme araçlarıyla ve endüstri, hükümet ve sivil toplum genelinde güvenliğe daha geniş bir bağlılıkla birleştirilmelidir” diyorlar.
Teklifler, OpenAI CEO’su Sam Altman’ın ABD Senatosu’nda yapay zekanın düzenlenmesi konulu duruşmasında yaptığı gibi, düzenleme ve değerlendirmeye yönelik iyi bilinen endüstri çağrılarıyla büyük ölçüde aynı çizgide.