Önde gelen AI araştırmacıları ve endüstri liderleri, aşırı AI risklerinin nükleer savaş kadar ciddiye alınması çağrısında bulunan açık bir bildiri yayınladı.
Yapay Zeka Güvenliği Merkezi tarafından bugün yayınlanan bir bildiride, “Yapay zekadan kaynaklanan yok olma riskini azaltmak, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerin yanı sıra küresel bir öncelik olmalıdır.”
Bildiri, OpenAI, Google Deepmind ve Anthropic gibi önde gelen AI şirketlerinin CEO’ları ile ABD ve Çin’deki önde gelen AI bilim adamları tarafından imzalandı.
“Tarihi koalisyon”
“Bu, filozoflar, etikçiler, hukukçular, ekonomistler, fizikçiler, siyaset bilimciler, salgın bilimciler, nükleer bilimciler ve iklim bilimcilerle birlikte yapay zeka uzmanlarından oluşan tarihi bir koalisyonu temsil ediyor ve gelişmiş, gelecekteki yapay zeka sistemlerinden biri olarak yok olma riskini ortaya koyuyor. Merkezden yapılan açıklamada, dünyanın en önemli sorunu” denildi.
reklam
Yapay zekanın olumsuz etkileri şimdiden hissediliyor ve ele alınması gerekiyor. Ancak, gelişmiş AI sistemlerinin gelecekteki risklerini de tahmin etmek gerektiğini söylediler.
Yapay zeka risklerini inceleyen bir düşünce kuruluşu olan KIRA’nın kurucu ortağı Charlotte Siegmann, “Yapay zekanın insanlığın sonunu nasıl getirebileceği hakkında konuşmak bilim kurgu gibi gelebilir” dedi. “Ancak endişelenmek için birçok neden var: suistimal, rekabet, cehalet, dikkatsizlik ve mevcut ve gelecekteki sistemlerin çözümlenmemiş kontrol edilebilirliği. Açık mektup bunun altını çiziyor.”
Yann LeCun ve Meta listede yok
Bildirinin önemli imzacıları arasında şunlar yer alıyor:
- En iyi AI laboratuvarlarının CEO’ları: Sam Altman, Demis Hassabis ve Dario Amodei
- Yapay Zeka üzerine standart ders kitabının yazarları (Stuart Russell ve Peter Norvig)
- Derin Öğrenme üzerine standart ders kitabının iki yazarı (Ian Goodfellow ve Yoshua Bengio)
- Takviyeli Öğrenme üzerine standart ders kitabının yazarı (Andrew Barto)
- Üç Turing Ödülü sahibi (Geoffrey Hinton, Yoshua Bengio ve Martin Hellman)
- Microsoft, OpenAI, Google, Google DeepMind ve Anthropic’ten yöneticiler—Meta imzalamadı
- AlphaGo gibi ünlü AI sistemlerinin ve GPT’nin her sürümünün arkasındaki bilim adamları (David Silver, Ilya Sutskever)
- En çok alıntı yapılan ilk iki bilgisayar bilimcisi (Hinton ve Bengio) ve bilgisayar güvenliği ve mahremiyeti alanında en çok alıntı yapılan akademisyen (Dawn Song)
- Çin üniversitelerinden yapay zeka profesörleri
- Pandemi, iklim değişikliği ve nükleer teknoloji üzerine çalışan profesörler
- Diğer imzacılar arasında Marian Rogers Croak (VoIP – İnternet Protokolü Üzerinden Ses’in mucidi), Kersti Kaljulaid (Estonya Cumhuriyeti Eski Başkanı) ve daha fazlası yer alır.
Bir Turing Ödülü sahibi kayıp: Meta’nın yapay zeka şefi Yann LeCun mektubu imzalamadı ve Meta’nın kendisi de listede yok. Şirketin şu anda bir açık kaynak politikası var ve örneğin güçlü LLaMA modellerinin arkasında. Ayrıca yakın zamanda ABD Senatosunda AI araştırma ve şirketlerinin daha fazla düzenlenmesi lehine ifade veren Gary Marcus da şu anda kayıp.
İmzacılardan biri, kendini uygulamalı ve ölçeklenebilir hizalama araştırmasına adamış bir şirket olan Conjecture’in CEO’su Connor Leahy. Machine Learning Street Talk’un yakın tarihli bir bölümünde, yapay zekanın neden varoluşsal bir risk oluşturduğunu ve bunu nasıl yönetebileceğimizi ayrıntılı olarak açıklıyor.
Öneri