MESUT ÇAKIR | Tüm yazılar etiketlendi 'chatbot'

Dev Yapay Zeka Deneylerini Duraklatın: Açık Bir Mektup

Yoshua Bengio, Stuart Russell, Elon Musk ve Steve Wozniak, araştırma ve üst düzey yapay zeka laboratuvarlarının onayladığı gibi, insan düzeyinde zekaya sahip yapay zeka (AI) sistemlerinin toplum ve insanlık için önemli riskler oluşturabileceğini belirten bir makale yayınladılar. Gelişmiş yapay zekanın Dünya üzerindeki yaşam tarihinde derin bir değişikliği temsil edebileceğini ve orantılı bakım ve kaynaklarla planlanması ve yönetilmesi gerektiğini savunuyorlar. Ancak, AI laboratuvarları arasında, yaratıcılarının bile anlayamayacağı veya kontrol edemeyeceği daha güçlü dijital zihinler geliştirmek için bir yarışın ortaya çıktığını belirtiyorlar. Çağdaş yapay zeka sistemleri artık genel görevlerde insanlarla rekabet edebilir ve makale, makinelerin bilgi kanallarımızı propaganda ve yanlış bilgilerle doldurmasına izin verip vermememiz, tüm işleri otomatikleştirmemiz ve daha iyi performans gösterebilecek insan olmayan zihinler geliştirmemiz gerekip gerekmediğini soruyor. , alt et ve bizi değiştir. Yazarlar, tüm yapay zeka laboratuvarlarını, GPT-4'ten daha güçlü yapay zeka sistemlerinin eğitimini en az altı ay süreyle duraklatmaya ve gelişmiş yapay zeka tasarımı ve geliştirmesi için harici uzmanlar tarafından bağımsız olarak incelenen ve izlenen bir dizi paylaşılan güvenlik protokolü geliştirmeye çağırıyor. Protokoller, ilişkili sistemlerin makul şüphelerin ötesinde güvenli olmasını sağlamalıdır. Bu duraklama, AI geliştirmede genel bir duraklama anlamına gelmez, ancak tehlikeli bir yarıştan, ortaya çıkan yeteneklere sahip daha büyük, öngörülemeyen kara kutu modellerine doğru bir adım geri adım anlamına gelir.

Mektup Türkçe Çevirisi ve kaynağını aşağıda paylaşıyorum.

Kapsamlı araştırmaların[1] gösterdiği ve üst düzey yapay zeka laboratuvarlarının[2] onayladığı gibi, insan-rekabet zekasına sahip yapay zeka sistemleri toplum ve insanlık için büyük riskler oluşturabilir. Geniş çapta onaylanan Asilomar Yapay Zeka İlkelerinde belirtildiği gibi, Gelişmiş Yapay Zeka, Dünya üzerindeki yaşam tarihinde derin bir değişikliği temsil edebilir ve orantılı özen ve kaynaklarla planlanmalı ve yönetilmelidir. Ne yazık ki, son aylarda AI laboratuvarlarının hiç kimsenin - yaratıcılarının bile - anlayamayacağı daha güçlü dijital zihinler geliştirmek ve dağıtmak için kontrolden çıkmış bir yarışa kilitlendiğini görmesine rağmen, bu düzeyde bir planlama ve yönetim gerçekleşmiyor. tahmin edin veya güvenilir bir şekilde kontrol edin.

Çağdaş yapay zeka sistemleri artık genel görevlerde insanlarla rekabet edebilir hale geliyor[3] ve kendimize şu soruyu sormalıyız: Makinelerin bilgi kanallarımızı propaganda ve gerçek dışı şeylerle doldurmasına izin vermeli miyiz? Tatmin edici olanlar da dahil olmak üzere tüm işleri otomatikleştirmeli miyiz? Sonunda sayıca üstün olabilecek, zekice üstün gelebilecek, modası geçmiş ve bizim yerimizi alabilecek insan olmayan zihinler geliştirmeli miyiz? Medeniyetimizin kontrolünü kaybetme riskine girmeli miyiz? Bu tür kararlar seçilmemiş teknoloji liderlerine devredilmemelidir. Güçlü yapay zeka sistemleri, yalnızca etkilerinin olumlu olacağından ve risklerinin yönetilebilir olacağından emin olduğumuzda geliştirilmelidir. Bu güven iyi bir şekilde gerekçelendirilmeli ve bir sistemin potansiyel etkilerinin büyüklüğü ile artmalıdır. OpenAI'nin yapay genel zeka ile ilgili son açıklaması, "Bir noktada, gelecekteki sistemleri eğitmeye başlamadan önce bağımsız inceleme almak önemli olabilir ve en gelişmiş çabalar için, yeni oluşturmak için kullanılan bilgi işlemin büyüme oranını sınırlamayı kabul etmek önemli olabilir. modeller." Katılıyoruz. O nokta şimdi.

Bu nedenle, tüm yapay zeka laboratuvarlarını GPT-4'ten daha güçlü yapay zeka sistemlerinin eğitimine en az 6 ay ara vermeye çağırıyoruz. Bu duraklama herkese açık ve doğrulanabilir olmalı ve tüm kilit aktörleri içermelidir. Böyle bir duraklama hızlı bir şekilde yasalaştırılamazsa, hükümetler devreye girmeli ve bir moratoryum başlatmalıdır.

Yapay zeka laboratuvarları ve bağımsız uzmanlar, bağımsız dış uzmanlar tarafından titizlikle denetlenen ve denetlenen gelişmiş yapay zeka tasarımı ve geliştirmeye yönelik bir dizi paylaşılan güvenlik protokolünü ortaklaşa geliştirmek ve uygulamak için bu duraklamayı kullanmalıdır. Bu protokoller, bunlara bağlı sistemlerin makul bir şüphenin ötesinde güvenli olmasını sağlamalıdır.[4] Bu, genel olarak AI geliştirmede bir duraklama anlamına gelmez, yalnızca tehlikeli yarıştan, ortaya çıkan yeteneklere sahip, her zamankinden daha büyük, öngörülemeyen kara kutu modellerine geri adım atmak anlamına gelir.

AI araştırma ve geliştirme, günümüzün güçlü, son teknoloji sistemlerini daha doğru, güvenli, yorumlanabilir, şeffaf, sağlam, uyumlu, güvenilir ve sadık hale getirmeye yeniden odaklanmalıdır.

Buna paralel olarak, AI geliştiricileri, sağlam AI yönetişim sistemlerinin gelişimini önemli ölçüde hızlandırmak için politika yapıcılarla birlikte çalışmalıdır. Bunlar en azından şunları içermelidir: yapay zekaya adanmış yeni ve yetenekli düzenleyici makamlar; son derece yetenekli AI sistemlerinin ve büyük hesaplama yeteneği havuzlarının gözetimi ve takibi; gerçek ile sentetik olanı ayırt etmeye ve model sızıntılarını izlemeye yardımcı olmak için kaynak ve filigran sistemleri; sağlam bir denetim ve belgelendirme ekosistemi; AI kaynaklı zarar sorumluluğu; teknik AI güvenlik araştırması için güçlü kamu finansmanı; ve AI'nın neden olacağı dramatik ekonomik ve politik kesintilerle (özellikle demokraside) başa çıkmak için iyi kaynaklara sahip kurumlar.

İnsanlık yapay zeka ile gelişen bir geleceğin tadını çıkarabilir. Güçlü yapay zeka sistemleri oluşturmayı başardıktan sonra, artık ödülleri topladığımız, bu sistemleri herkesin açık yararı için tasarladığımız ve topluma uyum sağlama şansı verdiğimiz bir "Yapay zeka yazının" tadını çıkarabiliriz. Toplum, toplum üzerinde potansiyel olarak yıkıcı etkileri olan diğer teknolojilere ara verdi.[5] Bunu burada yapabiliriz. Uzun bir AI yazının tadını çıkaralım, hazırlıksız bir şekilde sonbahara koşmayalım.

Kaynak: https://futureoflife.org/open-letter/pause-giant-ai-experiments/
Gizli Kaynak MBB