“Kontrolden çıkmış bir yarış”
Kâr hedefi gütmeyen Future of Life Enstitüsü tarafından yayınlanan ve Musk da iç olmak üzere 1000’den Çok şahıs tarafından imzalanan mektupta, bu Cin dizaynlar için ortak Emniyet protokolleri Müstakil uzmanlar tarafından geliştirilene, uygulanana ve denetlenene kadar gelişmiş Yapay zeka çalışmalarına Uzaklık Eda davetinde bulunuldu.
Mektupta, “Güçlü Yapay zeka sistemleri, sadece tesirlerinin Olumlu olacağından ve risklerinin yönetilebilir olacağından emin olduğumuzda geliştirilmelidir” vurgusu yapıldı. Yapay zeka laboratuvarlarının şu anda “hiç kimsenin – hatta yaratıcılarının bile – anlayamayacağı, kestirim edemeyeceği yahut emniyetli bir formda Denetim edemeyeceği” makine öğrenme sistemlerini geliştirmek ve dağıtmak için “kontrolden çıkmış bir yarışa” kilitlendiği belirtiliyor.
“En az 6 ay Ara verilmeli”
Mektupta ayrıyeten Google ve Microsoft üzere teknoloji şirketlerinin yeni eserleri devreye sokmak için Çabuk ettiği, Emniyet ve etik kavramlarını arka planda tuttuğu da aktarılıyor. Bu ortada Future of Life sözcüsü Reuters’e OpenAI CEO’su Sam Altman’ın mektubu imzalamadığını söyledi. Öte yandan OpenAI’ın Emniyet standartlarını karşıladıklarından emin olmak için gelecekteki Yapay zeka sistemlerinin “bağımsız olarak incelenmesi” gerektiğini belirtmişti. Özet olarak, Yapay zekanın ortaya koyacağı sonuçları anlayana kadar araştırmaların yavaşlaması gerektiği vurgulanıyor.
Yorum Yok