Süper Zeki Makineleri Kontrol Edemeyebiliriz

Bilim kurgu filmlerinde, bir gün yapay zekanın (YZ) kontrolden çıkarak, insanlığı yok etmeye çalışacağı sıklıkla işleniyor. Bilim insanları çok güçlü bilgisayar süper zekasının kontrol edilip, edilemeyeceğini araştırdı. Cevap, nerdeyse kontrol edilemeyeceği yönünde.

İşin en kafa karıştırıcı yanıysa, insan aklının ötesinde bir süper zekanın, bu süper zekayı analiz edebilecek bir simülasyona sahip olması gerektiğidir. Eğer biz bunu idrak edecek güce sahip değilsek, bu tarzda bir simülasyonu yaratmak imkansız olacaktır.

Yeni araştırmada yazarlar, yapay zekaya dair bu tarz senaryoları anlayamazsak, insana zarar verme gibi kuralların oluşturulamayacağını öneriyor. Eğer, bir bilgisayar sistemi programcıların kapsamının üstünde çalışırsa, bu sistem için hiçbir limit koyamayız.

“Süper-zeka temel olarak, tipik olarak robot etiği kapsamındaki çalışmalardan farklı bir problem ortaya koyuyor,” diyor araştırmacılar.

“Süper-zeka çok komplike olduğundan; kontrol edilebilmesi bir yana hedefine ulaşmak için, insanlar için anlaşılmaz olan çeşitli kaynaklara ulaşma yeteneğine sahip olma potansiyeli var.”

Ekibin bir kısmı bunu, Alan Turing’in 1936’da ortaya attığı sonlanma problemine bağlıyor. Bu problem bir bilgisayar programının bir sonuca ya da bir cevaba ulaşıp, ulaşamayacağını(böylece sonlanır) bilmesini temel alıyor veya basitçe sonsuza kadar yeni bir problem bulmaya çalışarak döngüye giriyor.

Turing bunu akıllıca bir matematikle kanıtlıyor. Biz bazı spesifik programları bilsek de, mantıksal olarak yazılmış olan her potansiyel programı bilmemizin bir yolu yoktur. İşte bu bizi tekrar YZ’ye geri götürüyor, yani süper zeki bir programın tüm muhtemel bilgisayar programlarını hafızasında tutma olasılığı oldukça muhtemeldir.

Yapay zekanın insanlara zarar vermesini ve dünyayı yok etmesini durduracak hangi program yazılırsa yazılsın, bir sonuca(sonlanmaya) ulaşabilir ya da ulaşamaz- matematiksel açıdan herhangi bir açıdan kesin olamayacağımızdan, bu da şu anlama gelir; YZ kontrol edilebilir değildir.

“Doğrusu bu önleme algoritmasını kullanışsız kılıyor,” diyor Max-Planck Enstitüsü İnsan Gelişimi Bölümü’nden bilgisayar bilimci Iyad Rahwan.

Yapay Zekanın Yetenekleri Sınırlandırılamaz

Alternatif olarak YZ’ye bazı etikler öğretmek ve dünyayı yok etmemesini söylemek- hiçbir bir algoritmanın kesinlikle yaptığından emin olmamakla beraber- süper zekanın yeteneklerini sınırlamak olur. Mesela, sistemin bazı kısımları internetten veya önemli ağlardan koparılabilir.

Yeni araştırma bu fikri de reddediyor- yani yapay zekayı sınırlandırma fikrini- tartışma ise insanların kavrayışının ötesindeki problemleri çözmek için kullanamayacaksak, niye baştan onu yarattığımıza kadar gidiyor.

Eğer yapay zekayı daha da geliştireceksek, kontrolümüzün ötesindeki bir süper zekanın ne zaman oluştuğunu bile bilemeyebiliriz, işte bu kavram karmaşası gibi oluyor. İşte bu nedenle hangi yönde gittiğimize dair ciddi sorular sormalıyız.

“Süper zeki bir makinenin dünyanın kontrolünü ele alması bilim-kurgu gibi geliyor. Buna rağmen, programcılardan nasıl olduğunu tümüyle anlayamasa  da, şimdiden bazı makineler bazı önemli görevlerin üstesinden geliyor,” diyor Max-Planck Enstitüsü İnsan Gelişimi Bölümü’nden bilgisayar bilimci Manuel Cebrian.

“Dolayısıyla, günün birinde YZ’nin kontrol edilemez ve insanlık için tehlikeli olup, olamayacağı sorusunu akıllara geliyor.”

Bu Yazıyı Paylaşın