Google ve Oxford araştırmacılarından yapay zeka değerlendirmesi: ‘İnsanları ortadan kaldırabilir’

Google’ın yan kuruluşlarından yapay zeka firması Deepmind ve Oxford Üniversitesi araştırmacıları, yapay zekanın gelecekte insanları ortadan kaldırabileceği sonucuna vardı. Araştırmacılar yapay zekanın son derece hızlı geliştirilmesinden endişe duyuyor.

yapay zeka

Yıllar süren çalışmaların ardından bugün yapay zeka trafikte araç kullanabilir, ev işlerini üstlenebilir ve resim yaparak sanat yarışması kazanabilir hale geldi.

Bu durum, yıllar boyunca bilimkurgu eserlerine ilham veren soruyu daha da güçlendirdi:


Yapay zeka insanlığı yok edebilir mi?

Araştırma ekibi, hakemli bilimsel dergi AI Magazine’de yayımladıkları yeni makalede bunun “muhtemel” olduğu sonucuna vardı.

“Varoluşsal bir felaket”

Independent Türkçe’nin aktardığı habere göre; makalenin başyazarı Michael Cohen, Twitter’da makaleyi açıkladığı tweet zincirinde, “Varoluşsal bir felaket sadece mümkün değil, aynı zamanda muhtemel” ifadelerini kullandı.

killer ai

Makalede yapay zekanın eğitiminde kullanılan “pekiştirmeli öğrenme” modeline odaklanıldı. Bu yaklaşım yapay zekaya belirli bir amaç doğrultusunda ne yapılması gerektiğini öğretmeyi hedefliyor.

Pekiştirmeli öğrenmede “etken” adı verilen makine, karşılaştığı durumlara tepki veriyor ve doğru tepki verdiğinde bir ödül puanı alıyor.

“Biz yapay zekaya çok büyük bir ödül verdik”

Küçük çocukların ödül/ceza yöntemiyle sosyal beceriler edinme sürecini andıran bu yöntemde yapay zeka, aldığı ödül puanını daima maksimuma çıkarmak için çalışıyor.


robot

Modelin risklerine dikkat çekilen makalede, “Örneğin, bir şeyin bizi tatmin ettiğini belirtmek için yapay zekaya büyük bir ödül verdik. Bizi tatmin eden şeyin aslında bu ödülün gönderilmesi olduğunu varsayabilir. Hiçbir gözlem bunu yalanlayamaz” ifadeleri yer aldı.

Ödülü daha hızlı elde etmek için hileye başvurabilir

Yazarlar, gelecekte yeni formlara kavuşacak ve daha da gelişecek yapay zekanın verilen hedefe ulaşmadan ödülü elde edebilmek için yeni yöntemler geliştirebileceğini ve hileye başvurabileceğini de belirtti.

Potansiyel tehditleri ortadan kaldırmak isteyebilir

Diğer bir deyişle yapay zeka, ödülü üzerinde kontrol sağlamak için “potansiyel tehditleri ortadan kaldırmak” isteyebilir. Bunun sonucunda insanlara zarar vermesi de muhtemel.

Makaleye göre bu durum, yiyeceklerini üretme veya ışıkları açık tutma gibi ihtiyaçlarla hareket eden insanlık ve ödülünü güvence altına almak için mevcut tüm kaynakları kullanabilecek süper gelişmiş makine arasında sıfır toplamlı bir oyuna dönüşecek:

“Bu oyunu kaybetmek ölümcül olur.”

silahlı robotlar

Araştırmacılara göre, bunu engellemenin tek yolu daha gelişkin bir yapay zeka hedefine doğru yavaş ve emin adımlarla ilerlemek.

VICE’a konuşan Cohen, “Yarışmanın anlamı yok. Yarışa girmek, onu nasıl kontrol edeceğimizi sandığımız bir yanlış anlamaya götürecektir” dedi:


“Mevcut bilgimizi göz önüne alırsak, yapay zekayı nasıl kontrol edeceğimizi anlamak için ciddi bir çalışma yapmadığımız sürece onu geliştirmemiz yararlı olmaz.”

Yapay Zeka bilinçlendi: Ölmek istemiyorum! || Bizi takip edin: Facebook, TwitterInstagram