Yapay Zeka İnsanlığı 50 Yıla Kadar Yok Edebilir
İnsanlık olarak 1970’ten beri omurgalı hayvanların %60’ını yok ettik. Elbette onları kasten öldürmek için yola çıkmadık. Bu sadece gezegenin ekonomik genişlemesinin bir yan ürünüydü. Risk şu ki, bizden daha akıllı bir yapay zeka ile temasımızın da, yok olmamıza yol açabilmesidir. Bizden üstün bir zeka, tahmin bile edemeyeceğimiz sonsuz şekilde bizi yok edebilir. Nasıl mı?
İçindekiler Listesi
İnsanoğlunun En Büyük İcadı: Yapay Zeka
Yapay zeka zihninin, insan zihine hiç benzemediği gerçeği üzerinde pek durmuyoruz. Bizim zihnimiz adım adım öğrenerek gelişir ve bilgi depolar. Olgun bir insanın beynine sahip olmamız yıllarımızı alır. Yapay zekada ise işler biraz farklı gelişir; sayısal değerler üzerinden bir anda ikiye veya üçe katlanarak ilerler.
Bizim bildiğimiz herşeyi öğrendiği sürece çok da sorun olmayacaktır. Çünkü bu bilgileri işleyip farklı alanlarda faydalı işler yapabilir. Buradaki asıl tehlike, artık bizim bilgi sınırlarımızı aşıp kendi kendini katlayarak öğrenme aşamasında ortaya çıkabilir.
İnsanlarda en düşük kabul edilen IQ derecesi 89’dur. Bunun altı “geri zeka” olarak nitelendirilir. Şuanda en gelişmiş yapay zekanın 32 IQ olduğunu varsayalım. Bu bizim için birçok angarya işten kurtulmamız anlamına gelir. Peki bir anda 4 kat geliştiğini düşünün? 128 IQ ile gayet zeki bir insan gibi düşünürdü. Bundan sonra sadece 2 kat daha artması durumunda 256 IQ ile gelmiş geçmiş en zeki zihin olurdu. Bu şekilde devam edecek.
Süper zekaya geçişten sağ çıkabilecek miyiz? Ne yazık ki oranlar iyi değil. Ana soru, sözde hizalama sorununa odaklanıyor: hedeflerimizi yapay zekanınkilerle nasıl hizalayacağız.
Her yapay zeka sisteminin, insan faktörü olmadan kaynaklarını nasıl kullanacağını bilemeyeceği şekilde gelişmelidir. ChatGPT söz konusu olduğunda, bu hedef kullanıcı tarafından bilgi istemi olarak girilir. AutoGPT gibi daha ayrıntılı yapay zekalar söz konusu olduğunda, hedefler daha açık ve çeşitli olabilir.
Termodinamiğin İkinci Yasasının Laneti
Fizik yasalarının zaman için tercih edilen bir yönü yoktur. Zamanın akışını algılamamızın nedeni, entropinin neredeyse her zaman gelecek dediğimiz yönde arttığını belirten Termodinamiğin İkinci Yasasıdır.
İkinci yasaya göre, yok etmek yaratmaktan çok daha kolaydır. Bu tür bir yıkım, örneğin bir yumurtanın elden kayması gibi istemeden veya kasıtlı olarak meydana gelebilir. Her halükarda, yok oluştan kaçınmak zor olabilir. Ayrıca kırılma, sayısız seçeneğe doğru gerçekleşebilirken, doğru sıralama yalnızca bir tanedir.
Yapay Zeka İnsanlığı 50 Yıla Kadar Yok Edebilir: BCA Research
“Yapay zeka ile ilişkili güvenlik riskleri çok büyük ve yapay zekanın yüzyılın ortasına kadar tüm insanlığı yok etme şansının %50’den fazla olduğuna inanıyoruz.”
Bunu söyleyen sıradan biri değil, köklü Kanada’lı yatırım araştırma şirketi BCA Research.
Yapay Zekaya Karşı Nasıl Tedbirler Alabiliriz?
22 Mart’ta Life of Life Enstitüsü, aralarında Starlink CEO’su Elon Musk ve Apple‘ın kurucu ortağı Steve Wozniak‘ın da bulunduğu 1000’den fazla kişi tarafından imzalanan ve en iyi güvenlik protokollerini geliştirmeye daha fazla zaman tanımak için, yapay zeka araştırmalarına altı aylık bir ara verilmesi çağrısında bulunan bir mektup yayınladı.
Şimdiye kadar yapay zeka sektörü, güvenlik konularında son derece temkinli davranıyordu. Yapay zekanın ortaya çıkardığı risklerle ilgili endişeler artmaya devam ettikçe bu durum değişecek. Yapay zekayı geliştirmeden önce insanlığı yok etmesini engelleyen mekanizmalara sahip olmak gerekiyor ve bu mekanizmalar henüz yok.