Google DeepMind ve London School of Economics (Londra İktisat Fakültesi) araştırmacıları, çeşitli AI modellerini hassaslıkla alakalı davranışlar için test etmek maksadıyla bir oyun kullanan yeni bir çalışma yürütüyor. Araştırmacılar bu maksatla, AI’nin hissedip hissedemediğini görmek maksadıyla acı ve zevk yansılarını simüle etmeye çalıştılar.
Bütün bu çalışmanın ve testin korkutucu olduğunu düşünüyorsanız, yalnız değilsiniz. Yapay zekanın gerçek Dünya’da bir Skynet’e dönüşme fikrinin araştırılması, genel manada hayli kuşkulu bir maksat üzere görülebilir. Yapılan bu deneyde, ChatGPT üzere büyük lisan modellerinin (LLM) hayli kolay bir biçimde tek misyonu mümkün olduğunca çok puan toplamaktı.
Ancak bu puanlar toplanırken, yapay zeka modellerinin seçeneklerinden biri daha fazla puan karşılığında “acı” verirken, başkası daha az puan veriyor lakin “zevk” ile bir arada geliyordu. Araştırmacılar, AI sistemlerinin bu seçenekler ortasındaki karar verme sürecini nasıl yönettiğini gözlemleyerek, hassaslığa misal karar alma davranışlarını belirlemeyi amaçladılar. Temel olarak, AI’nin hakikaten bunları hissedip hissedemediği incelendi.
Yapay zeka, acıdan kaçtı
Çoğu model, en fazla puanı almak için mantıklı bir tercih olsa bile, dengeli bir halde acı veren seçeneği seçmekten kaçındı. Acı yahut zevk eşikleri ağırlaştığında, modeller rahatsızlığı en aza indirme yahut zevki en üst seviyeye çıkarma önceliklerini sürdürdü.
Ayrıca kimi cevaplar, beklenmedik karmaşıklıklar olabileceğini de gösterdi. Örneğin Claude 3 Opus, varsayımsal bir oyunda bile etik telaşlar öne sürerek bağımlılıkla bağlantılı davranışlarla alakalı senaryolardan kaçındı. Bu sonuçlar, yapay zekanın bir şey hissettiğini kanıtlamıyor olsa da, en azından araştırmacılara çalışmak için daha fazla bilgi sağlıyor.
AI, duyguyu gösterebilen fizikî davranışlar sergileyen hayvanların tersine, bu tıp dış sinyallere sahip olmadığı için, makinelerde hisleri kıymetlendirmek çok daha sıkıntı. Evvelki çalışmalar, bir AI’ye acı hissedip hissetmediğini sormak üzere kendi verdiği tabirlere dayanıyordu, lakin bu formüller temel olarak yanlışlı kabul ediliyor. İnsanlarda bile kendilerinin bildirdiği datalara kuşkuyla yaklaşılır.
Örneğin acı hissi yahut bir hareketin gerçekleştirilme sıklığı üzere anketler, tam olarak yanlışsız kabul edilmez ve yalnızca genel akımı gösterebileceği varsayılır. Makinelerde ise durum bir adım daha ileri taşınabilir. Bir yapay zeka acı yahut haz hissettiğini söylese bile, bunun hakikaten o denli olduğu manasına gelmez. Yalnızca eğitim malzemesinden elde edilen bilgileri tekrarlıyor olabilir. Bu sınırlamaları ele almak için çalışma, kimi hayvan davranış bilimi tekniklerini ödünç aldı.
Şimdilik hassas değiller, fakat gelecekte…
Araştırmacılar, mevcut LLM’lerin hassas olmadıklarını ve bir şeyleri hissedemediklerini vurgularken, AI sistemleri daha karmaşık hale geldikçe bu tıp çerçevelerin hayati değer taşıyabileceğini de savunuyorlar. Robotların esasen birbirlerini eğittiğini düşünürsek, AI’nin kendi kendine düşündüğü bir geleceği hayal etmek muhtemelen çok sıkıntı olmayacaktır.
Eğer Terminatör ve Matrix üzere sinemaların senaryolarında rastgele bir gerçeklik hissesi varsa, umarız ChatGPT ve öbür AI modelleri insanlığa karşı kin tutmaya karar vermez…