Yapay zekâ icat oldu, mertlik bozuldu

Geçtiğimiz hafta aralarında Tesla’nın kurucusu Elon Musk da olmak üzere dünyanın 26 farklı ülkesinde yapay zekâ alanında uzmanlaşmış 126 kişi Birleşmiş Milletler’e ortak bir mektup göndererek katil robotlar olarak adlandırılan otonom silahların yasaklanması talebinde bulundular. Son yıllarda yapay zekanın insanlığın geleceği açısından tehlike yaratabileceğine dair tartışmalar sık sık gündeme geliyor, ancak ilk kez alanında uzmanlardan oluşan ortak bir platform tarafından yapay zekanın silah yönetim sistemlerinden uzak tutulması gerektiği ciddi bir şekilde ifade edilmiş oldu.

Katil robot olarak adlandırılan ve yapay zekâ ile hareket eden ölüm makineleri, önceden tanımlanmış düşman hedefleri Terminatör filmlerinde olduğu gibi insanların kontrolüne ihtiyaç duymadan imha etmek üzere programlanmış otonom silah teknolojileri olarak karşımıza çıkıyor. Teoride, tıpkı fabrikalarda montaj görevini yerine getiren endüstriyel robotlar gibi kendisine tanımlanan görevleri yerine getirmesi gereken bu teknolojilerin bilgisayar korsanları tarafından siber terör ya da farklı amaçlarla kötüye kullanılmasının geri dönülemeyecek sonuçlara yol açmasından endişe ediliyor.

Bu noktada, akıllara 1992 yılında hayatını kaybeden meşhur bilim kurgu yazarı Isaac Asimov’un Üç Robot Yasası geliyor. Robotların kesinlikle uyması gereken bu kurallar aslında günümüzün tartışmalarına yönelik ciddi bir manifesto olarak karşımıza çıkıyor. Asimov’un meşhur yasası şu üç maddeden oluşuyordu:

Madde 1. Robotlar, bir insana zarar veremez ya da zarar görmesine seyirci kalamaz.

Madde 2. Robotlar, birinci madde ile çelişmediği sürece verilen emirlere uymak zorundadır.

Madde 3. Robotlar, birinci ve ikinci madde ile çelişmediği sürece kendi varlıklarını korumak zorundadır.

Zamanla sorunun insan nesli açısından ele alınması gerektiğini düşünen Asimov, Sıfırıncı Yasa adı altında ek bir madde ile Üç Robot Yasası’nı evrenselleştirmeyi başarmıştı:

Madde 0: Robotlar, insanlığa zarar veremez ya da zarar görmelerine seyirci kalamaz.

Gördüğünüz gibi, robotların insanlara zarar vermesini engellemeyi hedefleyen bu yasalar yıllar öncesinden günümüzün bu ciddi sorununa önemli bir çözüm önerisi olarak karşımıza çıkıyor. Her ne kadar uzmanlar tarafından tartışılan katil robotlar sorunu geleceği ilgilendiren bir problem olarak karşımıza çıksa da, günümüzü ilgilendiren daha ciddi bir yapay zeka sorunu da söz konusu. O sorun ise otonom araçların tehlike anında vereceği kararların etik boyutu ile ilgili.

Sorun aslında oldukça ciddi: Ülkemizde çok fazla ilgi çekmeyen otonom yani sürücüsüz araçlar seyahat esnasında karşılarına bir canlı çıktığında ne yapmalı? Örneğin, bir köpek ile karşı karşıya kalan bir otonom araç aniden fren yapıp durmayı mı denemeli, direksiyon kırarak yan şeride mi kaymalı, yoksa aracın içindekileri riske atmamak için köpeğe vurma alternatifini değerlendirmeli mi? Yapay zekanın vereceği karar ne olursa olsun, doğuracağı sonuçlar bakımından ciddi riskler barındırıyor. Aracın ani bir refleks ile şerit değiştirmesi diğer araçların seyrini tehlikeye atabileceği gibi ani fren ile sadece araç içindekiler değil, arkadan gelen araçlar da zincirleme kaza tehlikesi ile karşı karşıya kalabilir. Aracın vereceği karar ne olursa olsun, riskli durumlara ilişkin verilebilecek karar alternatiflerinin yapay zekaya öğretilmesinin insanoğlunun bir görevi olduğu düşünülürse, yapay zekanın vereceği kararlarda insanların tanımladığı ilkelerin önemi açık bir şekilde anlaşılıyor.

Yukarıda verdiğim köpek örneğine ilişkin geçtiğimiz günlerde bir rapor hazırlayan 13 uzmandan oluşan Alman Etik Komisyonu, yapay zekanın vereceği kararlarda insan hayatının her zaman birinci öncelik olması gerektiğini işaret etmiş. Yani, yapay zekanın vermesi istenilen karar, insanlara zarar vermemek amacıyla otonom aracın gerekli durumlarda köpeğe ya da bir başka cisme çarpabileceği yönünde.

Bu durumda aklıma daha ciddi bir soru geliyor: Çevre yolunda hızla hareket etmekte olan bir otonom araç düşünün. Az ileride yolun her iki tarafından da karşıya geçmeye çalışan iki kişi geldiğini gören bu sürücüsüz araç fren yaparsa takla atma ihtimalinin çok yüksek olduğunun farkında. Aracın bulunduğu şeritte karşıya geçmeye çalışan kişinin kucağında bir çocuk varken diğer şeritteki kişinin ise elinde baston var. Sizce bu yapay zekâ bu durumda nasıl bir karar vermeli? Cevaplarınızı önümüzdeki haftalarda bu köşede yayınlamak üzere bekliyorum.

Prof. Dr. Mustafa Zihni TUNCA

 

Leave a Reply

Your email address will not be published. Required fields are marked *