15 Şubat 2019 Cuma

Etik Makinesi

Yapay Zeka (YZ) hayatımıza girmeye devam ettikçe, onunla yönlendirilen makinaların da uymaları gerekli etik kurallara ilişkin tartışmalar devam etmekte. Özellikle YZ tarafından yönetilen sürücüsüz araçların karmaşık durumlar altında verecekleri kararlar son yılların en önemli tartışma konuları arasında yeralıyor. Örneğin aracın durması mümkün olmadığı bir durum ortaya çıktığında, yoldan geçen bir bebeği mi yoksa bir yaşlıyı mı seçeceği gibi karmaşık karar alma mekanizmalarında olduğu gibi.

Bir makinenin, insana özgü her durumda aklımızın bizi davranmaya sevk ettiği gibi davranmasını sağlamaya yetecek kadar farklı donanıma sahip olması hemen hemen imkansızdır. Rene Descartes

Nature’ın 563 no'lu sayısında Edmond Awad ve arkadaşları tarafından yayınlanan bir araştırmada -The Moral Machine Experiment (*)-, sürücüsüz otomobillerin karar alma süreçlerine ışık tutmak için farklı kültür ve sosyo-ekonomik düzeydeki katılımcıların ikilemlerle karşılaştıklarında nasıl kararlar aldıkları irdelenmiş ve etik konulara bakışın farklı uluslar ve kültürlerde oldukça farklılaştığı görülmüş.

Çalışmanın temelini yine daha önceki bir yazımızda (Köprüden Kimi Atarsınız?) detaylı şekilde değinmeye çalıştığımız ünlü tramvay problemi oluşturuyor. Araştırmacılar, farklı uluslardan katılımcılara yönelttikleri sorularla frenleri boşalmış bir sürücüsüz aracın, en az zarar vermek için nasıl karar alması gerektiğini ortaya çıkarmaya çalışmışlar.

Klasik Tramvay Problemi

Tramvay problemi ilk defa 1970’lerde, frenleri boşalmış bir tramvayın işçilerin üzerine doğru yol aldığını gören bir makasçının nasıl karar alabileceğini sorgulamak üzere ortaya atılmıştı. Makasçının önündeki seçim, tramvayın normal rotası üzerindeki 5 işçiyi mi, yoksa makası değiştirirse ölecek tek işçiyi mi seçeceğiydi. Yukarıda bahsettiğimiz yazımızda seçimlerin, farklı kurban karakterlerine ve o noktada bulunuş nedenlerine göre nasıl değişebileceğini de tartışmıştık.

Hayatımızı kolaylaştırmak üzere üretilmiş makinelerin sağladıkları faydalar kadar kimi zaman önüne geçilemez zararlar vermeleri de söz konusu olabiliyor. Peki bu fayda-zarar ikileminde ortaya çıkacak etik kaygıları nasıl gidereceğiz? Fayda ve zararı hangi parametre ve kriterlere göre değerleyip belirleyeceğiz?

Adı geçen Nature makalesinde yazarlar, ikilemde kaldıkları durumlarda, makinelerin nasıl kararlar alması gerektiği üzerine 233 farklı ülke ve bölgede yaşayan beş yüzbine yakın kullanıcının katıldığı, internet üzerinden küresel bir anket çalışması yürütmüşler. Katılımcılar kendilerine yöneltilen senaryolardaki ikilemleri çözmek için kırk milyon kadar karar almışlar. Ortaya çıkan özet sonuç, sosyo-kültürel farkların karar alma mekanizmalarını da farklı yönlerde etkilediği şeklinde olmuş.

Çalışmada katılımcılardan 9 ana ikilem durumunda, kendilerini sürücüsüz otomobilin yerine koyarak kimi kurtaracaklarına ilişkin karar almaları istenmiş:

Müdahale mi eylemsizlik mi

⁃ insanları mı hayvanları mı

⁃ Yolcuları mı yayaları mı

⁃ Daha fazla insanı mı daha az insanı mı

⁃ Gençleri mi yaşlıları mı

⁃ Erkekleri mi kadınları mı

⁃ Kurallara uyanları mı, uymayanları mı

⁃ Görünüş itibari ile sağlıklı mı sağlıksız olanları mı

⁃ Sosyal statüsü üstte mi yoksa altta mı olanları mı

Yukarıdaki durumlara bunlardan bağımsız olmak üzere ilave olarak suçlu, hamile ve doktor gibi karakterler de alt kümeler halinde eklenerek, katılımcıların monoton bir karar alma mekanizmasının dışına çıkartılmaları hedeflenmiş. 13 kaza senaryosu yanında katılımcılar isteğe bağlı olarak demografik ve kültürel durumlarını (yaş, eğitim, cinsiyet, gelir düzeyi, politik ve dini görüşleri) da ankete eklemişler. Sonuçta 492.921 kişinin katılımıyla oluşturulmuş bir veri kümesi oluşturulmuş. İşin ilginç yanı bu 6 parametreden karar almada diğerlerinden ayrılan sadece ikisi olmuş; cinsiyet ve din.

Araştırmacılar, örneklem ne kadar büyük olsa da, sonuç itibari ile gönüllü katılımcılar ve internet kullanıcıları arasından seçim yapıldığından gerçek resimden sapma gösterilebileceğini kabul ediyorlar. Yine de otonom araçları ilk kullanacak olanların da bu gruptan olacağını hatırlatmakta fayda görüyor, araştırmayı yorumlayan MIT yorumcuları (**). Bu durumda bizim de sormamız gerekiyor “peki kurban edilecekler hangi örneklemdekiler?

Araştırmadan çıkan baz belirgin sonuçlara göz atacak olursak, katılımcılar bu tür ikilimlerde eylemsiz kalmaktansa harekete geçmeyi, yolcular yerine yayaları korumayı (aracın kendileri için bir koruma sağlayacığını düşündüklerinde olsa gerek), erkekler yerine kadınları, şişmanlar yerine sağlıklı görünümlüleri, kurallara uymayanlar yerine uyanları, yaşlılar yerine gençleri, daha çok sayıda olanları ve en fazla da hayvanlar yerine insanları kurtarmayı tercih etmişler. Aşağıdaki Grafik-1'de bu seçimlerle ilgili tüm örneklemi içeren farkları görebilirsiniz. Okların yönü tercihin yönünü uzunluğu ise gücünü gösteriyor.

[caption id="attachment_961" align="aligncenter" width="589"] 
Grafik-1 İkilemlerde tercih yönleri[/caption]

Alt kümelere göre bir seçim yapıldığında ise kurtarılmak istenen bireylerde sırasıyla bebekler, kız çocukları, erkek çocukları, hamileler, doktorlar, atletler, ve yöneticiler; şişmanlar, evsizler, yaşlılar, köpekler, suçlular ve kedilerin önüne geçiyorlar. Köpeklerin suçlulardan daha çok sevildikleri bir gerçek. Hal böyle iken, sürücüsüz araç üreticileri farklı kültürleri için farklı programlanmış araçlar mı üretecekler yoksa Dünya genel-geçer bir yöntem üzerinde uzlaşmaya varabilecek mi? Almanya gibi kimi ülkeler kendi "robotik" yasalarını üretmeye başladılar bile.

Peki sürücüsüz araç, potansiyel kurbanlarının "kim" olduğunu nereden bilecek? Benzer bir soruyu master ve doktora öğrencilerinden oluşan sınıfımda bir tarafa Isaac Newton'u diğer tarafa da 5 çiftçiyi yerleştirerek yöneltmiştim. Yedi vicdanlı öğrencimden sadece birisi Isaac Newton'u kurtarmayı tercih etmişti. Sorunun ana parametresi "makasçının" ortamdaki herkesi tanıdığıydı. Belki akrabalık ilişkisi olmadığını da belirtmek gerekirdi. Bence doğru cevap Newton olmalıydı zira, Newton'un kaybı tüm insanlığın kaybı olacaktı. Sorunun ikinci kısmı ise işi karıştırmak için hazırlanmış ve ardıl etkilerin göz önüne alınması istenmişti. Newton'un da bir çiftçi çocuğu olduğu belirtilerek kararların ardıl etkiler göz önüne alındığında ne olması gerektiği sorulmuştu. Ardıl etkileri göz önüne aldığınızda, ölecek çitçilerin ileride başka bir Newton'un babaları olabileceğine ilişkin ihtimali hesaplamak mümkün değildi. O zaman makasçının herhangi bir eylemde bulunmaması gerekirdi. İşte bu nedenle önceki yazımızda makasçının karar anı için dört önemli soru sormuştuk:

– Olacaklara müdahale etme hakkım var mı? Nereden alıyorum bu hakkı?

– Müdahil olmamak beni sorumlu kılar mı?

– Müdahil olmanın doğuracağı sonuçları hesaplama yeteneğim var mıdır?

– Benim yaptıklarımın sonuçlarından etkilenecek kişilerin gelecekleri ile ilgili ne kadar hesaplama yapabilirim?

Tekrar yarım milyon kişinin katıldığı araştırmaya dönersek, ana akımdan kültürel farklılaşmalar irdelendiğinde, doğu kültürlerinde -yaşlılara saygıdan olsa gerek- gençler yerine yaşlıları, Çin’de ise biraz bencilce bir tutumla yayalar yerine yolcuları kurtarma yönündeki kararlar ön plana çıkmış. İngiltere ve ABD’den -Batılı- katılımcılar mutlaka daha çok yaşamın kurtarılması gerekliliğine önem verirlerken ekonomik düzeyi düşük ve kurumsal yapıları zayıf ülkelerin katılımcıları kurallara uymayanların karşısında uyanları pek umursamaz gözükmüşler. Aşağıdaki grafikte ise Dünya’daki ülkelerin karar alma yönünden nasıl yakınsadıkları üç ana Batı-Doğu-Güney kültürel ekseninde gösterilmiş. Karar alma parametreleri açısından en benzeşen uluslar yan yana sıralanmışlar. Örneğin dini farklılaşmaya rağmen Hindistan ve Pakistan’da kararlar çok benzeşiyor. Zamanında Portekizden sürülen Yahudilerin kurduğu İsrail de aslında karar alma yönünden en çok Portekiz’e yakınsıyor. Türkiye açısından durum pek iç açıcı gözükmüyor. Türk insanı en çok Kolombiya, Arjantin, Venezuella, Bolivya, Peru gibi güney Amerika insanlarına benzer davranış sergiliyor.  Benzer şekilde, Batı'da yeralmasına rağmen Bulgaristan, Güney ülkeleriyle benzeşirken, Kırgızistan ve Özbekistan gibi Doğu ülkeleri ile Nijerya ve Kenya gibi Afrika ülkeleri insanları da daha çok Batılı karakter göstermekteler.

 
Grafik-2 Tercihlerin uluslara ve kültürlere göre yakınsaması (*)

Çalışmadan çıkarılacak ana sonucu yorumlarken Awad, sürücüsüz araçları geliştirenlere YZ etiği yönünde bir fikir vermesi için tramvay problemini kullandıklarını ama aslında bu tür araçların olası risk analizleri yapabilmeleri gerektiğini de vurgulamaktan geri kalmıyor. Daha önce değindiğimiz gibi, sürücüsüz bir aracın karar alması için gerekli pek çok parametreye gereksinim var. Örneğin, riske atacağı bireylerin sosyal, ekonomik ve demografik durumlarını nasıl bilecek? Bunları analiz edebilmesi için herkes üzerinde bir RFID chip mi taşıyacak? Soruyu bu şekilde sorduğunuz takdirde olumsuz yanıt alacağınız kesin. Ama günün birinde birisi size yaklaşıp “tüketim alışkanlıklarınızı ve şekillerinizi takip etmek istiyoruz” deseydi ona da izin vermezdiniz. Onun yerine bugün harcayın, para taşımayın önümüzdeki ay ödersiniz diyerek kredi kartlarını ellerimize tutuşturdular. Şimdi başlangıçta tahmin ettklerinin çok üstünde tüketim yöneylemi verisine sahipler. Belki bu tür chiplerin vücudumuza yerleştirilmesine birgün kendimiz de gönüllü olacağız. Önemli olan bize hangi algı yönetim araçları ile sunulacakları olabilir.

MIT Technology Review’da yakın zamanda çıkan bir haber (***) bu açıdan çok ilgi çekici. Soy ağaçlarını ortaya çıkaran Family Tree uygulaması, isteyenlere kan örnekleri karşılığında bir DNA testi uyguluyor ve bilmedikleri akrabalarını bulacaklarını vaadediyordu. Elindeki DNA verilerini FBI ile paylaştığı ortaya çıktı. Henüz izlemediyseniz konunun işlendiği Andrew Niccol'ün Gattaca filmini izlemenizi öneririm. Yani bir gün sürücüsüz araçların bir ikilemde kaldıklarında, kurban olarak kansere yakalanma olasılığı en yüksek bireyleri seçecekleri ya da astronot olma ihtimali yüksek olanları kurtaracakları günlere doğru yaklaşıyoruz. Tarih bir daha eski doğal mecrasında akmayacak gibi duruyor.

Ender Şenkaya

Şubat 2019

Kaynaklar:

(*) The Moral Machine experiment https://www.nature.com/articles/s41586-018-0637-6

(**) Should a self-driving car kill the baby or the grandma? Depends on where you’re from. (https://www.technologyreview.com/s/612341/a-global-ethics-study-aims-to-help-ai-solve-the-self-driving-trolley-problem/)

(***) A consumer DNA testing company has given the FBI access to its two million profiles (https://www.technologyreview.com/the-download/612875/a-consumer-dna-testing-company-has-given-the-fbi-access-to-its-two-million/)