'Robot olmuşsun ama adam olamamışsın!'

Prof. Dr. İlhan İlkılıç / İstanbul Üniversitesi, İstanbul Tıp Fakültesi, Tıp Tarihi ve Etik Anabilim Dalı Öğretim Üyesi
05.03.2021

Yapay zeka sistemlerinin tıp alanında kararları belirlemesi ahlaki bir eylem olarak anlaşılabilir mi? Eğer yapay zeka sistemleriyle çalışan makineler teşhis ve tedavileri belirleyecekse bu eylemden ahlaki bir özne olarak sorumlu tutulabilirler mi? Robotların bir insanda olduğu gibi duyguları, vicdanı ve kendi varlığının şuuru olmayacaktır. Dolayısıyla duygularının sesini dinlemesi ve vicdanının ölçüsünü kararlara aktarması söz konusu değildir. Ahlaklı davranmak sadece karşıdaki kişi için faydalı olan davranışı seçmek değil, aynı zamanda gerektiğinde kendi aleyhine olabilecek davranışları da tercih etmeyi içine alır.



Hikâye malum: Oğlan babasının 'sen adam olamazsın' sözleriyle büyür. Kaymakam olduktan sonra 'adam'olduğunu göstermek için babasını makamına çağırtır. Baba da oğlunun bu davranışını ahlaka ve edebe aykırı bulduğundan dolayı 'oğlum kaymakam olmuşsun, lakin adam olamamışsın' der. Başlığı bu hikâyeden mülhem yazımızda yapay zeka sistemleriyle çalışan makinelerin tıp alanında kullanılmaları sırasında bir ADAM olarak, yani ahlaki bir özne olarak faaliyet gösterip gösteremeyeceğini ve bu makinelerle alınan kararların ahlakiliğini tartışacağız.

Büyük veri ve yapay zeka sistemleri günümüzde baş döndürücü bir şekilde gelişmekte ve bu gelişmeler tıp alanına farklı araştırmalar ve uygulamalarla aktarılmaktadır. Bu uygulamaların çoğu şimdilik hekime teşhis ve tedavi aşamalarında yardımcı olarak düşünülmekte olup, bir Robodok (Robot Doktor) tipiyle karşılaşmamız an itibarıyla yakın zamanda mümkün gözükmemektedir. Fakat birçok uzmanın 20-40 yıl gibi bir süre içerisinde insanın entelektüel kabiliyetlerine sahip robotların üretilebileceğini söylemektedir. Eğer bu tahminler doğru çıkarsa insanın sağlığı, hayatı ve ölümü üzerine karar verme durumunda olabilecek bu makinelerin, kararlarının ve davranışlarının ahlaki statüsü ve değeri ne olacaktır?

Teşhis, tedavi ve ahlak

Teşhis bir insana sadece hastalığı olduğu haberinin verilmesi olmayıp, aynı zamanda o insanın kendisini ve hayatını anlamlandırması açısından büyük bir öneme sahip olan bir bilginin iletilmesidir. Diğer taraftan tedavi kararında hastanın şifaya kavuşturulması amaçlanmasına rağmen bazı durumlarda hastaya zarar verilebilmekte veya muhtemel bir risk göze alınabilmektedir. Dolayısıyla hem teşhis, hem de tedavi süreçlerinin - burada detaylı bir şekilde ele alamayacağımız - birçok etik boyutu vardır.

Hekim tedavi ile ilgili kararlarında sadece bir ilacın tıbbi fayda ve zararları değil, aynı zamanda hastanın insan olmasından kaynaklanan birçok durumu da göz önünde bulundurmalıdır. Örneğin 90 yaşında kanser tedavisi son bulmuş, kendisi hakkında karar veremeyen demanslı bir hastanın hayatının sonundaki tedavilerine nasıl karar verilecektir? Burada hayatın kutsallığı ve yaşamın dokunulmazlığı, insanlık şerefi, hastanın özerkliği, (farz edilen) rızası, kaynakların adil dağıtımı ve yaşam kalitesi gibi birçok normatif kavram karar verme sürecinde göz önünde bulundurulmalıdır. Yine bu kararların, sosyal, psikolojik, dini ve hukuki boyutları bulunmaktadır. Pekâlâ böylesi karmaşık karar verme süreçlerine yapay zeka sistemleriyle çalışan makinelerin müdahil olmasının anlamı nedir ve bu müdahale etik açıdan nasıl değerlendirilmelidir? Yapay zeka sistemlerinin tıp alanında kararları belirlemesi ahlaki bir eylem olarak anlaşılabilir mi? Eğer yapay zeka sistemleriyle çalışan makineler teşhis ve tedavileri belirleyecekse bu eylemden ahlaki bir özne olarak sorumlu tutulabilirler mi?

Zayıf ve güçlü yapay zeka

Yukarıda zikredilen önemli soruları cevaplayabilmemiz için öncelikle bilim ve teknoloji dünyasındaki güçlü yapay zeka ve zayıf yapay zeka olarak adlandırılan iki farklı kavramın birbirinden ayırt etmemiz gerekir. Zayıf Yapay Zeka (İng. Weak Artificial Inteligence ya da Narrow Artificial Inteligence) dediğimizde halen birçok alanda kullanılmakta ve geliştirilmekte olan algoritmalar yardımıyla yapay zeka sistemlerinin belli bir problemin çözülmesinde kullanılmasını anlıyoruz. Örneğin yapay zeka sistemlerinin dijital hale getirilmiş röntgen, deri ya da doku resimlerinden bir hastalığı teşhis etmesi gibi. Bunlara günlük hayatta benzer mekanizmalarla çalışan belli adreslere ulaşmak için kullanılan navigasyon aletleri veya metinleri farklı dillere tercüme eden programlar da eklenebilir. Bu tür uygulamalar gözetimli, gözetimsiz öğrenmeler (supervised / unsupervised machine learning) veya bunların farklı alt türleri şeklinde öğrenmelerle geliştirilmektedir. Zayıf yapay zeka sınıfına giren tüm uygulamalar hekimin yerini almaktan ziyade ona teşhis ve tedavi süreçlerinde yardımcı olma amacını taşımaktadır. Bu alandaki uygulamalarda hekim bir orkestra şefi konumunda olduğundan dolayı bu teknik imkanların kullanılmasından ve bu uygulamaların sonuçlarından sorumludur. Her ne kadar bu alanda da birçok etik ve hukuki sorun olsa bile, burada yapay zeka sistemleri ahlaki özne olmaktan çok uzaktırlar.

Güçlü yapay zeka (Artificial Superinteligence ya da General Artificial Inteligence) olarak adlandırılan ikinci alan ise asıl konumuzu teşkil eden felsefi ve etik açıdan zor soruları içerisinde barındırmaktadır. Uzmanların görüşüne göre böylesi bir zeka ile donanmış bir makine insanın sahip olduğu entelektüel yetenek ve zekaya sahip olacaktır. Dolayısıyla hekimlik de dahil olmak üzere birçok alanda insanın yapabileceği meslekleri icra edebilecek donanımı elde edecektir. Böylesi robotları üretmenin mümkün olup olamayacağı uzmanlar arasında tartışılsa bile, çok sayıda uzmana göre tahminen 20-40 yıl içerisinde gerekli şartlar oluşacaktır. Bu bağlamda şimdiden sağlık sisteminde ve diğer alanlarda yapay zeka ile çalışan robotların kararlarının ve davranışlarının ahlakiliğini ve bunların ahlaki bir özne olup olamayacağını acilen tartışmamız gerekmektedir.

Robotların ahlakiliği

Ahlaki bir özne olmak için kendi varlığından haberdar olma, kendisinin uyacağı ahlaki kuralları koyabilme kabiliyetine sahip olma, özgür iradeye sahip olma gibi özellikler gerekir. Bir davranışın ahlakiliğinden bahsedeceksek, ahlaki özenin karar verme, davranışlar arasında tercih yapma ve tercih edilen davranışı gerçekleştirme konusunda özgür olması gerekir. Güçlü yapay zeka ile çalışacak makineler için bu özelliklerin var olabileceğini söyleyebilmek güçtür. Bu makinelerin kararları için gerekli öğrenme her ne kadar zayıf yapay zeka ile çalışan makineler kadar algoritmalara bağlı olmayacaksa bile, yine herhangi bir şekilde 'ilk algoritmalar' ve 'ilk bilgiler' ile ilişkisi vardır. Dolayısıyla bu bağ ve bağımlılık güçlülüğüne bakılmaksızın karar ve davranışlar için devamlı algoritmalar gerektiğinden ahlaki davranışlar için gerekli özgürlüklerin olmadığı söylenebilir. Yine robotların bir insanda olduğu gibi duyguları, vicdanı ve kendi varlığının şuuru olmayacaktır. Dolayısıyla duygularının sesini dinlemesi ve vicdanının ölçüsünü kararlara aktarması söz konusu değildir. Ayrıca ahlaklı davranmak sadece karşıdaki kişi için faydalı olan davranışı seçmek değil, aynı zamanda gerektiğinde kendi aleyhine olabilecek davranışları da tercih etmeyi içine alır. Doğru söylediği zaman kişinin aleyhine bir durum ortaya çıkacağını bilmesine rağmen yalanı tercih etmemek örneğinde olduğu gibi.

Yukarıdaki yaklaşımımız farklı argümanlarla eleştirilebilir. Aslında insanın tam anlamda özgür olmadığı ve bazen duygularına ve nefsine yenilerek ahlaken yanlış hareket ettiği söylenebilir. Makinalar bu zafiyetlerden yoksun hareket ederek daha ahlaklı davranacakları iddia edilebilir (kasıtlı zarar vermemek ya da rüşvet almamak gibi). Diğer taraftan sistemler geliştikçe ilk algoritma ve bilgilerin davranış ve kararları belirleyici etkisinin azalacağı ve hatta bu algoritmalara karşı yapay zeka sistemlerinin belki de kendileri algoritma yapabileceği söylenebilir. Bütün bunlar yabana atılır argümanlar olmamakla birlikte temel etik soru ve ontolojik sorunları çözmekten uzaktır ve robotların ahlaki özne olabileceğini ispatlama konusunda yetersizdir.

Güçlü yapay zeka sistemleriyle çalışan makinelerle ortaya çıkabilecek diğer bir problem ise bu robodokların hekimlik mesleğinin bir parçası olan etik ikilemleri nasıl çözeceği sorunudur. Eğer karar alma süreçlerinde etik ikilemler söz konusuysa, bu ikilemin içermiş olduğu normatif kavramlar teorik olarak belli bir algoritma içerisinde değerlendirilip yapay zeka sistemleriyle karar verilebilir. Fakat bu karar süreçlerinde normatif kavramlara yukarıda vermiş olduğumuz 90 yaşındaki hasta örneğinde hangi etik prensipler ve ahlaki değerler göz önüne alınacaktır? Yine çözüm sürecinde hangi etik teori kullanılacak ve bu teori seçimini kim yapacaktır? Bu sistemler Deontolojik Etik, Faydacı Etik, Fazilet Etiği veya İslam, Hıristiyan veya Yahudi ahlakına göre mi karar vereceklerdir?

10 tez ve tavsiye

Yapay zeka sistemleriyle çalışan makinelerin kullanımı sağlık ve diğer alanlarda giderek artacaktır ve artık bu kullanımı reddetme lüksümüz yoktur. Dolayısıyla yapılması gereken şey bu süreçte anlamlı, gerekli ve doğru hedeflerin ilgili etik ilkeleri ve ahlaki değerleri göz önünde bulundurarak belirlenmelidir. Bu bağlamda yapay zeka sistemlerinin tıp alanına uygulanması sürecinde aşağıdaki 10 tez ve tavsiyenin önemli olduğu kanaatindeyiz:

1. Yapay zeka sistemlerinin sağlık alanında kullanılmasının etik açıdan değerlendirmesini yapmak için öncelikle bu süreçteki anlamlı ve önemli olan normatif kavramlar tespit edilmeli ve bu kavramların anlamları müşahhaslaştırılmalıdır.

2. Bu alandaki uygulamaları değerlendirirken insan sağlığının korunması ve hastalıkların tedavi edilmesi temel kıstaslardan olmalıdır. Bu bağlamda konuya teknoloji hayranlığı ya da teknoloji düşmanlığıyla yaklaşmak yanlıştır.

3. Bu tür uygulamaların değerlendirilmesinde sadece hastalıktan korunma ve hastalığın şifaya kavuşturulması değil, aynı zamanda temel insan hakları, adalet, özerklik, mahremiyet, toplumun refahı ve maslahat gibi diğer normatif kavramlar da değerlendirmeye dahil edilmelidir.

4. Yapay zeka sistemlerinin tıp alanına uygulanması, ancak çok büyük maddi yatırım ve insan gücü kullanımıyla mümkün olacağından dolayı, buraya harcanan kaynaklar ile elde edilen fayda arasındaki bağ orantılılık ilkesine göre değerlendirilmelidir.

5. Sağlıkta teknolojik değerlendirme (İng. health technology assesment) yöntemleri kullanılarak yapay zeka sistemlerinin geleceğe yönelik neleri değiştirebileceği profesyonel bir şekilde tespit edilmelidir. Bu tespitlere istinaden bu değişiklikler arzu edilebilir, ekonomik açıdan gerçekçi, hukuken meşru, ahlaki argümanlarla savunulabilir ve etik açıdan gerekçelendirilebilir olmalıdır.

6. Tüm bu gelişme ve uygulamaların sosyo-kültürel yapımız, dini inancımız, düşünce geleneğimiz ve değerler sistemimiz bağlamında ne anlama geldiği sorgulanmalıdır. Muhtemel sonuçlar insan, hastalık, hasta olmak, şifa ve hekim gibi kavramlar açısından analiz edilmeli ve bu analiz sonuçları felsefi refleksiyona tabi tutulmalıdır.

7. Yapay zeka sistemlerinde kullanılan algoritmalar üretildiği kültürden bağımsız ve ahlaki değerler açısından steril değildir. Bu algoritmalarla birlikte direkt ya da dolaylı olarak normatif değerlendirmeler de sisteme dahil olmaktadır. Yani algoritma ithali, aslında aynı zamanda değer ithali anlamına gelmektedir. Dolayısıyla bu konudaki alınacak kararlarda ve belirlenecek siyasette bu hususlar ülkemiz açısından göz önünde bulundurulmalıdır.

8. Daha çok sosyal ve beşeri bilimlerin alanına giren böylesi araştırmalar, tartışmalar ve eleştiriler ardıl olarak değil, gelişmelerle eşzamanlı olarak yapılmalıdır. Halk tabiriyle 'tekerlek kırıldıktan sonra' yapılacak araştırmalar ve kurulacak kurullar sorunu temelinden çözmek yerine, sadece 'yara bandı' görevi ifa edeceğinden, doğru bir yaklaşım ve sürdürülebilir bir bilimsel politika değildir.

9. Bir ülkede tıpta yapay zeka uygulamaları o ülkede yaşayan tüm insanları etkileyeceğinden, konuyla ilgili bilgilendirmeler yapılmalıdır. Şeffaflık prensibi gereği bu bilgiler güvenilir kaynaklardan, vatandaşlara doğru, kolay ulaşılır ve anlaşılır bir şekilde sunulmalıdır. İnsanların anlamadığı, güvenmediği ve faydasına ikna olmadığı sistem ve uygulamalar başarısız olmaya mahkumdurlar.

10. Konuyla ilgili tartışmalar sadece uzmanlar arasında değil, aynı zamanda toplum içerisinde ve sivil toplum örgütleri arasında da olmalıdır. Herkesin kolayca müdahil olabileceği mütalaalar (diskurs) gerçekleştirilmeli ve bunlar için ortamlar oluşturulmalıdır. Bu diskurslar günübirlik, kısa vadeli siyasi çıkarları hedeflemeyen, polemikten uzak ve toplumun gerçek çıkarlarına yönelik bir şekilde şekillendirilmeli ve sürdürülmelidir.

ilhan.ilkilic@istanbul.edu.tr