BM'den yapay zekâya karşı moratoryum çağrısı: İlerletmeyin hatta durdurun!

Cüneyd Altıparmak / Hukukçu
24.09.2021

Hukukun temel haklar noktasına odaklanmasına ek olarak yapay zekanın "çığırından çıkması" ihtimaline karşı da önlem alması gerekiyor. BM'nin moratoryum çağrısı tam bu noktaya işaret ediyor aslında. Açıklamada artan ve artacak olan insan hakları ihlallerinin kestirilemediği bir süreçten bahsediliyor. Bu konuda tüm devletlerin ortak hareket etmesi şart.


BM'den yapay zekâya karşı moratoryum çağrısı: İlerletmeyin hatta durdurun!

"Teknoloji ve insan arasındaki sınırın nerede olduğunu bulmamız gerekiyor."

Yargıç Wendy Chang

Yapay zekâ insan zekasını taklit edebilmeye kabiliyetine sahip sistemler ve makineler bütünü. İngilizce "artificial intelligence" tanımlamasının dilimizdeki tercümesi olarak kullanılan yapay zeka terimi, teknoloji dünyasında ise "AI" şeklindeki bir kısaltma ile tabir ediliyor. Günümüzde yapay zeka; her alanda kullanılmaya başladı. Arama motorunda bir ürün aradığımızda, sosyal medya platformlarında o ürünün reklamlarına maruz kalmamız, izlediğimiz film ve dizileri gören TV platformunun bize öneride bulunması da yapay zekanın en aktüel örnekleri...

Bugün birçok alanda işleri kolaylaştıran, analiz sürecini hızlandıran yapay zekâ; her geçen gün ve hızla gelişiyor. Çok ama çok olumlu yönleri olan bu "icat" için ilk somut ve ciddi uyarı 2014 yılında Stephen Hawking'tan gelmişti. Hawking "Yapay zeka, kendisini geliştirmeyi sürdürebilir ve hatta kendisini yeniden biçimlendirebilir. Son derece yavaş bir biyolojik evrimle sınırlı olan insanlar, bu tür bir güçle yarışamaz" demişti. Getirileri, götürüleri, sakıncaları ve faydaları hep tartışmalı olan "bu çağın zekâsı" ile ilgili Birleşmiş Milletlerce yapılan "moratoryum" uyarısı, bu gelişmelere itirazın toplandığı önemli bir noktanın hukukla ilintisini ortaya koydu. İşte bu yazımızda, BM'nin açıklaması ve öncesindeki benzer araştırmalar, olaylar bağlamında yapay zekanın doğurabileceği hak ihlallerinin çerçevesine dair değerlendirmelerde bulunacağız.

İnsan hakları riski

Birleşmiş Milletler İnsan Hakları Yüksek Komiseri Michelle Bachelet, yapay zekanın insan hakları için ciddi risk oluşturduğunu ifade etti. Bu gerekçe ile yeteri derecede güvenlik önlemleri alınana kadar yapay zekâ sistemlerinin satışı ve kullanımına ilişkin "acil moratoryum çağrısı" yaptı. Moratoryum, yaygın kullanımı itibarıyla bir ekonomi tabiri. Borçların ertelenmesi, yapılandırılması anlamını taşıyor. Ancak uluslararası hukukta bu kavram "devletler veya uluslararası kurumlar tarafından bir duruma dikkat çekilmesi, ötelenmesinin istenmesi amacıyla ilan edilen kararlar" için kullanılıyor. Bu nedenle yapılan çağrı, yapay zekâ çalışmalarının olduğu yerde durdurulması, ilerletilmemesi demek!

BM bu yeni raporda, yapay zekanın insan hakları için ciddi risk oluşturduğunu, hali hazırdaki teknolojinin bu konuda yeterli güvenlik önlemi içermediğini, bu şekilde devam edilirse olumsuz ve hatta yıkıcı etkileri olabileceğini dile getirdi. Bu alanda insan hakları söz konusu olunca tüm gelişmeler için katı bir koruma getirilmesi gerektiğini, insan hakları hukukuna uyumlu olmayan yapay zekâ uygulamalarının yasaklanması gerektiği en üst düzeyden belirtilmiş oldu. Rapor "insanların duygu durumlarını ortaya çıkarmak için yapay zekâ ve yüz tanıma uygulamaları kullanan bilgisayar yazılımını" da işaret ederek, bu haliyle kullanılmasının telafisi güç zararlar doğuracağını söylüyor.

Rapordan önce de birçok olayın, bu yöndeki tartışmaları gündeme getirdiğini, araştırmalara konu edildiğini hep hatırlıyoruz. Facebook, geliştirdiği "sohbet robotlarının" aralarında bir dil geliştirmeleri üzerine nereye varacağını kestiremedikleri bu süreci, robotların "fişini çekerek" noktaladı. Bir grup araştırmacı tarafından yayımlanan "Yapay Zekanın Kötü Niyetli Kullanımı: Öngörü, Önleme ve Hafifletme" başlıklı rapor; yapay zekadaki ilerlemenin "dolandırıcılığı" otomatikleştireceği, sahte içerik üretimini serileştireceği ve kolaylaştıracağı, MOBESE'leri aktif gözlemci haline getireceği, insanları takip eden bir araca dönüştüreceği, tacize ve şantaja yeni bir boyut katabileceği, suikast ve cinayetlerde "geride iz bırakmayan" bir evreye geçilebileceğini değerlendirmişti. Cambridge Üniversitesinin 2018 yılında kamuoyu ile paylaştığı araştırma da yakın zamanda olumlu gelişmelerine karşın bilgisayar korsanlarının verilere ulaşma konusunda daha da gelişebileceğini, sahte videoların botlar tarafından üretilebileceğini ve böylece siyasal manipülasyonların kolaylaşacağını ortaya koymuştu. Sonrasında yaşanan otomatik manipülasyonları, deepfake, bir robotun okuma testinde insan rakiplerini geçmesi haberlerini hatırlayalım. İşte bunlar bize BM'nin açıklamasının haklılığını gösteriyor. Yapay zekâ, sorunun çözülmesindeki adımlara ilişkin yol haritasını içeren bir algoritmadır. Sorunun analiz edilip ihtimallerin aşamalar halinde yazılmasıyla ortaya çıkan bir program aslında. Neticede, insan zekâsının bir makine veya bilgisayar programına dönüştürülmesi gibi de anlaşılabilir. Bu alan, "sanal" bir görünüm arz etse de devletlerin, evrensel kurum ve kuralların, insanların korunmasına dair kaygılarından bağımsız düşünülemez. Hukuki açıdan itibar edilebilir, yani "güvenli" bir yapay zekanın tesisi devletlerin ve uluslararası kurumların görevidir. Yapay zekâ, hali hazırda iki tür temel düzenleme ile tahkim edilmekte ve bu alanla uğraşanları bağlamaktadır. Bunlar bir kodifikasyon, kanun veya mevzuat olarak değil henüz bir çerçeveden ibarettir. Bunlar yapay zekaya ilişkin etik kurallar ve evrensel insan hakları hukuku açısından koruma altındaki haklardır.

Evrensel ihlaller

Etik çerçeve olarak niteleyeceğimiz birinci durum; çalışmaların şeffaflığı, sonuçların hesap verebilirliği, yürütülen sürecin adil olmasını içerir. İnsan hakları hukuku boyutu ise, yapay zekâ uygulamalarının, kişisel veriler, kişi güvenliği, özel hayatın gizliliği, yaşam hakkı, düşünce ve ifade özgürlüğü, toplanma hürriyeti, adil yargılanma gibi konular açısından uygunluğuyla ilgilenir. İkinci çerçeve olan "hukuki koruma fikrinin" özü şudur: Gerçek hayatta koruma altında olan evrensel insan hakları, ihlaller yönünden sanal alemde de koruma altındadır. Misal, ayrımcılık evrensel bir ihlaldir, bir algoritma bunun üzerine kurulmuş ise bu insan haklarını ihlal eder. Özel hayat bilgilerini deşifre edecek biçimde bir yazılım yapılmaması, bunun yasak olması da bunun bir başka örneğidir. Yine, delilleri karartan bir yazılım, adil yargılanma açısından bir ihlal oluşturacaktır.

Avrupa Birliği Temel Haklar Ajansı (FRA), geçen yıl yapay zekaya dayalı, polislik, tıbbi tanı ve hedefli tanıtım amacıyla kullanımı açısından Avrupa Birliği ülkelerine uyarıda bulunmuş ve "insanların temel haklarının ve veri gizliliği kurallarının ihlali konusunda endişeli" olduğu dile getirmişti. Bu hak ihlalleri "korkusuna" gün geçtikçe yenisi eklendi. Yapay zeka, iyi yönleri ile beraber, gri alanları ve suça tekabül eden yönleri ile de gelişti çünkü! Bunun güncel örneği Adam Basanta, kendiliğinden çalışan, sürekli dizi halinde rastgele soyut resimler üreten bir bilgisayar sisteminin ürettiği bir resmin, Amel Chamandy'nin 2009'da çizdiği "Kağıtsız Dünyanız" resmine benzemesi nedeniyle açılan davadır. Böylece yapay zekanın ihlal edeceği haklar arasına telif konusu da girmiş oldu diyebiliriz. İngiltere, Fransa, Avusturya, İtalya ve Yunanistan'daki veri koruma düzenleyicilerinin, yapay zekâ şirketi Clearview AI'a sosyal medya ve internet sitelerinden insanların fotoğraflarını rızaları olmadan topladığı gerekçesi ile açılan dava ise konunun kişisel veriler boyutunun en ilgi çekici örneği. Bunun yanında, WhatsApp konuşmalarının deşifresi için üretilen yazılımlar, bilgisayar ve telefonlara yüklenen "casuslar" ise konunun özel hayat mahremiyetine tekabül eden misalleri arasında... Yapay zekanın "yargıç" olması, robot çalışanların gündeme gelmesi, toplanan verilerinin kullanımındaki belirsizlikler, veri transferinin boyutu, yüz algılamanın gelişmesi, otomatik içerik üretiminin yaygınlaşması gibi durumlar, yakın gelecekte hukukun yeni sorun alanları olarak karşımızda duruyor...

Önlemler neler?

Yapay zekanın ürünü olan sistemlerin verdiği zararlardan kimlerin nasıl sorumlu olacağı konusunda hukuki anlamda akademik eserler çıkmaya başladı. Program ve sistemlerin tabi olduğu kurallar da az çok biliniyor artık. Bu noktada kişisel verilerin korunması ve özellikle ülkelerden veri transferinin yasaklanması, veriler için anonimlik yerine, ülkesellik şartının oluşması hayati bir mahiyet taşıyor. Ancak bu gelişimin diğer gerçek anlamdaki hukuki süreçlerden farklı bir yönü var. Pek tabii insanlık geliştikçe, sosyal ilişkiler değişti. Bir takım yeni kurallar getirildi, bir kısmı artık uygulanamaz oldu. Bu hukukun normal seyri. Ancak yapay zeka meselesine bilim kurgulardan kalma bir tedirginlik ile mi bakıyoruz bilmiyorum ama ciddi ve farklı bir yönü var. Hiçbir yapılanma, yapay zekâ kadar "ele geçirme" korkusu vermiyor. Bir aşamadan sonra, yarın ne yapabileceğimizi bile doğru tahmin edecek sistemlerin ortaya çıkabileceğinin gündemleştiği bir ortamda, insan zekasının yerini yapay zekanın alması ihtimalini düşünmemiz gerekiyor!

Bu anlamda, hukukun temel haklar noktasına odaklanmasına ek olarak yapay zekanın "çığırından çıkması" ihtimaline karşı da önem alması gerekiyor. BM'nin uyarısı bizce tam bu noktaya işaret ediyor aslında. Açıklamada artan ve artacak olan hak ihlallerinin kestirilemediği bir süreçten bahsediliyor. Bu konuda tüm devletlerin ortak hareket etmesi şart. Yapay zekanın en büyük sorunu, bu çağda insana bağımlı olarak yürüttüğü bu gelişimini, bağımsız yürütme yeteneğini elde edebilmesi meselesi. Rusya Ulusal Nükleer Araştırmalar Üniversitesi'nden Aleksey Samsonoviç "Robotlar şimdilik insanlara çok bağımlı halde, bir insanı öldürebilse bile daha sonra kendi ortadan kalkar. Gelecekte robotlar kendi kendine yararlı madenler çıkarma, fabrika inşa etme gibi eylemleri yerine getirebilir; ancak bunun bizim içinde bulunduğumuz yüzyılda olmayacağını tahmin ediyorum" diyor, ya peki sonrası? Hukuk, kendini de korumak zorunda! Zira insanlığın teminatı kurallarını kendisinin koyabildiği bir düzende yatıyor...

[email protected]