‘Azınlık Raporu’ sineması gerçek mi oluyor?… İngiltere cinayetleri evvelce bilecek

The Guardian’da yayınlanan habere nazaran İngiliz hükümeti, cinayet sürece mümkünlüğü yüksek bireyleri belirlemek maksadıyla yapay zeka ve algoritmalar kullanan bir ‘cinayet tahmin’ programı üzerinde çalışıyor. Hükümet bu program ile şiddet hatalarının işlenmesinin önüne geçmeyi amaçlıyor. Program kapsamında polis kayıtları, kontrollü hürlük dataları ve öteki resmi kaynaklardan elde edilen ferdî bilgiler tahlil edilecek. İsim, doğum tarihi, etnik köken üzere temel bilgilerin yanı sıra ruh sıhhati geçmişi, bağımlılık durumu ve aile içi şiddet mağduriyetleri üzere hassas bilgiler de kullanılacak. İnsan hakları örgütleri, ‘tüyler ürpertici ve distopik’ olarak nitelendirdikleri programın, etik dışı ve ayrımcı olabileceği ikazında bulundu. Hükümet, projenin şimdilik sadece araştırma gayeli olduğunu söylese de aktivistler, kullanılan dataların azınlık kümelere ve fakir insanlara karşı varsayımlarda önyargı yaratabileceğini tez ediyor. İnsan hakları savunucuları ve uzmanlar, projenin günahsız beşerler üzerinde de uygulanması halinde bilhassa öğrencilerin eğitim hayatının olumsuz etkilenebileceğini, temel hakların ihlal edilebileceğini ve onların toplumdan dışlanabileceğini söylüyor. Öte yandan kelam konusu teknoloji, 2002 imali ‘Azınlık Raporu’ sinemasını de hatırlattı. Steven Spielberg tarafından çekilen bu sinema, ‘PreCrime’ isimli bir sistem sayesinde cinayetlerin daha işlenmeden öngörülmesini ve potansiyel hatalıların tutuklanmasını anlatıyordu. Marmara Üniversitesi Hukuk Fakültesi Dekan Yardımcısı Doç. Dr. Zafer İçer, özellikle gençler ve öğrenciler açısından mümkün sakıncalarına dikkat çekerek proje hakkında şunları söyledi:

CEZA HUKUKU AÇISINDAN SAKINCALI
“Bu habere nazaran insanların, cinayet yani taammüden öldürme fiilini işlemeden evvel ferdî dataları kullanılarak çeşitli programlar yoluyla potansiyel hatalı olup olmadıkları tespit edilebilecek. Bu uygulama, cürmün önlenmesi ve güvenliğin sağlanması gayeleri doğrultusunda devletlerin yapay zeka teknolojisini kullanma gereksiniminin bir örneği olarak kıymetlendirilebilir. Devletler aslında potansiyel hatalıların tespiti hakkında kimi uygulamaları kullanıyor. Başta yüz tanıma teknolojileri olmak üzere birçok dijital araç var. İngiltere’deki durumda da şahısların yüzleri, geçmişleri, sıhhat durumları, etnik kökenleri, aile içi şiddet mağduru olup olmadıkları üzere birçok bilginin kullanıldığı algoritma üzerinden cinayet sürece potansiyellerinin varsayım edildiği bir uygulama kelam konusu. Ceza hukuku açısından bakıldığında bu durum sakıncalı görünüyor. Zira ceza hukukuna nazaran bir kişinin cezalandırılması ya da soruşturulması için suça ait icra hareketlerinin başlaması gerekir. Bu kapsamda şimdi işlenmemiş bir suça ceza hukuku araçlarıyla müdahale etme imkanı yok. Burada ise potansiyel cürüm varsayımından kelam ediliyor. Bu durumda işlenmemiş ve hatta hazırlığı dahi yapılmamış bir hatanın ön görülmesiyle bu şahıslar hakkında birtakım kararların alınması kelam konusu olacak.

ÖZGÜRLÜKLERİ KISITLANACAK
Bu kapsamda yapay zeka tarafından ‘potansiyel suçlu’ ilan edilecek bireylerin belli yerlere girememesi, kalabalık faaliyetlerde yer alamaması ya da kamu binalarına alınmaması üzere yaptırımlar uygulanabilir. Haliyle bu şahısların bir noktada özgürlükleri kısıtlanmış olacak. Bu üslup uygulamalar, dünya genelinde artarak devam edecek üzere gözüküyor. Lakin burada sorun insan hakları açısından karşımıza çıkacak. Öte yandan ön yargılı algoritmalara dayanan bu uygulamaya misal nitelikteki uygulamalar eğitim kesiminde de kullanılabilir.
ÖĞRENCİLER DIŞLANABİLİR
İngiltere’nin bu uygulamasında bir yaş hududu şimdi belirtilmediği için yapay zekanın potansiyel hatalı olarak kıymetlendirdikleri çocuklar ve genç yetişkinler de olabilir. Onlar bu türlü bir durumda üniversite ve liseye girişlerde, burs müracaatlarında ya da imtihan uygulamalarında sorun yaşayabilir. Haliyle bu şahısların eğitime eşit erişim hakkı ihlal edilebilir. Hasebiyle birtakım öğrenciler, sistemden bu yüzden dışlanabilir. Yani şahısların mesleklerini, çocukların geleceklerini etkileyebilecek bir kelam konusu olabilir. Ayrıyeten bu uygulama bireylerin toplumdan dışlanmasına ve izole bir hayat yaşamasına neden olabileceği üzere onları suçluluğa da itebilir.”

ÇOK KRİTİK SONUÇLARI OLABİLİR
Prof. Dr. Tunca Doğan, Hacettepe Üniversitesi Mühendislik Fakültesi Yapay Zeka Mühendisliği Anabilim Kısmı Öğretim Üyesi:
“Daha evvel kabahat işlemiş ve isimli kaydı olanlarla ilgili çok fazla bilgi mevcut. Bunlar kullanılarak bir yapay zeka modeli eğitilebilir ve bundan sonra o şahısların cürüm işleyip işlemeyeceğiyle ilgili bir öngörüde bulunabilir. Fakat daha evvelce hata işlemeyen beşerlerle ilgili bilgiler daha hudutlu. Ayrıyeten o şahıslar daha evvelden kabahat işlemediği için bununla ilgili yapay zekanın bir ilişkilendirme yapması sıkıntı. Yani temiz insanlarda sonuçlar büyük ihtimalle daha başarısız ve aldatıcı olabilir. Modelin yanlış cevaplar vermesi çok kritik sonuçlara yol açabilir. Öte yandan bu sistemin haclenmesi, içindeki dataların çalınması ve hatta o bilgilerin daha sonra berbata kullanılması mümkün. Örneğin okulunu bitiren ve iş başvurusu yapan bir genç sadece potansiyel hatalı olarak görüldüğü için mesleğine dahi başlayamayabilir.”



