Yapay zekâ avukatların başını yaktı | Kullanımı da yanılgılar da gitgide yaygınlaşıyor

Yapay zekâ yüzünden başı kedere giren avukatlar son periyotta sık sık manşetlere çıkıyor. Bu olayların ortak noktası avukatların, yasal araştırma için ChatGPT üzere bir lisan modeline başvurması, yapay zekânın ise hiç var olmayan davalar uydurması. Avukatlar bu hayali kararları fark etmeden dava evrakına ekliyor, mahkeme ya da karşı taraf fark ettiğinde ise iş işten geçmiş oluyor.
2023’te görülen bir havacılık davasında, bu türlü yanlışlı bir müracaat yapan avukat para cezasına çarptırıldı. Pekala, neden hâlâ bu yanlışlar devam ediyor?
AVUKATLAR YAPAY ZEKÂYA SARILIYOR
Yanıt epey kolay: Vakit baskısı. Hukuk dünyasında iş yükü ağır, dava çok. Avukatlar, yasal araştırmalarını hızlandırmak için yapay zekâ takviyeli araçlara yöneliyor.
Westlaw ve LexisNexis üzere profesyonel hukuk data tabanları bile artık yapay zekâ dayanaklı hizmetler sunuyor. Lakin birçok avukat, bu teknolojilerin nasıl çalıştığını tam olarak bilmiyor.
The Verge’ün haberine nazaran, 2023’te ceza alan bir avukat, ChatGPT’yi “süper arama motoru” sandığını itiraf etti. Halbuki bu araçlar yanlışsız bilgi kadar inandırıcı ancak yanlış bilgiler de üretebiliyor.
“UYDURMA KARARLARLA GELMİŞLER!”
Florida’da gazeteci Tim Burke’ün davasında avukatlar, Anayasa’nın söz özgürlüğü hususuna dayanarak davanın düşürülmesini talep etti. Fakat sundukları evraklarda 9 adet düzmece dava kararı yer alıyordu. Hakim Kathryn Kimball Mizelle, başvuruyu büsbütün geçersiz saydı ve belgeden çıkardı.
Avukat Mark Rasch yanılgıyı, “ChatGPT Pro’nun ‘deep research’ özelliğini kullandım. Westlaw’un yapay zekâ aracını da denedim” kelamlarıyla kabul etti. Rasch’in bilmediği şey ise her ikisi yazılımın da hayali referanslar üretmiş olduğuydu.
Benzer olaylar öteki yerlerde de yaşandı. Yapay zekâ şirketi Anthropic’in avukatları, Claude AI ile hazırladıkları bir uzman sözüne yanlış muharrir ismi ve başlık eklediler. Bir öteki örnekte, Minnesota’da derin uydurma görüntülerle ilgili yasa tasarısını destekleyen bir uzmanın tabirinde de ChatGPT kaynaklı kusurlu alıntılar çıktı.
California’da bir yargıç, State Farm sigorta şirketine açılan bir davada taraflardan birinin sunduğu belgeyi ikna edici bulmuştu. Lakin kararları denetim ettiğinde hiçbirinin var olmadığını gördü. Yargıç, “Okudum ve etkilendim… lakin kararlar yoktu” dedi.
BAROLAR: “GÜVENMEYİN, DENETİM EDİN!”
2024 yılında Amerikan Barolar Birliği, avukatlar için birinci sefer yapay zekâ kullanımıyla ilgili resmi rehber yayınladı. Rehberde, “Avukatlar teknolojik gelişmeleri takip etmekle yükümlüdür. Yapay zekâ araçlarının nasıl çalıştığını anlamak zorundalar” denildi. Ayrıyeten, müvekkillerin özel bilgilerinin bu sistemlere yüklenmeden evvel zımnilik risklerinin yeterli değerlendirilmesi gerektiği vurgulandı.
Suffolk Hukuk Fakültesi Dekanı Andrew Perlman, yapay zekânın yararlı olduğunu lakin denetim edilmeden kullanılmaması gerektiğini belirterek, “Yapay zekâ; dokümanları gözden geçirmek, muhtemel argümanları tartışmak ve bilgiye ulaşmak için çok tesirli. Lakin hâlâ sonuncu sorumluluk avukatta” dedi.
ABD Temsilciler Meclisi’nin Arizonalı üyesi avukat Alexander Kolodin ise ChatGPT’yi “stajyer avukat” üzere kullandığını söyledi. 2024’te, derin geçersiz görüntülerle ilgili bir yasa tasarısında tarif kısmını ChatGPT’ye yazdırdığını itiraf eden Kolodin, “Ama son denetim tekrar bende. Zaten tecrübesiz bir stajyerin işini de direkt kullanmazsınız” tabirlerini kullandı.
YAPAY ZEKÂYI KULLANMAYANLAR YETERSİZ SAYILABİLİR
Perlman’a nazaran gelecekte tartışma, “Bu avukat yapay zekâ kullandı mı?” değil, “Bu avukat neden hâlâ yapay zekâ kullanmıyor?” noktasına gelecek.
Ama kimi yargıçlar hâlâ temkinli. Californialı yargıç Michael Wilner, “Hiçbir ehil avukat, araştırma ve yazım işini büsbütün bu teknolojiye emanet etmemeli” diyerek yapay zekâya körü körüne güvenmenin yanlış olduğunu vurguladı.



