Yayınlanma Tarihi
ABD’de yapay zekâ destekli sohbet botlarının ürettiği uydurma hukuki atıflar, yalnızca küçük büroları değil, artık büyük hukuk firmalarını da mahkemelerde zor durumda bırakıyor. Son olarak Butler Snow isimli büyük bir hukuk bürosu, ChatGPT’nin ürettiği sahte karar özetlerini dava dosyasına eklediği için bir federal yargıçtan özür dilemek zorunda kaldı.
Butler Snow’dan Mahkemeye Özür
ABD’nin Alabama eyaletindeki bir federal davada, Butler Snow firmasının avukatları, yapay zekâ aracı ChatGPT’nin oluşturduğu hayali dava atıflarını iki farklı dosyada kullandı. Duruşmayı yürüten Yargıç Anna Manasco’ya sunulan belgelerde yer alan bu yanlışlık sonrası, firmanın ortağı Matthew Reeves, “dikkatsizlik ve yanlış muhakeme” nedeniyle üzüntüsünü belirtti. Reeves, yanlış atıfların doğruluğunu kontrol etmediğini kabul etti.
Yapay Zeka Yanılsamaları: Sadece Küçük Firmaların Sorunu Değil
Yapay zekâ araçlarının “halüsinasyon” olarak adlandırılan bu tür hatalı içerik üretimleri, son iki yılda ABD’de pek çok avukatı disiplin soruşturmasına maruz bıraktı. Başlangıçta daha çok küçük hukuk büroları veya bireysel davacılar arasında görülürken, artık büyük firmalar da bu sorunla karşı karşıya. Geçtiğimiz hafta, Latham & Watkins bünyesindeki bir avukat, müzik yayıncılarının Anthropic’e karşı açtığı davada, yapay zekâ tarafından uydurulmuş bir makale başlığını delil olarak sunduğu için mahkemeden özür diledi.
Kurumlara Yaptırımlar Uygulanıyor
Bu ayın başlarında, K&L Gates ve Ellis George isimli iki hukuk firması, yine yapay zekâ kaynaklı yanlış atıflar nedeniyle 31.100 dolar para cezasına çarptırıldı. Söz konusu firmalar, Los Angeles eski bölge savcısı Jackie Lacey’i temsil ediyordu. Atamayı yapan özel yargıç Michael Wilner, kendisini “aktif şekilde yanıltıldığını” belirttiği kararında, belgelerdeki uydurma kaynaklara güvendiğini ancak bunların gerçekte var olmadığını fark ettiğini ifade etti.
Uzmanlar: Sorun Eğitim Eksikliğinden Kaynaklanıyor
Northwestern Üniversitesi’nde hukuk ve mühendislik alanında görev yapan akademisyen Daniel Linna’ya göre, yapay zekâ hatalarının belgelerde yer almasının temel nedeni, avukatların yeterince eğitim almamış olması. Linna, tüm risklere rağmen yapay zekânın hukuki belgelerin kalitesini artırabileceğini ve adalete erişimi kolaylaştırabileceğini belirtiyor.
