Büyük dil modellerinin ortaya çıkışından bu yana, medya ve uzmanlar alarm veriyor: Oluşturulan içerik yanlış olabilir. Bu mesaj her yerde duyulmadı.
New York’lu bir avukat, ChatGPT’nin uydurma olduğunu bilmeden var olmayan davalardan alıntı yaptı.
Söz konusu dava, uçuş sırasında bir servis arabasının dizine çarpması nedeniyle kişisel yaralanma iddiasıyla havayolu şirketini dava eden bir adamla ilgilidir.
Havayolu, davanın düşürülmesi için dilekçe verdi. Davacının hukuk ekibi, müvekkillerinin görüşlerini tartışmak için ChatGPT’yi kullanmak istedi.
reklam
bu şarj belgesi dosyalandı hukuk ekibi tarafından, “Varghese v. China Southern Airlines Co Ltd, 925 F.3d 1339 (11th Cir. 2019)” gibi uzun ve görünüşte doğru alıntılarla ChatGPT tarafından oluşturulan var olmayan yasal davalardan örnekler veriyor.
Belge Mart ayı başlarından kalmadır, bu nedenle uydurma parçalar, olgusal doğruluk açısından GPT-4’ten bile daha az güvenilir olan GPT-3.5 kullanılarak oluşturulmuştur.
Sahte alıntılar ve sahte iç alıntılarla sahte yargı kararları
Mahkeme davaların kopyalarını istedi ve hukuk ekibi yine ChatGPT’den davalarla ilgili ayrıntıları istedi. ChatGPT yanıt vermekte gecikmedi ve hukuk ekibinin iddianameye ekran görüntüleri biçiminde iliştirdiği hayali davalar hakkında çok sayıda ayrıntı icat etti – akıllı telefondaki ChatGPT arayüzü (!) dahil.
Havayolunun avukatları, davaların gerçekliğine itiraz etmeye devam ederek yargıcı, davacının hukuk ekibinden tekrar yorum yapmasını istedi.
Mahkeme eşi benzeri görülmemiş bir durumla karşı karşıyadır. Davacının vekilinin ret istemine karşı sunduğu dosya, var olmayan davalara yapılan atıflarla doludur. […] Sunulan davalardan altısının sahte alıntılar ve sahte iç alıntılarla sahte yargı kararları.
İçinde müteakip yeminli beyan, Araştırmadan sorumlu avukat Steven A. Schwartz, sistemin yanlış içerik oluşturabileceğinin farkında olmadan ChatGPT’yi araştırma için ilk kez kullandığını itiraf ediyor. ChatGPT, sorulduğunda kaynaklarının doğruluğunu “temin etmişti”.
Öneri
Avukat ChatGPT kullandığına pişman
Schwartz, 30 yılı aşkın bir süredir bu işin içinde. Bir açıklamada, chatbot’u kullandığı için özür diledi. Üretilen bilgilerin yanlış olabileceğinden habersiz olduğunu söyledi. Gelecekte, üretilen bilgileri doğrulamadan yapay zekayı yasal bir araştırma aracı olarak kullanmayacağını söyledi.
Ancak OpenAI’nin sohbet botu, Schwartz’ın yalanlara inanmasını kolaylaştırdı: ekran görüntüleri, Schwartz ile ChatGPT arasında, avukatın ChatGPT’den belirtilen davalar için kaynak istediği ve sistemin LexisNexis ve Westlaw gibi yasal veritabanlarında “iki kez kontrol” sözü verdiği konuşmaları gösterir. Ancak, doğrulama olmadan bu bilgilere güvenmemek Schwartz’ın sorumluluğundadır.

Avukat ve meslektaşları 8 Haziran’da neden disiplin cezası almamaları gerektiğini mahkemede gerekçelendirmek zorunda kalacaklar. ChatGPT ile emsal araştırmaların, ChatGPT’nin neden araştırma için kullanılmaması veya kimlik doğrulama olmadan kullanılmaması gerektiğine dair emsal teşkil etmesi ve sektöre bir uyarı olması mümkündür.