Güncelleme, 23 Haziran 2023:
Karar şu şekilde: ChatGPT başarısızlığına karışan avukatlar Peter LoDuca ve Steven A. Schwartz ile firmaları Levidow, Levidow & Oberman PC, önce yanlış davalar açarak ve ardından istendiğinde onları savunarak sorumluluklarını ihmal ettiler. New York Yargıcı Kevin Castel.
Teknolojik gelişmeler olağandır ve yardım için güvenilir bir yapay zeka aracı kullanmanın doğası gereği yanlış olan hiçbir tarafı yoktur. Ancak mevcut kurallar, dosyalamalarının doğruluğunu sağlamak için avukatlara bir bekçi rolü yükler.
Mahkeme kararından
Ceza oldukça hafiftir: Olaya karışan iki avukatın mahkemeye 5.000$ ödemesi, medya çılgınlığı nedeniyle zaten bilmesi gereken müvekkillerini yanlış adım hakkında bilgilendirmesi ve ChatGPT tarafından yanlış olarak alıntılanan gerçek yargıçları bilgilendirmesi gerekir. vakalar. Mahkeme, “zorunlu bir özür samimi bir özür olmadığı için” özür talep etmekten kaçınır.
28 Mayıs 2023 tarihli orijinal makale:
reklam
Suç duyurusunda bulunmak için ChatGPT’yi kullanan avukat şimdi yargılanıyor
Büyük dil modellerinin ortaya çıkışından bu yana, medya ve uzmanlar alarm veriyor: Oluşturulan içerik yanlış olabilir. Bu mesaj her yerde duyulmadı.
New York’lu bir avukat, ChatGPT’nin uydurma olduğunu bilmeden var olmayan davalardan alıntı yaptı.
Söz konusu dava, uçuş sırasında bir servis arabasının dizine çarpması nedeniyle kişisel yaralanma iddiasıyla havayolu şirketini dava eden bir adamla ilgilidir.
Havayolu, davanın düşürülmesi için dilekçe verdi. Davacının hukuk ekibi, müvekkillerinin görüşlerini tartışmak için ChatGPT’yi kullanmak istedi.
bu şarj belgesi dosyalandı hukuk ekibi tarafından, “Varghese – China Southern Airlines Co Ltd, 925 F.3d 1339 (11th Cir. 2019)” gibi uzun ve görünüşte doğru alıntılarla ChatGPT tarafından oluşturulan var olmayan yasal davalardan örnekler aktarıyor.
Öneri
Belge Mart ayı başlarından kalmadır, bu nedenle uydurma parçalar, olgusal doğruluk açısından GPT-4’ten bile daha az güvenilir olan GPT-3.5 kullanılarak oluşturulmuştur.
Sahte alıntılar ve sahte iç alıntılarla sahte yargı kararları
Mahkeme davaların kopyalarını istedi ve hukuk ekibi yine ChatGPT’den davalarla ilgili ayrıntıları istedi. ChatGPT yanıt vermekte gecikmedi ve hukuk ekibinin iddianameye ekran görüntüleri şeklinde eklediği hayali davalar hakkında çok sayıda ayrıntı icat etti – bir akıllı telefondaki ChatGPT arayüzü (!) dahil.
Havayolunun avukatları, davaların gerçekliğine itiraz etmeye devam ederek yargıcı, davacının hukuk ekibinden tekrar yorum yapmasını istedi.
Mahkeme eşi benzeri görülmemiş bir durumla karşı karşıyadır. Davacının vekilinin ret istemine karşı sunduğu dosya, var olmayan davalara yapılan atıflarla doludur. […] Sunulan davalardan altısının sahte alıntılar ve sahte iç alıntılarla sahte yargı kararları.
İçinde müteakip yeminli beyan, Araştırmadan sorumlu avukat Steven A. Schwartz, sistemin yanlış içerik üretebileceğinin farkında olmadan ChatGPT’yi araştırma için ilk kez kullandığını itiraf ediyor. ChatGPT, sorulduğunda kaynaklarının doğruluğunu “temin etmişti”.
Avukat ChatGPT kullandığına pişman
Schwartz, 30 yılı aşkın bir süredir bu işin içinde. Bir açıklamada, chatbot’u kullandığı için özür diledi. Üretilen bilgilerin yanlış olabileceğinden habersiz olduğunu söyledi. Gelecekte, üretilen bilgileri doğrulamadan yapay zekayı yasal bir araştırma aracı olarak kullanmayacağını söyledi.
Ancak OpenAI’nin sohbet botu, Schwartz’ın yalanlara inanmasını kolaylaştırdı: ekran görüntüleri Schwartz ile ChatGPT arasında, avukatın ChatGPT’den belirtilen davalar için kaynak istediği ve sistemin LexisNexis ve Westlaw gibi yasal veritabanlarında “iki kez kontrol” sözü verdiği konuşmaları gösterir. Ancak, doğrulama olmadan bu bilgilere güvenmemek Schwartz’ın sorumluluğundadır.

Avukat ve meslektaşları 8 Haziran’da neden disiplin cezası almamaları gerektiğini mahkemede gerekçelendirmek zorunda kalacaklar. ChatGPT ile emsal araştırmaların, ChatGPT’nin neden araştırma için kullanılmaması veya kimlik doğrulaması olmadan kullanılmaması gerektiğine dair bir emsal ve sektöre bir uyarı olması mümkündür.