Lawyer who used ChatGPT to file charges now faces trial himself



özet
Özet

Büyük dil modellerinin ortaya çıkışından bu yana, medya ve uzmanlar alarm veriyor: Oluşturulan içerik yanlış olabilir. Bu mesaj her yerde duyulmadı.

New York’lu bir avukat, ChatGPT’nin uydurma olduğunu bilmeden var olmayan davalardan alıntı yaptı.

Söz konusu dava, uçuş sırasında bir servis arabasının dizine çarpması nedeniyle kişisel yaralanma iddiasıyla havayolu şirketini dava eden bir adamla ilgilidir.

Havayolu, davanın düşürülmesi için dilekçe verdi. Davacının hukuk ekibi, müvekkillerinin görüşlerini tartışmak için ChatGPT’yi kullanmak istedi.

reklam

bu şarj belgesi dosyalandı hukuk ekibi tarafından, “Varghese v. China Southern Airlines Co Ltd, 925 F.3d 1339 (11th Cir. 2019)” gibi uzun ve görünüşte doğru alıntılarla ChatGPT tarafından oluşturulan var olmayan yasal davalardan örnekler veriyor.

Belge Mart ayı başlarından kalmadır, bu nedenle uydurma parçalar, olgusal doğruluk açısından GPT-4’ten bile daha az güvenilir olan GPT-3.5 kullanılarak oluşturulmuştur.

Sahte alıntılar ve sahte iç alıntılarla sahte yargı kararları

Mahkeme davaların kopyalarını istedi ve hukuk ekibi yine ChatGPT’den davalarla ilgili ayrıntıları istedi. ChatGPT yanıt vermekte gecikmedi ve hukuk ekibinin iddianameye ekran görüntüleri biçiminde iliştirdiği hayali davalar hakkında çok sayıda ayrıntı icat etti – akıllı telefondaki ChatGPT arayüzü (!) dahil.

Havayolunun avukatları, davaların gerçekliğine itiraz etmeye devam ederek yargıcı, davacının hukuk ekibinden tekrar yorum yapmasını istedi.

Mahkeme eşi benzeri görülmemiş bir durumla karşı karşıyadır. Davacının vekilinin ret istemine karşı sunduğu dosya, var olmayan davalara yapılan atıflarla doludur. […] Sunulan davalardan altısının sahte alıntılar ve sahte iç alıntılarla sahte yargı kararları.

Neden Gösterme Emri

İçinde müteakip yeminli beyan, Araştırmadan sorumlu avukat Steven A. Schwartz, sistemin yanlış içerik oluşturabileceğinin farkında olmadan ChatGPT’yi araştırma için ilk kez kullandığını itiraf ediyor. ChatGPT, sorulduğunda kaynaklarının doğruluğunu “temin etmişti”.

Öneri

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top